VDI – So nahe und doch so fern

Momentan beschäftige ich mich gerade mit einer Technologie, die sich VDI nennt.

The Hannes Kainzbauer e.U. Site!

VDI: Virtual Desktop Infrastructure

Kurz erklärt heißt dies: man arbeitet hier und die Rechenleistung kommt von wo anders her.

Technisch funktioniert dies so, dass man zuerst einen Virtualisierungshost (physischer Rechner) benötigt, auf dem man eine oder mehrere virtuelle Maschinen, also einen oder mehrere virtuelle Computer, installiert. Auf diesem setzt man dann ein Betriebssystem wie zB Windows XP oder 7 auf. Danach kann man von einem anderen Gerät aus (Laptop, Tablet-PC, Workstation, SmartPhone, etc.) über ein so genanntes Remote-Desktop-Protokoll eine Verbindung zum Betriebssystem in der virtuellen Maschine herstellen und arbeitet dann ganz normal auf diesem.
Für den benutzten Computer heißt das, dass er nur mehr zum „dummen“ Ein-/Ausgabegerät degradiert wird, da nur noch Tastaturanschläge und Mausbewegungen an den (weit) entfernten virtuellen PC gesendet bzw. Daten von diesem empfangen werden.

Vorteil: Zentralisierung der IT

Vorteile zeigen sich konkret im einfacheren Verwalten sowie Bereitstellen der Arbeitsplätze. In dem, dass auf den Arbeitsplatzgeräten (fast) keine Software mehr benötigt wird, ist der Austausch der Geräte in Minuten erfolgt. Die Rechenleistung an sich wird ja von der entfernten virtuellen Maschine erledigt.

Auch erhöht sich die Sicherheit, da zB verlorene Laptops keine lokalen Daten mehr enthalten. Einheitliche Zugriffskontrollen, Anti-Viren,Software und Sicherheitskonzepte sind ebenfalls einfacher durchzusetzten.

Anwendung:

Anwendung kann diese Technik vor Allem bei der Anbindung von externen Niederlassungen, Heimarbeitern oder Außendienstlern finden, da der Zugriff eben über ein Remote-Protokoll erfolgt, das nur noch über WAN-Verbindungen transportiert werden muss.

Zusammenfassung:

Alles in Allem könnte man das Ganze also als virtuelles Verlängerungskabel für Maus, Tastatur und Bildschirm über das Internet zum PC in der Firma bezeichnen. Nette Sache!

Interesse? Für Fragen stehe ich jederzeit zur Verfügung! Hannes Kainzbauer e.U.

^PP

IPv6: Internet der nächsten oder übernächsten Generation?

Das Internet Protocol Version 6 (IPv6) wird schon seit einigen Jahren (genauer seit 1998) als der Nachfolger der gegenwärtig im Internet verwendeten Version 4 des Internet Protokolls gehandelt. Ebenso wie diese Version des Protokolls dient IPv6 zur Vermittlung von Daten auf Basis von Paketen, der Adressierung der beteiligten Netzwerkelemente und dem Vorgang der Paketweiterleitung zwischen Teilnetzen (Routing). Somit ist diese Version auch in der Schicht 3 (Vermittlungsschicht) des ISO-OSI Schichtenmodells angesiedelt.

Wo liegen die Gründe für das neue Protokoll?

In den Geburtsstunden des Internets dachte man, dass man mit dem Adressraum von IPv4 von etwas über vier Milliarden IP-Adressen (232 = 2564 = 4.294.967.296) auskommen würde. Aufgrund des unvorhergesehenen Wachstums des Internets und des Aufkommens mobiler Endgeräte, speziell im asiatischen Raum, herrscht heute aber Adressenknappheit. Weiter ist durch die damals vorherrschende Vergabepraxis des IPv4-Adressraums inzwischen eine starke Fragmentierung vorhanden, d.h. häufig gehören mehrere nicht zusammenhängende Adressbereiche zur gleichen organisatorischen Instanz. Daraus resultieren vor allem lange Routingtabellen, welche hohe Verarbeitungsanforderungen an die Router stellen.

Wo liegen die Unterschiede?

  • Vergrößerung des Adressraums durch die Verlängerung auf 128 Bit (2^128 ergibt ca. 340 Sextillionen Adressen)
  • Vereinfachung und Verbesserung des Protokollrahmens (Kopfdaten)
  • zustandslose automatische Konfiguration von IPv6-Adressen (DHCP somit überflüssig)
  • Implementierung von IPsec  zur Verschlüsselung
  • Adressierung in hexadezimal (statt dezimal bei IPv4) in acht Blöcke zu jeweils 16 Bit (4 Hexadezimalstellen) unterteilt wird

Unterstützung durch die Betriebssysteme:

Erstmalig wurde das neue IP-Protokoll in Mac OSX in der Version 10.3 unterstützt.  In den Windows Versionen fand IPv6 erstmalig (ohne Installation eines Protokollstapels mittels Patch) Einzug.

Obwohl IPv6 bereits im Juli 1998 als Standard verabschiedet wurde, hat es sich noch nicht so recht durchgesetzt. Meist werden IPv6-Tunnellösungen eingesetzt. Diese werden inzwischen recht häufig genutzt, um die Datenpakete über bestehende IPv4-Netze zu leiten. Die verschiedenen Systeme bieten dabei jeweils Vor- und Nachteile, bergen aber auch Sicherheitsrisiken.

Immer mehr ISPs betreiben neben IPv4 auch IPv6 in ihrem Netz, dieses aber zumeist nur testweise und entweder ohne entsprechende Produkte oder ohne Verfügbarkeitsgarantien für ihre Kunden. Somit werden vollwertige IPv6-Anbindungen im Dual-Stack-Verfahren fast nur von kleineren Providern angeboten, so dass man oft auf die vorher erwähnten Tunnel zurückgreifen muss.

Ich unterstütze Sie gerne bei der Umsetzung von IPv6 Konzepten und Tunnellösungen im Unternehmen. Näheres gerne auf Anfrage auf meiner Website Hannes Kainzbauer e.U.

^MS

Cloud Computing – eben doch keine „Eierlegende Wollmilchsau“

Bis zu 36 Stunden waren Web 2.0 Unternehmen wie Reddit oder BigDoor nicht erreichbar. Der Großausfall in der Amazon Cloud macht deutlich, welche Probleme Cloud Computing mit sich bringt. Der Internetpionier Dave Faber kommentiert den Ausfall der Amazon Wolke gegenüber ORF.at als Spitze eines Eisbergs, der in der nächsten Zeit echte Troubles bringen wird.

Im Falle von Amazon sind Informationen über Netzwerkprobleme bekannt, die den kompletten Ausfall eines Rechenzentrums zur Folge hatte. Cluster Nodes verloren dabei die Verbindung zu ihren Replikationspartnern. Die Nodes reagierten nach dem Beheben eines Konfigurationsfehlers mit einer Suche nach Replikationspartnern die Online sind und genügend freien Speicherplatz aufweisen. Diese Maßnahme soll einen möglichen Datenverlust verhindern. Durch die Vielzahl an ständig nach Speicherplatz suchende Nodes trat eine Race Condition ein die weitere Nodes lahm legte. Betroffen vom Ausfall war der Osten der USA.

Amazon kündigte an, dass in Zukunft vermehrt die Möglichkeit genutzt werden soll, Daten gleichzeitig in mehreren Zonen redundant zu speichern, zudem erhalten betroffene Systeme zehn Tage freie Nutzung.

Es bleibt abzuwarten, welche Probleme uns in Zukunft noch erwarten. Fakt ist, dass wir über Cloud Computing und die damit verbundenen Probleme und Risiken noch viel zu lernen haben. Wir stehen gerne beratend zur Seite und zeigen klar die Vor- und Nachteile von Cloud Computing und klassischen Serverumgebungen auf.

Besuchen Sie hierzu einfach meine Website: Hannes Kainzabuer e.U.

^MM

Gewaltiger Datenklau im Sony Universum!

Wie in den Medien überall berichtet wird, ist Sonys Online Netzwerk der Spielekonsole Playstation von einem gigantischen Datenskandal betroffen.

Sobald Sony darauf aufmerksam wurde, wurden die Onlinedienste sofort Offline gestellt. Alle User, die diese Onlinedienste von Sony nutzten und ihre persönlichen Daten bekannt gaben, sind von dem Hackangriff betroffen. Nach bereits ersten Untersuchungen wurde festgestellt, dass die Hacker demnach in Besitz von Name, Adresse, Land, E-Mail Adresse, Geburtsdatum, User-Name und Passwort für den Sony Online Dienst gekommen sind. Möglicherweise konnten die Hacker auch auf Kreditkarteninformationen zugreifen.

Hier hab ich einige Punkte zusammengefasst, die die betroffenen User, aber auch für User anderer Dienste, beachtet werden sollten:

  • Login-Passwort ändern: Die Häcker könnten mit den geklauten Daten in den Account der User eindringen und weitere Informationen ausfindig machen. Zu beachten sind Buchstaben und Zahlen beim Passwort, um die Sicherheitsstufe zu erhöhen.
  • Das gleich gewählte Passwort bei anderen Accounts ändern: Und am besten nicht das neu gewählte Passwort der Sony Dienste, um zu vermeiden, dass die Häcker weiteren Schaden auf anderen Plattformen verursachen. Für verschiedene Plattformen verschiedene Passwörter verwenden!
  • Regelmäßig die Kontoauszüge überwachen: Solange nicht bekannt ist, ob die Hacker die Kreditkartendaten tatsächlich entwendet haben oder nicht, ist eine eigenständige Kontrolle der Kontoauszüge unumgänglich!

Wenn Sie diese Punkte beachten, erschweren Sie es den Hackern zukünftig Ihre Daten zu missbrauchen.

^AT

Apple, Google und Co wissen wo wir sind!

Nach einer Blogpause über die Feiertage hoffe ich heute wieder zahlreiche LeserInnen zu erreichen. Ich hoffe ihr hattet auch ein erholsames Osterfest. Ein Thema, das zwischen IT-Interessierten an diesem Wochenende heiß diskutiert wurde, ist die Aufzeichnung von Ortsdaten durch Apple, Google und Co.

Die bereits von vielen Smartphone-Besitzern geahnte Speicherung von Geodaten ist seit Ende letzter Woche nun bestätigt. Das Ausmaß der Datenspeicherung dürfte jedoch die Vorstellung vieler Smartphone-User übertreffen. Die Geodaten werden letzten Berichten zu Folge auch zwischen den Servern von Apple, Google und Co. synchronisiert.  Wie schwach der Schutz von Geodaten ist, zeigt der Hacker Samy Kamkar mit einem Proof of Concept. Dabei reicht der Besuch des potentiellen Opfers auf einer selbst erstellten Website aus, um dessen Aufenthaltsort jederzeit festzustellen.

Die Stellungnahme der Unternehmen fällt wie zu erwarten unspektakulär und sachlich aus. So verwiesen namhafte Unternehmen darauf, dass diese Daten für die statistische Erfassung von Verkehrsdaten und zur Wiederaufnahme des Kontakts nach verlorenem Signal dienen.

Der wohl interessanteste Ansatz, der sich hinter diesen Daten versteckt, ist wohl der Zugang zu ortsgebundenen Anzeigen. Die erfassten Daten könnten von Unternehmen verwendet werden, um personalisierte und ortsbezogene Angebote an den Kunden zu bringen. Derzeit gilt Foursqare als einer der Vorreiter rund um Location-based Services.

Wir dürfen weiter gespannt sein, was mit unseren persönlichen Daten veranstaltet wird, auch wenn eine hohe Anzahl der Smartphone-Besitzer die Verwendung dieser Daten nicht befürwortet.

Auch ich spreche mich hier gegen eine Aufzeichnung dieser Daten aus.

^MM

Unified Communications – integrierte Kommunikation in Echtzeit

Durch die Wettbewerbsintensivierung auf den globalen Märkten ist eine direkte und rasche Adressierbarkeit der einzelnen Mitarbeiter und auchder Geschäftsführung unabdingbar. Wichtig ist es, der Konkurrenz immer einen entscheidenden Schritt voraus zu sein.

Für eine rasche Entscheidungsfindung ist somit eine unkomplizierte und schnelle Art und Weise in der Kommunikation von Nöten, unternehmensweit und unabhängig von ihrem Medium.

Die Idee hinter Unified Communications ist die Vereinheitlichung der Kommunikation. Sämtliche Endgeräte und Werkzeuge wie Telefon, Fax, E-Mail, Web-, Audio- und Videokonferenzen sowie Instant Messaging werden auf einer einheitlichen Kommunikationsplattform abgebildet. Durch eine zusätzliche Präsenzfunktion, welche von Instant Messangern wie Skype oder ICQ bekannt ist, wird die Erreichbarkeit der einzelnen Wissensträger verbessert und Geschäftsprozesse beschleunigt.

Der User kann mit einem einzigen Zugang alle Kommunikationsformen nutzen. Auch über Unternehmensgrenzen hinweg. Somit ist Unified Communications (kurz: UC) die Antwort darauf, dass durch die steigende Anzahl an verfügbaren Kommunikationsmittel sich die Komplexität in der kollaborative Zusammenarbeit erhöht und gleichzeitig die Erreichbarkeit sinkt.

 

UC setzt sich aus folgenden Bausteinen zusammen:

Medienintegration:

    • Integration der Kommunikationsmedien mittels IP-Technologie, ISDN, PSTN (Fax)
    • Die Kommunikation wird automatisch auf die verfügbaren Geräte gelenkt

Präsenzinformation:

    • Icon symbolisiert die Erreichbarkeit

Kontexintegration:

    • Auslösen einer Kommunikation aus Dritthersteller Software, z.B. ERP, CRM

Weitere Kooperationsfunktionen

    • Web-Conferencing

 

Folgende Nutzen ergeben sich daraus für das Unternehmen:

  • Leichtere Kommunikation
  • Beschleunigung der Geschäftsprozesse
  • effizientere Zusammenarbeit
  • steigende Produktivität in den Projektteams
  • rasche Reaktion auf neue Anforderungen
  • Kostenreduktion bei der Infrastruk

Heutige führende Anbieter sind vor allem Microsoft, Novell und in Österreich auch A1 Telekom Austria.

^MS

Cloud-Zukunft „Homomorphic Encryption“

Die Vision der Cloud heißt einerseits:  „Unbeschränkte IT-Ressourcen“.  Ist der Preis dadurch unbegrenzte Abhängigkeit?  Und wenn der gläserne Mensch zunehmend Realität wird, entsteht dadurch auch das gläserne Unternehmen?

Die Macht globaler Player als „Besitzer“ nicht „Eigentümer“ von Informationen und Methoden berge ein enormes Risiko. Angebote müssten daher über eine Cloud-Rating-Agentur auf Seriosität geprüft werden. Als sicherer Weg in die Zukunft wird die sogenannte „Homomorphic Encryption“ bezeichnet.

Unternehmenskritische oder private Daten können demnach in einer Homomorphic Encrypted Box abgelegt und bearbeitet werden. Dabei können nur die Nutzer selbst ihre Daten und die Ergebnisse der Berechnungen ihres SaaS-Providers lesen, da nur sie den entsprechenden Schlüssel dazu besitzen.

Bisher läuft das System aber nur mit den Grundrechnungsarten. Die Entwicklung der Cloud als eine Art Black Box wird noch einige Jahre andauern. Für die Verarbeitung von Daten auf diese Weise ist eine irre Rechenleistung nötig – dafür braucht man aber wieder Cloud!

Bis es soweit ist, gilt es, einige andere Vorsichtsmaßnahmen zu treffen:

  • Mischung mehrerer Anbieter
  • Interagierende Packages zu schnüren, die der Kunde selbst zusammenstellen kann
  • Die individuelle Anpassbarkeit der Module

Wer der Meinung ist, die Cloud-Thematik betreffe ohnehin nur die IT-Fuzzys, der irrt gewaltig. Gerade in der Produktion machen Firmen viel zu wenig, um firmenkritische Daten zu schützen. STUXNET ist ein hervorragendes Beispiel, wie man Schwachstellen in einem veralteten Windows-System aufmachen kann. Ich sehe immer wieder, dass die Unternehmen  den Wert ihrer Produktionsdaten überhaupt nicht kennen. Es fehlt jegliche Klassifizierung was wie viel Wert ist und welcher Schutz daher vonnöten ist. Die Firmen sind in einem Schadensfall oft gar nicht in der Lage, diesen realistisch zu beziffern.

Ganz allgemein gilt für die IT-Wetterlage daher:

Leichte Bewölkung mit vereinzelte auftretenden Gewittern – man sollten den Regenschirm nicht vergessen!

^AT

YELP … mal schauen was geht

Yelp-Logo

Ich arbeite gerade an einem Web2.0-Projekt und bin dabei gerade auf Yelp gestoßen. Ich glaube ich mache gleich mal einen kleinen Usabillity-Test mit der „Think-Aloud“-Methode …

1. Aufgabenstellung: Was ist Yelp?
Nach kurzer Orientierung auf der Startseite, bei der 2 Suchfenster für Ort und Geschäftstyp, ein Microblog, eine Keyword-Cloude, Ads usw. enthält, stoße ich auch sogleich am unteren Site-Rand auf „Über Yelp“. Da springen einem schon „10 Dinge die man über Yelp wissen sollte“ entgegen. Der Slogan verspricht: „Menschen großartige lokale Geschäfte näher Bringen.“ Das ging ja einigermaßen rasant.

2. Aufgabenstellung: Registrieren!
Da ich ja nun Lunte gerochen habe, suche ich auch gleich den Registrierlink, welcher auch webkonform rechts oben platziert wurde. Als witzige Eigenad sticht gleich mal ein Pic hervor. Formular ist sehr einfach auszufüllen. Facebookdanimport kann man auch überspringen. Der nächste Schritt ist ein wenig überraschend. Yelp fragt mich, ob sie nicht über meine E-Mail-Account-Daten für mich meine Freunde ausfindig machen wollen. Brauchen dazu meine E-Mail-Adresse und E-Maill-Account-Passwort. Habe komisches gefühl dabei, clicke auf überspringen. So, nach erfolgreicher E-Mail-Bestätigung bin ich nun Yelpianer!

3.  Aufgabenstellung: Was nun?
Also nach ein bisschen Herumsurfen stelle ich fest, dass es durch aus Spaß macht. Das Grundprinzip ist es seinen Senf überall dazu geben zu können! Man geht schlecht essen und Schreibt bei Yelp entsprechendes Feedback oder man lobt seinen Frisör. Ich für meine zwecke habe mich selbst gleich mal angelegt und mal soeben 5 Sterne vergeben. 🙂

Fazit:
Nett, einfach, intuitiv mit der Möglichkeit sich an fiese Werkstätten rächen zu können!

Website oder Blog? Oder vielleicht doch beides?

Die Entscheidung darüber, ob ein Unternehmen eine Website oder lieber einen Blog verwenden soll, ist gar nicht so einfach. In Zeiten von Social Media könnte man meinen, die klassische, statische Website hätte bereits ausgedient. Doch die klassische Website ist bei weitem noch kein Auslaufmodell. Zu einem seriösen und gut aufgestellten Unternehmen gehört nun mal eine Website, die professionell rüberkommt. Aus meiner Erfahrung her kann ich sagen, dass direkte Interessenten oftmals die Website aufrufen umd sich über das Portfolio bzw. die Leistungen informieren.

Einen Blog zu führen ist zwar schön, bringt aber auch sehr viel Arbeit mit sich, weil dieser laufend aktualisiert werden muss. Je Interessanter die Inhalte des Blogs sind, desto eher werden die User vorbeischauen. Ein Blog kann entweder in die statische Website eingebunden werden oder aber auch getrennt geführt werden. Einen Verweis auf die Website bzw. auf den Blog macht sicherlich Sinn in Hinblick auf eine Suchmaschinenoptimierung.

Es gibt viele Möglichkeiten, wie Unternehmen sich im Web bzw. den Kunden präsentieren. Wichtig ist sich dabei auf die Zielgruppe zu konzentrieren und zu wissen, was sie braucht. 

^BL

How much is the fish? – Aquarium im Apple Macintosh

Wer kennt das nicht?

Ausgediente Computer Hardware und Peripherie verstellen wertvollen Lagerplatz im Keller des Hauses.

Bei der eigenen Freundin stößt man auf massive Widerstände („Wer braucht denn den Schrott noch“) und wird von derselbigen aufgefordert „gefälligst Ordnung zu schaffen“.

Der Versuch, in den eigenen vier Wänden eine historische Ausstellung der Computerevolution nachzubilden und mit Freunden in Erinnerungen zu schwelgen wird ebenso rigoros abgelehnt.

Doch irgendwie hängen schöne Erinnerungen und auch mittlerweile ein stattlicher Sammlerwert an diesen Stücken, sodass man sie nicht einfach einem Altstoffsammelzentrum zuführen möchte.

Kürzlich, beim Anblick meiner mittlerweile schon sehr umfangreichen Sammlung an ausgedienten Apple Computer (Classic, Performa, IMac, Cube), erinnerte ich mich an eine, vor Jahren sehr populäre Art, seinen Computer auf sinnvolle Weise weiterzuverwenden.

Von einigen Firmen wurden damals Einbaukits angeboten, mit denen man seinen Mac als Aquarium weiternutzen konnte.

Damals wie heute war nicht nur das Unternehmen mit dem Apfel-Logo federführend in Sachen Designgebung und Ideenfindung, sondern auch die „Third-Party-Suppliers“ hatten immer wieder bahnbrechende, lustige und kreative Ideen.

Ich möchte somit allen Computer-Bastlern und jetzigen Apple-Jüngern, denen es ähnlich geht, diese, ein bisschen in Vergessenheit geratene, Umbauanleitung mit dem angeführten Link näherbringen.

Die Fische in meiner Wohnung schwimmen bereits und auch meine Freundin ist zufrieden gestimmt mit dieser Lösung.

Hier gehts zur Anleitung: http://bit.ly/MYuIg

^MS