VDI – So nahe und doch so fern

Momentan beschäftige ich mich gerade mit einer Technologie, die sich VDI nennt.

The Hannes Kainzbauer e.U. Site!

VDI: Virtual Desktop Infrastructure

Kurz erklärt heißt dies: man arbeitet hier und die Rechenleistung kommt von wo anders her.

Technisch funktioniert dies so, dass man zuerst einen Virtualisierungshost (physischer Rechner) benötigt, auf dem man eine oder mehrere virtuelle Maschinen, also einen oder mehrere virtuelle Computer, installiert. Auf diesem setzt man dann ein Betriebssystem wie zB Windows XP oder 7 auf. Danach kann man von einem anderen Gerät aus (Laptop, Tablet-PC, Workstation, SmartPhone, etc.) über ein so genanntes Remote-Desktop-Protokoll eine Verbindung zum Betriebssystem in der virtuellen Maschine herstellen und arbeitet dann ganz normal auf diesem.
Für den benutzten Computer heißt das, dass er nur mehr zum „dummen“ Ein-/Ausgabegerät degradiert wird, da nur noch Tastaturanschläge und Mausbewegungen an den (weit) entfernten virtuellen PC gesendet bzw. Daten von diesem empfangen werden.

Vorteil: Zentralisierung der IT

Vorteile zeigen sich konkret im einfacheren Verwalten sowie Bereitstellen der Arbeitsplätze. In dem, dass auf den Arbeitsplatzgeräten (fast) keine Software mehr benötigt wird, ist der Austausch der Geräte in Minuten erfolgt. Die Rechenleistung an sich wird ja von der entfernten virtuellen Maschine erledigt.

Auch erhöht sich die Sicherheit, da zB verlorene Laptops keine lokalen Daten mehr enthalten. Einheitliche Zugriffskontrollen, Anti-Viren,Software und Sicherheitskonzepte sind ebenfalls einfacher durchzusetzten.

Anwendung:

Anwendung kann diese Technik vor Allem bei der Anbindung von externen Niederlassungen, Heimarbeitern oder Außendienstlern finden, da der Zugriff eben über ein Remote-Protokoll erfolgt, das nur noch über WAN-Verbindungen transportiert werden muss.

Zusammenfassung:

Alles in Allem könnte man das Ganze also als virtuelles Verlängerungskabel für Maus, Tastatur und Bildschirm über das Internet zum PC in der Firma bezeichnen. Nette Sache!

Interesse? Für Fragen stehe ich jederzeit zur Verfügung! Hannes Kainzbauer e.U.

^PP

Advertisements

IPv6: Internet der nächsten oder übernächsten Generation?

Das Internet Protocol Version 6 (IPv6) wird schon seit einigen Jahren (genauer seit 1998) als der Nachfolger der gegenwärtig im Internet verwendeten Version 4 des Internet Protokolls gehandelt. Ebenso wie diese Version des Protokolls dient IPv6 zur Vermittlung von Daten auf Basis von Paketen, der Adressierung der beteiligten Netzwerkelemente und dem Vorgang der Paketweiterleitung zwischen Teilnetzen (Routing). Somit ist diese Version auch in der Schicht 3 (Vermittlungsschicht) des ISO-OSI Schichtenmodells angesiedelt.

Wo liegen die Gründe für das neue Protokoll?

In den Geburtsstunden des Internets dachte man, dass man mit dem Adressraum von IPv4 von etwas über vier Milliarden IP-Adressen (232 = 2564 = 4.294.967.296) auskommen würde. Aufgrund des unvorhergesehenen Wachstums des Internets und des Aufkommens mobiler Endgeräte, speziell im asiatischen Raum, herrscht heute aber Adressenknappheit. Weiter ist durch die damals vorherrschende Vergabepraxis des IPv4-Adressraums inzwischen eine starke Fragmentierung vorhanden, d.h. häufig gehören mehrere nicht zusammenhängende Adressbereiche zur gleichen organisatorischen Instanz. Daraus resultieren vor allem lange Routingtabellen, welche hohe Verarbeitungsanforderungen an die Router stellen.

Wo liegen die Unterschiede?

  • Vergrößerung des Adressraums durch die Verlängerung auf 128 Bit (2^128 ergibt ca. 340 Sextillionen Adressen)
  • Vereinfachung und Verbesserung des Protokollrahmens (Kopfdaten)
  • zustandslose automatische Konfiguration von IPv6-Adressen (DHCP somit überflüssig)
  • Implementierung von IPsec  zur Verschlüsselung
  • Adressierung in hexadezimal (statt dezimal bei IPv4) in acht Blöcke zu jeweils 16 Bit (4 Hexadezimalstellen) unterteilt wird

Unterstützung durch die Betriebssysteme:

Erstmalig wurde das neue IP-Protokoll in Mac OSX in der Version 10.3 unterstützt.  In den Windows Versionen fand IPv6 erstmalig (ohne Installation eines Protokollstapels mittels Patch) Einzug.

Obwohl IPv6 bereits im Juli 1998 als Standard verabschiedet wurde, hat es sich noch nicht so recht durchgesetzt. Meist werden IPv6-Tunnellösungen eingesetzt. Diese werden inzwischen recht häufig genutzt, um die Datenpakete über bestehende IPv4-Netze zu leiten. Die verschiedenen Systeme bieten dabei jeweils Vor- und Nachteile, bergen aber auch Sicherheitsrisiken.

Immer mehr ISPs betreiben neben IPv4 auch IPv6 in ihrem Netz, dieses aber zumeist nur testweise und entweder ohne entsprechende Produkte oder ohne Verfügbarkeitsgarantien für ihre Kunden. Somit werden vollwertige IPv6-Anbindungen im Dual-Stack-Verfahren fast nur von kleineren Providern angeboten, so dass man oft auf die vorher erwähnten Tunnel zurückgreifen muss.

Ich unterstütze Sie gerne bei der Umsetzung von IPv6 Konzepten und Tunnellösungen im Unternehmen. Näheres gerne auf Anfrage auf meiner Website Hannes Kainzbauer e.U.

^MS

Cloud Computing – eben doch keine „Eierlegende Wollmilchsau“

Bis zu 36 Stunden waren Web 2.0 Unternehmen wie Reddit oder BigDoor nicht erreichbar. Der Großausfall in der Amazon Cloud macht deutlich, welche Probleme Cloud Computing mit sich bringt. Der Internetpionier Dave Faber kommentiert den Ausfall der Amazon Wolke gegenüber ORF.at als Spitze eines Eisbergs, der in der nächsten Zeit echte Troubles bringen wird.

Im Falle von Amazon sind Informationen über Netzwerkprobleme bekannt, die den kompletten Ausfall eines Rechenzentrums zur Folge hatte. Cluster Nodes verloren dabei die Verbindung zu ihren Replikationspartnern. Die Nodes reagierten nach dem Beheben eines Konfigurationsfehlers mit einer Suche nach Replikationspartnern die Online sind und genügend freien Speicherplatz aufweisen. Diese Maßnahme soll einen möglichen Datenverlust verhindern. Durch die Vielzahl an ständig nach Speicherplatz suchende Nodes trat eine Race Condition ein die weitere Nodes lahm legte. Betroffen vom Ausfall war der Osten der USA.

Amazon kündigte an, dass in Zukunft vermehrt die Möglichkeit genutzt werden soll, Daten gleichzeitig in mehreren Zonen redundant zu speichern, zudem erhalten betroffene Systeme zehn Tage freie Nutzung.

Es bleibt abzuwarten, welche Probleme uns in Zukunft noch erwarten. Fakt ist, dass wir über Cloud Computing und die damit verbundenen Probleme und Risiken noch viel zu lernen haben. Wir stehen gerne beratend zur Seite und zeigen klar die Vor- und Nachteile von Cloud Computing und klassischen Serverumgebungen auf.

Besuchen Sie hierzu einfach meine Website: Hannes Kainzabuer e.U.

^MM