Mit dem englischen Begriff Virtual Desktop Infrastructure (VDI) wird eine IT-Infrastruktur zur Zentralisierung und Virtualisierung der Funktionalitäten von Desktop-Rechnern bezeichnet. Durch den Einsatz von VDI lässt sich die Ausstattung der Desktop-Clients am Arbeitsplatz wesentlich reduzieren.

Allgemeine Informationen

Das Konzept der Desktop-Virtualisierung basiert auf dem Ansatz, sämtliche Funktionalitäten eines Arbeitsplatz-Rechners über ein zentrales System, wie beispielsweise Hyper-V, zur Verfügung zu stellen. Der Anwender benötigt am Arbeitsplatz lediglich einen Client, auf dem er den virtualisierten Desktop-PC aufruft. Die Bedienung gestaltet sich dabei wie bei einem gewöhnlichen Desktop-PC. Per Tastatur und Maus wird der Client gesteuert und die Ausgabe der grafischen Anzeige erfolgt lokal über den Monitor, während sämtliche Software-Komponenten auf einem zentralen Server ausgeführt werden.

Der Anwender befindet sich an einem anderen Ort als sein virtueller Desktop-PC. Die Übertragung aller Ein- und Ausgaben zwischen dem Client und Server wird über das Netzwerk realisiert. Der Zugriff auf eine Virtual Desktop Infrastructure (VDI) ist prinzipiell sowohl über das Internet als auch über ein lokales Netzwerk möglich. Um alle Funktionalitäten performant bereitstellen zu können, muss das Netzwerk bestimmte Mindestanforderungen in Bezug auf die Bandbreite und Latenz erfüllen. Im Kontext einer Virtual Desktop Infrastructure wird der Client als Terminal und der Server als Terminal-Server bezeichnet. Die Protokolle, über die die gesamte Kommunikation realisiert wird, sind bei den meisten Systemen proprietär und unterscheiden sich von Anbieter zu Anbieter. Eines der bekannteren Protokolle ist zum Beispiel das Remote Desktop Protocol (RDP), das von Microsoft entwickelt wird.

Bekannte Systeme

Auf dem Markt gibt es eine Vielzahl von Herstellern die unterschiedliche Virtual Desktop Infrastructure-Systeme anbieten. Neben kostenpflichtigen Lösungen sind auch Open Source-Lösungen für die Virtualisierung der Desktop-Infrastruktur samt Clients erhältlich. Die bekanntesten kommerziellen VDI Systeme werden von folgenden Herstellern entwickelt:

–       HP

–       Fujitsu

–       Microsoft

–       Dell

–       Citrix

–       VMWare

–       ViewSonic

–       VXL Instruments

Frei verfügbare VDI-Lösungen auf Open Source-Basis sind beispielsweise:

–       QVD Community Edition

–       Linux Terminal Server Project

Die verschiedenen Client-Arten im Überblick

Im Rahmen einer Virtual Desktop Infrastructure können unterschiedliche Arten von Clients eingesetzt werden. Grundsätzlich werden drei verschiedene Client-Typen unterschieden. Eine eindeutige Abgrenzung zwischen den einzelnen Typen existiert jedoch nicht:

–       Zero Client

–       Thin Client

–       Thick Client

Der Zero Client

Bei dem sogenannten Zero Client handelt es sich um ein maximal abgespecktes Gerät. Zero Clients sind prinzipiell ohne Eingriff eines Administrators einsatzfähig. Eine individuelle Anpassung  des Zero Clients für den Fernzugriff ist nicht nötig. Sobald der Zero Client an das Netzwerk angebunden und mit einer Maus und Tastatur verbunden ist, kann er als virtueller Desktop eingesetzt werden. Die meisten Zero Clients setzen sich aus einem sehr kleinen Computergehäuse zusammen, das sich mit dem Monitor, der Maus und Tastatur sowie dem Netzwerk verbinden lässt. Weitere charakteristische Merkmale eines Zero Clients sind:

–       kein Konfigurationsaufwand und eine simple Administration

–       auf dem Zero Client befindet sich keine oder nur Minimalsoftware

–       aufgrund der abgespeckten Hardware sind die Anschaffungskosten geringer als bei den anderen beiden Client-Varianten

–       ein geringer Stromverbrauch

Der Thin Client

Thin Clients kommen für die Darstellung virtueller Desktops zum Einsatz. Solche Clients sind mit leistungsschwächerer Hardware ausgestattet und sind i auf die wichtigsten Komponenten zur Ausführung des virtuellen Desktops ausgerichtet. Oft werden bei solchen Geräten keine Massenspeicher oder CD-/DVD-Laufwerke eingesetzt. Da der Hauptprozessor und andere Hardwarekomponenten aufgrund der geringen Leistung wenig Wärme produzieren, arbeiten Thin Clients in der Regel ohne aktive Kühlung und  völlig geräuschlos. Dies wirkt sich äußerst positiv auf die Nutzungsdauer aus, weswegen die Hardware seltener ersetzt werden muss.

Der Thick Client

Bei einem Thick Client handelt es sich um einen voll ausgestatteten PC, auf dem ein Software-Paket zur Darstellung der virtuellen Desktop-Umgebung installiert ist. Konkret bedeutet das, dass der Thick Client sowohl über einen eigenen Desktop als auch über einen Remote-Desktop verfügt. Der wesentliche Vorteil eines solchen Clients ist, dass er sowohl für virtuelle Desktop-Anwendungen als auch für lokal betriebene Anwendungen gleichermaßen gut nutzbar ist. Ein bedeutender Nachteil spiegelt sich jedoch in der Tatsache wider, dass viele Vorteile einer VDI Infrastruktur durch den Einsatz eines Thick Clients verloren gehen.

Vorteile einer VDI Infrastruktur im Überblick

Durch den Prozess der Virtualisierung und Zentralisierung der Desktop-PCs ergeben sich zahlreiche Vorteile. Die zentrale Bereitstellung der Desktop-Services vereinfacht deren Administration und Konfiguration. Updates lassen sich auf diese Weise schnell und einfach einspielen und mit wesentlich weniger Aufwand als in traditionellen LANs durchführen. Des Weiteren können Inkompatibilitäten oder auftretende Probleme dank virtueller Server an einer zentralen Stelle analysiert und gelöst werden. Viele Bereitstellungsprozesse der Desktop-Funktionalitäten sowie Backup-Services lassen sich automatisieren und dadurch wesentlich vereinfachen.

Die bedeutendsten Vorteile einer Virtual Desktop Infrastructure ergeben sich in erster Linie durch den Einsatz weniger aufwendiger Client. Dadurch kann man auch vollwertige PCs mit Komplettausstattung verzichten, die in der Regel viel teurer als die entsprechenden Client-Lösungen sind. Darüber hinaus wird die Verflechtung zwischen Software- und Hardwareanwendungen aufgehoben, sodass ein Austausch der Clients aufgrund neuer Software- oder Hardwareanforderungen überflüssig wird. Die Clients weisen dadurch eine deutlich höhere Nutzungsdauer auf.

Bei Hardwarestörungen muss der Administrator das Problem nicht mehr lokal vor Ort beim Nutzer beheben, sondern die Probleme lassen sich an einem zentralen Server beheben. Auch das Einspielen bzw. Zurückspielen von Updates sowie das Wiederherstellen gelöschter Daten werden zentral realisiert. Da die gesamte Infrastruktur für den professionellen Einsatz ausgelegt ist, erhöht sich die Verfügbarkeit der virtuellen Clients deutlich und ist im direkten Vergleich zu traditionellen Desktops um ein Vielfaches höher. Des Weiteren sollten die Vorteile der VDI Infrastruktur auch in Sachen Ressourcenschonung sowie Energieeffizienz keinesfalls vernachlässigt werden.

Mit einem Remote Desktop Manager oder RDM kann man ein ganzes System von Servern und anderen Geräten zentral verwalten, konfigurieren und überwachen. Werkzeuge wie ein RDM werden mit neuen Formen der Arbeit eine immer wichtigere Rolle spielen.

Was ist ein Remote Desktop?

Die Arbeitsumgebung eines Desktop Computers besteht aus einem Gerät in der unmittelbaren Nähe. Über einen Bildschirm, eine Tastatur und eine Maus steuern Sie das Gerät und tauschen über die Ein- und Ausgabemöglichkeiten Daten mit ihm aus. Die Remote Version weist nur den Unterschied auf, dass Ihre Peripheriegeräte über das Internet mit dem Computer verbunden sind. Die Arbeitsweise ist also völlig gleich, nur die Distanz ist viel größer, über die alle Informationen in beide Richtungen übertragen werden.

Wozu braucht man einen RDM oder Remote Desktop Manager?

Bereits seit längerer Zeit werden solche Setups für reisende Mitarbeiter verwendet oder auch dann, wenn Personen nicht im Firmengebäude selbst arbeiten müssen oder wollen. Sind solche Fälle eher selten, lassen sich die notwendigen IT-Konfigurationen noch ohne besondere Werkzeuge bewältigen.

Aktuell ist es die Coronakrise, die das Arbeiten im Homeoffice in den Vordergrund rückt. Ein Grund für die Nutzung eines Remote Desktops ist die geringere Wahrscheinlichkeit einer Ansteckung.

Auch ohne diese aktuelle Entwicklung haben aber immer mehr Firmen und Einzelpersonen den Trend zu New Work im Blick. Darunter versteht man mehr eigenverantwortliches Arbeiten, was sich natürlich auch auf die Wahl des Arbeitsorts erstreckt. Ein Remote Desktop ist die technische Grundlage dafür, dass Informationsverarbeitung durch Ihre Mitarbeiter ortsunabhängig geleistet werden kann.

Welche Geräte werden mit einem RDM gesteuert und verwaltet?

Traditionell arbeiten Ihre Mitarbeiter auf Geräten, die ihnen die Firma zur Verfügung stellt. Damit hat das Unternehmen auch einfachere Möglichkeiten zur Verwaltung der gesamten IT.

Heute gibt es aber auch die Möglichkeit des BYOD, was für ‚Bring Your Own Device‘ steht. Jeder Mitarbeiter verwendet dann sein eigenes Gerät und kann die Hardware, das Betriebssystem und zumindest zum Teil auch die Anwenderprogramme selbst auswählen. Sind Lizenzen erforderlich oder muss von mehreren Mitarbeitern dasselbe Programm verwendet werden, schränken solche Vorgaben die Wahl natürlich ein. Auch dann können verschiedene Gruppenmitglieder aber beispielsweise verschiedene Texteditoren je nach Vorliebe verwenden.

Dieser Trend ist nichts anderes als die Übertragung einer traditionellen Idee in den IT-Bereich. Ein BYOD für die Verwendung des eigenen Autos für geschäftliche Zwecke gibt es schon lange.

BYOD für informationsverarbeitende Geräte hat Vorteile wie die Beschränkung auf ein Gerät, das auf Reisen alle Bedürfnisse abdeckt. Außerdem sind viele Mitarbeiter einfach produktiver, wenn sie sich ihre Werkzeuge selbst aussuchen können.

Zu den Nachteilen von BYOD gehören mögliche Probleme im Bereich der Informationssicherheit. Für die Bewältigung dieses Problems eignet sich ein Remote Desktop Manager, denn mit eigenen Geräten wird die Informationssicherheit im Unternehmen zu einer wesentlich größeren Herausforderung.

Funktionalität eines Remote Desktop Manager

Ein RDM oder Remote Desktop Manager ist als Softwarelösung für die Einrichtung, Konfiguration und Überwachung von einem oder mehreren Remote Desktops geeignet. Mit ihm können Sie auch eine größere Zahl von Servern zentral von einer Plattform aus kontrollieren. Das Werkzeug RDM unterstützt die verschiedenen Verbindungsprotokolle, die für den Remote Desktop zum Einsatz kommen können.

 

Die Zugangsdaten wie Passwörter werden in einem zentralen und besonders gesicherten Vault gespeichert. Für besondere Sicherheit kann auch eine Zweifaktor-Authentifizierung eingesetzt werden. Einzelnen Teammitgliedern können Sie genau abgestimmte oder granulierte Zugangsrechte einräumen. Je nach Bedarf können Teammitglieder dieselbe Sitzung auf einem Server miteinander teilen und gemeinsam darauf zugreifen.

Für den Benutzer eines Remote Desktop Managers steht eine integrierte Visualisierungskonsole zur Verfügung. Nachdem auch IT-Manager oft unterwegs sind, wurden Apps entwickelt, über die sie mit dem System Verbindung aufnehmen können.

Damit gesetzliche Bedingungen eingehalten werden können und Sie einen Überblick über Ihre gesamte IT behalten, sind im RDM Möglichkeiten zur Erstellung von Reports nach frei wählbaren Kriterien integriert. Die Grundlage dafür sind die Logdateien, die automatisch geführt werden.

Für einzelne User steht eine Freeware Version des Remote Desktop Manager zur Verfügung. Erst für die Enterprise Version für mehrere Nutzer fallen tatsächlich Kosten an. Für das Kennenlernen des Systems können Sie eine Trialversion ausprobieren und sehen, welche Vorteile ein Remote Desktop Manager oder RDM für Sie und Ihr Unternehmen bietet.

Bei der Kernel-based Virtual Machine (KVM) handelt es sich um eine Virtualisierungs-Infrastruktur des Linux-Kernels. Diese ist mit den Hardwarevirtualisierungs-Techniken von AMD (AMD-V) oder Intel (VT) und den entsprechenden X86-Prozessoren sowie mit der System-Z-Architektur kompatibel. Die Kernel-based Virtual Machine wurde im Oktober 2006 erstmals in einer Betaversion veröffentlicht und ist seit der Version 2.6.2 des Linux-Kernels in diesem enthalten. Das System wurde unter der Führung des israelischen Software-Entwicklers Avi Kivity in seinem Unternehmen Qumranet entwickelt. Die Software-Schmiede Qumranet wurde im September 2008 von Red Hat übernommen.

Allgemeine Informationen

Die Kernel-based Virtual Machine wurde in erster Linie für den Einsatz in Kombination mit x86-Plattformen entwickelt und setzt sich für diese aus den folgenden beiden Komponenten zusammen:

–       aus dem Kernel-Modul „kvm.ko“, und

–       aus den hardwarespezifischen Modulen kvm-amd.ko (für AMD-Plattformen) oder kvm-intel.ko (für Intel-Plattformen)

Inzwischen ist KVM auch für weitere Plattformen, wie beispielsweise System Z, ARM und PowerPC erhältlich. Die Kernel-based Virtual Machine realisiert selbst keine Emulation, sondern stellt lediglich die dafür nötige Infrastruktur bereit. Die freie Virtualisierungs-Software QEMU stellt eine der Möglichkeiten dar, um KVM zu nutzen. QEMU stellt für virtualisierte Gastsysteme die erforderlichen Geräte wie Grafik-, Sound-, Netzwerkkarten und Festplatten bereit. Nachdem das Modul geladen ist, fungiert der Linux-Kernel selbst als Hypervisor für VMs (virtuelle Maschinen). Als Gastsystem bietet KVM Unterstützung für eine Vielzahl moderner Betriebssysteme, wie zum Beispiel:

–       Windows (32 und 64 Bit)

–       Linux (32 und 64 Bit), etwa CentOS, Ubuntu, Fedora, Debian und ebenso Desktop Linux Systeme wie Linux-Mint oder Kali Linux.

–       FreeDOS

–       Solaris

–       Hauku

–       AROS

–       ReactOS

–       diverse BSD-Derivate

Mittlerweile lässt sich auch Paravirtualisierung in KVM realisieren und wird unter Linux mittels der Paravirtualisierungsschnittstelle Virtio für Hardware-Komponenten bereitgestellt. Auch für Windows-Systeme sind mittlerweile paravirtualisierte Gerätetreiber erhältlich.

Das Paravirtualisierungs-Verfahren bietet einige Vorteile im Vergleich zu traditionellen Virtualisierungs-Methoden, wie zum Beispiel ein geringerer Overhead sowie eine bessere Performance, da sich das Gastsystem der Tatsache „bewusst“ ist, dass es auf virtualisierter Hardware betrieben wird und mit dem Hypervisor zusammenarbeitet.

KVM Funktionen und Features

KVM stellt einen festen Bestandteil von Linux dar. Alles was Linux bietet, ist auch in KVM zu finden. Es gibt jedoch einige Besonderheiten, welche die Kernel-based Virtual Machine zum bevorzugten Hypervisor für Unternehmen machen. Im Folgenden stellen wir Ihnen einige der Besonderheiten von KVM vor:

Sicherheit: Die Kernel-based Virtual Machine nutzt eine Kombination von Linux mit sicherer Virtualisierung (sVirt) und erweiterter Sicherheit (SELinux), um eine optimale VM-Sicherheit und Isolierung zu gewährleisten. SELinux legt dabei die Sicherheitsgrenzen der virtuellen Maschine fest, während sVirt die Funktionalitäten von SELinux erweitert. So ermöglicht sVirt beispielsweise den Einsatz von Mandatory Access Control für Gast-VMs und verhindert, dass manuelle Kennzeichnungsfehler zu den höheren System-Ebenen propagiert werden.

Storage: KVM ist in der Lage, jedes Speichermedium zu verwenden, das von Linux unterstützt wird, einschließlich komplexer NAS-Systeme (Network Attached Storage). Sogenannte „Mehrpfad-I/O“ können eingesetzt werden, um das Storage-System zu optimieren und Redundanz zu bieten. Die Kernel-based Virtual Machine bietet außerdem Unterstützung für gemeinsam genutzte Dateisysteme, sodass sich VM-Abbilder von unterschiedlichen Hosts gemeinsam nutzen lassen. Darüber hinaus unterstützen Festplattenabbilder sogenanntes „Thin-Provisioning“ und sind in der Lage, Storage nach Bedarf zuzuweisen, anstatt im Voraus wie es bei vielen ähnlichen Systemen der Fall ist.

Hardware-Unterstützung: KVM kann auf diversen Plattformen eingesetzt werden, die von Linux unterstützt werden. Viele Hardware-Produzenten tragen regelmäßig zur Kernel-Entwicklung bei, sodass die neuen Hardware-Funktionen und -Features in vielen Fällen sehr schnell in den Kernel integriert werden.

Speicherverwaltung: Die Kernel-based Virtual Machine nutzt die Speicherverwaltung-Infrastruktur von Linux inklusive des Non-Uniform Memory Access und des Kernel Same Page Merging. Der Speicher einer virtuellen Maschine lässt sich nach persönlichen Anforderungen gestalten und durch größere Kapazitäten oder bessere Leistung verstärken.

Echtzeit-Migration: KVM bietet native Unterstützung für die Live-Migration. Dabei handelt es sich um die Möglichkeit, eine laufende virtuelle Maschine zwischen physischen Hosts zu verschieben, ohne dass dabei der Betrieb der VM unterbrochen wird. Die virtuelle Maschine kann in Betrieb bleiben, Anwendungen laufen weiter und Netzwerkverbindungen bleiben aktiv, während die VM schnell und einfach auf einen anderen Host verschoben wird. KVM sichert außerdem den aktuellen Stand (State) einer virtuellen Maschine, sodass diese lokal oder in der Cloud gespeichert und später wieder fortgesetzt werden kann.

Skalierbarkeit und Performance: KVM baut auf der Leistung von Linux auf und lässt sich automatisch an den Lastbedarf skalieren, sobald die Anzahl der Anfragen an die VMs steigt. Mit der Kernel-based Virtual Machine lassen sich große Anwendungen-Workloads schnell und einfach virtualisieren. Darüber stellt KVM die Basis für viele Setups der Unternehmens-Virtualisierung dar, wie beispielsweise für private Clouds und Rechenzentren.

Verwaltungs-Tools

Für die Kernel-based Virtual Machine sind mehrere Werkzeuge zur Steuerung erhältlich. So ist es beispielsweise möglich VMs mittels Kommandozeilenprogrammen wie QEMU oder VIRSH zu erstellen und zu verwalten. Eine angenehmere und übersichtlichere Option stellen Tools mit grafischen Benutzeroberflächen dar, wie mit dem Virtual Machine Manager (VMM) oder dem UCS VM Manager. Es sind auch Lösungen erhältlich, welche die Verwaltung von VMs über Weboberflächen gestattet. In diesem Zusammenhand ist das oVirt-Projekt oder die FOSS-Cloud zu nennen, die als kostenlose Open Source-Lösungen bereitgestellt werden.

 

 

Professionelle Server-Virtualisierungslösungen, wie VMware ESXi, haben inzwischen bemerkenswerte Fähigkeiten. Komplexe Netzwerke nachzubilden, Einfrieren des Zustands eines Servers mittels eines Mausklicks, Migration im laufenden Betrieb und nahezu unbegrenzte Skalierbarkeit, sind einige davon. Kein Wunder, dass es in vielen Firmen längst an der Tagesordnung ist, Anwendungsserver virtuell zu betreiben.

Ein paar Details zur Virtualisierung

Unter Virtualisierung versteht man in diesem Zusammenhang die Nachbildung von Hardwareplattformen durch Software. Je nach Art der Virtualisierung, kann es sich auch um eine Abstraktion der physikalischen Hardware vor dem virtuellen System handeln. Die Software teilt dem Gastsystem reale Ressourcen zu. Die für die Abstraktionsebene zuständige Software wird Hypervisor genannt.

Man unterscheidet grob in zwei Varianten der Virtualisierung:

-Vollständige Virtualisierung: Hierbei wird die Hardware komplett durch Software nachgebildet. Vorteilhaft ist, dass beispielsweise auf einem X86-System abweichende Prozessorplattformen wie ARM verwendet werden können, etwa um Software zu testen. Nachteilig ist, dass diese Methode sehr langsam ist.

-Paravirtualisierung mit oder ohne Hardwareunterstützung: In der ersten Variante werden die Gastsysteme angepasst und verwenden, nach Zuteilung durch den Hypervisor, die physikalische Hardware des Hostrechners. Dies bringt Geschwindigkeitsvorteile. In der zweiten Variante müssen die Prozessoren für die Virtualisierung optimiert sein. Moderne Prozessoren haben diese Funktionalität in der Regel. Bei Intel heißt die Technik VT-X, bei AMD nennt sie sich AMD-V.

Zudem werden Hypervisoren in zwei Typen kategorisiert:

-Typ 1-Hypervisor: Diese laden ein rudimentäres Betriebssystem mit dem Hypervisor. Eine Bedienung ist über die Kommandozeile oder ein Webinterface von einem entfernten Rechner möglich.

-Typ 2-Hypervisor: Das Wirtssystem ist ein vollständiges Betriebssystem. Der Hypervisor wird von diesem geladen und kann wie eine Software bedient werden.

VMWare ESXi ist ein Typ-1-Hypervisor und verwendet Paravirtualisierung mit Hardwareunterstützung.

Einzelheiten zu VMWare ESXi

VWMware stellte den ESXi-Server erstmals 2001 vor. In der Anfangszeit bot der Virtualisierungsspezialist parallel den ESX-Server an, bei dem es sich um die umfassendere Lösung handelte. Die Weiterentwicklung von ESX wurde inzwischen eingestellt. VMWare ESXi ist Bestandteil der Virtualisierungsplattform vSphere. Weitere Bestandteile sind beispielsweise der vCenter Server zur Verwaltung von VMWare ESXi und das vCenter zur Automatisierung der Verwaltung von virtuellen Maschinen. ESXi verhält sich nach der Installation wie ein rudimentäres Linux-System. Auf einer textbasierten Eingabemaske lässt sich beispielsweise das Netzwerk konfigurieren.

Die eigentliche Administration erfolgt später von einem entfernten Rechner, mit der Software vSphere Client. Dort hat der Administrator die Möglichkeit, virtuelle Maschinen anzulegen und zu verwalten. Zudem ist es möglich, Netzwerke inklusive virtueller Komponenten, wie Switche und Router, einzurichten. Speicher kann auch extern eingebunden werden, etwa per iSCSI.

Für die virtuellen Maschinen können detaillierte Einstellung für die zur Verfügung stehende Hardware gemacht werden. Es ist möglich, Vorlagen für bestimmte virtuelle Maschinen anzulegen. Hieraus kann ein virtuelles System in sehr kurzer Zeit erstellt werden.

Die virtualisierten Systeme sind zudem einfach zu exportieren, etwa zur Sicherung oder zur Migration. Sinnvoll ist die Snapshot-Funktion, mit der Systeme eingefroren werden. So können Änderungen, beispielsweise zu Testzwecken, auf eine temporäre Festplatte (Delta) geschrieben werden. Später kann entschieden werden, ob zu einem Snapshot zurückgesprungen oder das Delta übernommen werden soll.

Hardware, etwa Lizenz-Dongles, dürfen sowohl am ESXi-Server zur Verfügung gestellt werden, als auch an durchgereichten USB-Schnittstellen aufrufender Rechner. Es werden verschiedene Ausführungen des aktuellen vSphere mit der Versionsnummer 6 angeboten. Einige hiervon sind:

-vSphere Hypervisor: Ist die kostenlose, im Funktionsumfang eingeschränkte, Version. Diese kann nur auf einem physikalischen Server mit einem Prozessorkern verwendet werden.

-vSphere Essentials: Ist die kleinste kostenpflichtige Variante. Sie darf auf drei physikalischen Servern betrieben werden. Zudem ist ein zentrales Management möglich.

-vSphere Standard: Sieht keine Beschränkungen bei der Anzahl von Servern vor. Die Anzahl der virtuellen Kerne pro Gast ist aus 128 begrenzt. Sie bietet zudem Features wie die Migration von Systemen im laufenden Betrieb.

-vSphere Platinum: Ist das Spitzenprodukt. Es beinhaltet unter anderem zusätzliche Sicherheitsmodule von Drittanbietern und Netzwerk-Monitoring.

Anwendungsgebiete und Vorteile von VMware ESXi

Gebräuchlich ist VMWare ESXi im Bereich der Server-Virtualisierung (vServer). Im Firmenumfeld werden so beispielsweise Server nach Anwendungszweck getrennt. Zudem können kurzfristig Spezialrechner, wie Workstations bereitgestellt werden.

Vorteilhaft ist die Skalierbarkeit. Hardwareressourcen sind kurzfristig an die Anforderungen anpassbar. Eine Ausfallsicherheit ist durch den Umstand gegeben, dass die Vorlagen eines Systems in sehr kurzer Zeit auf neue Hardware migriert werden können.

Wird VMware ESXi bei einem Hosting-Anbieter auf einem gemieteten Server betrieben, ist es sogar möglich, Kosten zu sparen. Man zahlt dort in der Regel nur die tatsächlich verwendeten Ressourcen.

Alternativen

Insbesondere zur Virtualisierung von Servern gibt es einige Alternativen zu VMWare ESXi. Microsoft bietet mit Hyper-V ein ähnliches System auf kommerzieller Basis an. Dieses gibt es als Typ-1-Hypervisor und, beispielsweise in Windows Server 2019 und Windows 10 Enterprise eingebunden, als Typ-2-Hypervisor.

Eine auf KVM/QEMU basierende Lösung ist der PROXMOX-Server. Hierbei handelt es sich um ein kostenloses Linux-Server-Betriebssystem. Im OpenSource-Bereich ist der von der Universität Cambridge entwickelte Hypervisor XEN eine weitere Alternative.

Als die beiden deutschen Softwareentwickler Martin und Dietmar Maurer im Frühjahr 2008 die Open SourceVirtualisierungssoftware Proxmox VE erstmals der breiten Öffentlichkeit vorstellten, hatte niemand wirklich damit gerechnet, dass sich die Virtualisierungsplattform in den nächsten 12 Jahren zu einer der meistgenutzten Virtualisierungslösungen im Linux-Segment entwickeln würde. Aktuellen Informationen zufolge werden weltweit mehr als 150.000 Server-Hosts in mehr als 150 Ländern mit Proxmox betrieben.

Allgemeine Informationen zu Proxmox

Ein Umstand, der zum Erfolg der Virtualisierungsplattform maßgeblich beigetragen hat, spiegelt sich in der Tatsache wider, dass Proxmox die Option bereitstellt, zwei unterschiedliche Virtualisierungslösungen gleichzeitig zu betreiben, und zwar:

–       virtuelle Linux Container (LXC)

–       kernelbasierte Virtual Machine (KVM)

Der virtuelle Linux Container ist eine performante und ressourcenschonende Container-Virtualisierung. Bei den KVMs handelt es sich um ein Kernel-Modul auf Linux-Basis, das direkt auf der Hardware als Hypervisor ausgeführt wird und bei der Virtualisierung von Hardware eingesetzt wird. Mit den KVMs lässt sich eine Vielzahl verschiedener Vserver (virtueller Server) erstellen, wobei alle aktuellen Betriebssysteme wie Windows, Linux und verschiedene BSD-Derivate unterstützt werden. Der Linux-Kernel wird im Rahmen der Virtualisierung selbst zum Hypervisor befördert, wodurch der Overhead auf einem Minimum gehalten wird. Die kernelbasierte Virtual Machine gehört außerdem zu einem der am besten gewarteten Open Source-Systeme im Linux-Bereich. Bugs und Probleme werden dank der gigantischen Open Source-Community schnell erkannt und behoben.

Einfache und schnelle Verwaltung von Proxmox

LXC und KVM decken unterschiedliche Einsatzbereiche ab. So virtualisiert KVM beispielsweise im Gegensatz zu LXC mit virtuellen Maschinen und nicht auf Betriebssystem-Ebene. Aus diesem Grund ist LXC viel flexibler und bietet die Möglichkeit, Applikationen und Nutzer Stacks in kürzester Zeit in Betreib zu nehmen sowie einzelne Prozesse und gesamte Prozessgruppen voneinander zu isolieren. Auf diese Weise lassen sich mehrere Linux-Systeme parallel auf einem Host-Betriebssystem betreiben, die voneinander getrennt und abgeschottet sind. Dadurch lässt die Hardware des Hostsystems wesentlich besser auslasten. Ähnlich wie die Konkurrenzprodukte Docker, VMware und Hyper-V ist LXC gleichermaßen gut bei der Virtualisierung einzelner Anwendungen einsetzbar.

Proxmox bot bis zu der Version 3.4 ausschließlich Unterstützung für OpenVZ als Container-Technologie. LXC kam erst mit der Version 4.0 hinzu. Gründe hierfür waren u. a. die bessere Unterstützung für Storage-Devices und ein optimiertes Storage-System für Linux-Container. So können Anwender zum Beispiel mit LXC ZFS Sub-Volumes nutzen, was sich mit OpenVZ nicht realisieren lässt. Hinzu kommt noch die Tatsache, dass die Netzwerk-Konfiguration bei Linux-Containern viel flexibler ist.

Ein dedizierter Server für das Management der Cluster, Virtual Machines oder der Container ist nicht notwendig. Jeder Proxmox-Host ist mit einem eigenen Webinterface ausgestattet, mit dem sich der gesamte Cluster von jedem Knoten aus schnell und unkompliziert verwalten lässt. Durch den Einsatz eines verteilten Dateisystems (Proxmox Cluster File System), können die Konfigurationsdateien auf alle Nodes (Hosts) im Cluster automatisch verteilt werden. Auf diese Weise wird für konsistente Verwaltungsinformationen auf mehreren Tausenden virtueller Maschinen gesorgt.

Virtualisierungsplattform für Linux-Enthusiasten

Promox bietet neben dem intuitiven Web-Interface auch eine API für Administratoren und Entwickler, sodass wiederkehrende Tasks ohne großen Aufwand per Skript automatisiert werden können. Clients stehen für folgende Programmier- bzw. Skriptsprachen zur Verfügung:

–       Python

–       Java

–       JavaScript (NodeJS)

–       PHP

–       Perl

Da sich die Virtualisierungsplattform mit den entsprechenden Programmier-Kenntnissen individuell an die eigenen Bedürfnisse der Nutzer anpassen lässt, wird ein äußerst flexibles Agieren ermöglicht.

Proxmox VE nutzt als Basis die Linux-Distribution Debian, sodass Anwender auf alle Funktionalitäten des Betriebssystems zugreifen können. Nutzer können grundsätzlich auch alle Pakete, die für das beliebte Debian entwickelt wurden, unter Proxmox installieren. Die Virtualisierungsplattform ist somit optimal an die Anforderungen von Administratoren zugeschnitten, die bereits über Linux-Erfahrungen verfügen. Proxmox ermöglicht ein ebenso interaktives Arbeiten wie mit Debian. Dank der riesigen Community steht außerdem viel Know-how zur Verfügung, sodass für viele Probleme, mit denen Anwender konfrontiert werden können, bereits eine Lösung existiert.

Hohe Verfügbarkeit von Proxmox

Da Debian als extrem sicher und stabil gilt, trägt es in wesentlichem Maße zu der Zuverlässigkeit der Virtualisierungssoftware bei. Die Proxmox Server Solutions GmbH ist der Verwalter des Projekts und ist direkt dafür zuständig, die Virtualisierungsplattform regelmäßig zu aktualisieren und sie dabei auch an neue Debian-Versionen anzupassen. Die Virtualisierungsplattform kann ebenfalls mit einer hohen Verfügbarkeit punkten. Der Proxmox VE HA Manager ist dafür zuständig, alle Knoten im Cluster kontinuierlich zu überwachen. Sobald einer dieser Knoten ausfällt, wird der Proxmox VE HA Manager aktiviert. Diese Funktionalität ist bereits bei der Standardinstallation von Proxmox VE bereits vorinstalliert, weswegen Anwender die Funktion lediglich an die eigenen Anforderungen und Bedürfnissen anpassen müssen.

Vielseitige Speichertypen für Proxmox

Proxmox VE ist extrem flexibel in Bezug auf den Speicher. Die Virtualisierungsplattform ist mit verschiedenen lokalen Speicher- und Netzwerkspeicher-Modulen versehen, was ebenfalls Debian zu verdanken ist. Alle Speichertypen, die von der Linux-Distribution unterstützt werden, können im Rahmen von Proxmox genutzt werden. Hierzu gehören:

–       Ceph

–       NFS

–       ISCSI

–       FibreChannnel

–       ZFS

Mithilfe der Shared Storage-Funktionalität lassen sich Abbilder der Vserver im lokalen Netzwerk ablegen. Die Virtualisierungsplattform ist außerdem mit einer Funktion zur Live-Migration versehen, sodass sich die erstellten Vserver ohne Ausfallzeit migrieren lassen.

Die Abkürzung Vserver steht für „virtuelle Server“. Durch den Einsatz einer Software für Virtualisierung kann ein Hardwaresystem in einige einzelne, voll funktionsfähige Server aufgeteilt werden. Durch die Virtualisierung, wie sie zum Beispiel Proxmox ermöglicht, lässt sich der Zugriff zwischen den einzelnen Systemen unterbinden bzw. steuern. Darüber hinaus kann ein virtueller Server mittels verschiedener Distributionen, wie zum Beispiel CentOS, Ubuntu oder Debian, betrieben werden.

Das allgemeine Leistungsspektrum von Vservern

Wenn Sie sich zum Beispiel einen Vserver über das Internet mieten möchten, dann bedeutet das nicht gleichzeitig, dass einen Server erhalten, der ausschließlich für Sie arbeitet. Ein virtueller Server ist im Grunde genommen eine „kleiner Teil“ eines noch weitaus größeren Servers, welche etwa in einem Rechenzentrum aufgestellt ist. Auf einem solchen physisch vorhandenen Server werden eine Vielzahl unterschiedlicher Nutzer verwaltet, die wie Sie ebenfalls eine virtuelle Maschine für ihre Zwecke angemietet haben.

In der Regel werden sowohl die Leistung als auch die Größe vom Anbieter/Hoster festgelegt. Die Netzanbindung unterliegt größtenteils etwaigen Vorgaben des Dienstleisters. Sie können sich jedoch darauf verlassen, dass Vserver mit überaus schnellen Anbindungen an ein Netzwerk bzw. an das Internet ausgestattet sind.

Häufig müssen Sie sich allerdings um die Installation des Vservers selbst kümmern und regelmäßige Backups erstellen, damit Sie keinen Datenverlust hinnehmen müssen, wenn der Server ausfällt. Derart aufwendige Aufgaben entfallen bei einem sogenannten Managed Server, welcher Serviceleistungen, wie zum Beispiel Backup-Systeme, eine regelmäßige Wartung ihres Internetauftritt oder auch unendlichen Speicherplatz, beinhaltet.

Wenn die Leistungsfähigkeit eines gesamten Servers aufgrund der hohen Last der angemeldeten Nutzer nicht mehr ausreicht, kann der Host den Vserver auf eine Maschine umziehen, welche zu diesem Zeitpunkt noch über freie Kapazitäten verfügt. Von diesem Umzug bemerken Sie im Regelfall so gut wie nichts und können wie gewohnt Ihrer Arbeit nachgehen.

Basis für viele Programme

Vserver zeichnen sich vor allem durch die Tatsache aus, dass sie eine augenscheinlich unendliche Menge an verschiedenen Programmen unterstützen und Nutzern zielgerichtet zur Verfügung stellen können. Dabei kann es sich um eine simple Seite im Internet, einen Mehrspieler-Server für PC- und Konsolen-Spiele oder komplexe Datenbanken handeln.

Die durchweg individuelle Skalierbarkeit bietet Nutzern zahlreiche Entscheidungsmöglichkeiten und steigert auf diese Weise die Flexibilität bei der täglichen Arbeit. Insbesondere Menschen jüngerer Generationen stehen dieser modernen Technologie überaus offen gegenüber. Firmen erkennen die Technik zunehmend häufiger als zielführend, wenn es um das Erreichen wichtiger unternehmerischer Ziele geht. Zudem schätzen Firmen jedweder Größe den Komfort durch die bereitgestellten dynamischen Server sowie die damit einhergehende Skalierbarkeit.

Die Virtualisierung im Detail

Wie Sie bereits erfahren haben, kümmert sich in der Regel ein Hoster bzw. ein Rechenzentrum um die Virtualisierung von physisch vorhandenen Computern bzw. Servern. Handelt es sich also um einen virtuellen Server/Vserver, handelt es sich im Grunde genommen um einen Computer, welche virtuell in viele einzelne Computer einschließlich alle dazugehörigen Ressourcen aufgeteilt wurde. Ein einzelner dieser kleineren Rechner bezeichnen IT-Experten als sogenannten Container.

Durch den Einsatz dieses Konzepts ist es möglich, dass die Ressourcen aufgespalten werden können und vollkommen dynamisch zu jeder Zeit an die Nutzer verteilt werden können. Besteht bei einem Kunden demnach ein größerer Bedarf, kann ihm der Hoster mehr Kapazität dauerhaft oder für einen begrenzten Zeitraum zuweisen.

Auf einem Vserver lässt sich darüber hinaus ein Betriebssystem installieren, welches im Anschluss einen „vollständigen“ Computer abbildet. Üblicherweise kommt auf einem Vserver das Betriebssystem Linux ohne eine grafische Oberfläche zum Einsatz. Mit Hilfe einer sogenannten SSH-Verbindung kann der Vserver verwaltet werden.

Der Verbindungsaufbau zu einem Vserver

Der SSH-Verbindungsaufbau unter Linux ähnelt dem Terminal- bzw. CMD-Programm der Betriebssysteme Unix und Windows. Sobald ein Administrator die IP-Adresse der virtuellen Maschine sowie die zwingend notwendigen Zugangsdaten (Benutzer und Passwort) eingibt, kann er eine Verbindung zum Server aufbauen und diesen Remote (aus der Ferne) verwalten. Er kann ein Programm durch die entsprechenden Befehle in der Kommandozeile installieren oder Update einspielen. Dieses Vorgehen ist vor allem für einen Administrator überaus komfortabel und zeitsparend. Server mit einer grafischen Oberfläche benötigen weitaus mehr Ressourcen, sodass auf einem Vserver kaum andere Betriebssysteme anzutreffen sind.

Für wen sich Vserver eignen

Vserver sind mittlerweile wahre Alleskönner und sind in nahezu allen Bereichen einsetzbar. Sollten Sie darüber nachdenken, Ihren bereits vorhandenen Webspace abschaffen zu wollen und nach geeigneteren Technologien suchen, dürften Sie für einen oder mehrere Vserver in Frage kommen. Sofern Sie auf die Möglichkeit eines Managed Server verzichten möchten, sollten Sie in diesem Zusammenhang beachten, dass die erstmalige Konfiguration allerdings wesentlich aufwendiger und zeitintensiver ist.

Einsteiger können bei einem Hoster meist eine Basiskonfiguration für den virtuellen Server erwerben und sich mit der Materie vertraut machen. Wenn Sie im Lauf der Zeit feststellen, dass Ihnen die zur Verfügung gestellten Ressourcen nicht mehr ausreichen, können Sie Ihren Vserver jederzeit erweitern lassen. Für die Konfiguration des Servers sollte jedoch Fachwissen beim Nutzer vorhanden.