Bei Zabbix handelt es sich um ein Netzwerk-Monitoringsystem auf Open-Source-Basis. Es wurde hauptsächlich von Alexei Vladishev entwickelt, inzwischen wird Zabbix jedoch von dem Softwareunternehmen Zabbix SIA weiterentwickelt. Das Monitoringsystem wird in erster Linie bei der Überwachung von IT-Infrastrukturen eingesetzt. Die erste Version wurde im Jahr 2001 veröffentlicht.

Allgemeine Informationen zu Zabbix

Der Informatiker und Startup-Gründer Alexei Vladishev hat 2001 die erste Version des Open-Source-Systems für IT-Monitoring Zabbix der breiten Öffentlichkeit vorgestellt. Um sich voll und ganz auf die Entwicklung der Software zu fokussieren, hat sich Alexei einige Jahre später die im lettischen Riga ansässigen Firma Zabbix SIA gegründet, die sich primär mit der Weiterentwicklung von Zabbix beschäftigt. Im Laufe der Jahre hat sich die Software zu einem umfangreichen IT-Monitoring-Tool entwickelt, das in der Lage ist, Server, Netzwerke und andere IT-Geräte zu überwachen und detaillierte Berichte über den Zustand von IT-Ressourcen zu erstellen.

Im Gegensatz zu direkten Konkurrenten wie Nagios, PRTG oder SolarWinds ist Zabbix nicht nur in der Lage, sämtliche Informationen über ein Webinterface direkt im Webbrowser anzuzeigen, sondern ermöglicht zudem eine komplette Konfiguration des zu überwachenden Clients direkt im Browser. Für die Speicherung der Daten kommen wahlweise die Datenbankensysteme SQLite, PostgreSQL, Oracle RDBMS oder MySQL zum Einsatz. Die Weboberfläche wurde in PHP programmiert und verfügt neben einfachen „Simple Checks“ zur kontinuierlichen Überwachung von Standarddiensten wie FTP oder HTTPS auch über eine Vielzahl von Agenten. Diese sind mit den meisten modernen Betriebssystemen kompatibel und Unterstützen den Prozess der Datensammlung. In Notfällen ist das Monitoringsystem in der Lage, Sie beispielsweise über E-Mails oder SMS-Nachrichten über Serverabstürze oder Cyber-Angriffe auf Ihr Netzwerk zu informieren.

Breite Funktionsvielfalt

Einer der wesentlichen Vorteile gegenüber ähnlichen Produkten spiegelt sich in der Möglichkeit wider, die Überwachung von IT-Ressourcen direkt im integrierten Webinterface einstellen zu können. Eine weitere wichtige Eigenschaft von Zabbix ist die schnelle und einfache Verwaltung der zahlreichen Reporting- und Visualisierungs-Möglichkeiten. Maps, Screen und Graphs lassen sich mit wenigen Klicks erstellen. Hierbei ist insbesondere die Visualisierung der einzelnen Hosts auf verschiedenen Maps (Landkarten, Infrastrukturplänen) zu erwähnen, die sehr übersichtlich dargestellt werden und außerdem zur Standardinstallation gehören. Zabbix nutzt die GNU GPL-Lizenz und lässt sich von der Projektseite kostenlos herunterladen. Neben den Source-Paketen können Sie Zabbix auch in anderen Formaten beziehen, wie beispielsweise als vorkonfigurierte Pakete für virtuelle Umgebungen. Zabbix ist für alle aktuellen Windows-Versionen, unterschiedliche Unix-Derivate und alle relevanten Linux-Distributionen erhältlich.

Aufgeschlossenes System

Zabbix ist als Bestandteil in den Paketquellen vieler bekannter Distributionen zu finden, wie beispielsweise bei Ubuntu. Das Netzwerk-Monitoringsystem bietet neben voller Unterstützung für sämtliche Linux-Distributionen auf Serverseite Unterstützung für zahlreiche Unix-Derivate, wie beispielsweise Solaris, FreeBSD und OpenBSD. Auch für Windows-Systeme wird der passende Agent bereitgestellt, sodass auch Windows-Computer ohne weitere Probleme mit Zabbix überwacht werden können. Der Agent ist sowohl in einer 32-Bit- als auch einer 64-Bit-Variante verfügbar.

Die Zabbix-Infrastruktur setzt sich aus folgenden Komponenten zusammen:

–       Server

–       Frontend

–       Agent

Gesammelte Daten können von jedem Zabix-Nutzer mit den entsprechenden Rechten über das Frontend-Webinterface direkt im Browser abgerufen werden. Server und das Frontend-Interface müssen nicht unbedingt auf derselben Maschine, sondern können beispielsweise auf verschiedenen virtuellen Servern betrieben werden. Auch das Datenbanksystem kann auf einem separaten virtuellen Server installiert sein, wodurch eine dezentralisierte Infrastruktur ermöglicht wird, was wiederum zahlreiche Vorteile mit sich bringt. Die minimalen Systemvoraussetzungen werden von dem Entwickler mit 128 MByte Arbeitsspeicher und 256 Mbyte Festplattenplatz angegeben. Hierbei handelt es sich jedoch lediglich um Empfehlungen für ein erstes Set-Up. Die Größe des  Festplattenplatzes hängt in erster Linie von der Anzahl der Hosts, die Sie überwachen möchten. Die relativ geringen Mindestvoraussetzungen sollten Sie nicht dazu verleiten, einem beliebigen Server zusätzliche Monitoring-Aufgaben aufzubürden, da das Monitoringsystem auf einem möglichst performanten und ausfallsicheren Server betrieben werden sollte.

Professionelle Server-Virtualisierungslösungen, wie VMware ESXi, haben inzwischen bemerkenswerte Fähigkeiten. Komplexe Netzwerke nachzubilden, Einfrieren des Zustands eines Servers mittels eines Mausklicks, Migration im laufenden Betrieb und nahezu unbegrenzte Skalierbarkeit, sind einige davon. Kein Wunder, dass es in vielen Firmen längst an der Tagesordnung ist, Anwendungsserver virtuell zu betreiben.

Ein paar Details zur Virtualisierung

Unter Virtualisierung versteht man in diesem Zusammenhang die Nachbildung von Hardwareplattformen durch Software. Je nach Art der Virtualisierung, kann es sich auch um eine Abstraktion der physikalischen Hardware vor dem virtuellen System handeln. Die Software teilt dem Gastsystem reale Ressourcen zu. Die für die Abstraktionsebene zuständige Software wird Hypervisor genannt.

Man unterscheidet grob in zwei Varianten der Virtualisierung:

-Vollständige Virtualisierung: Hierbei wird die Hardware komplett durch Software nachgebildet. Vorteilhaft ist, dass beispielsweise auf einem X86-System abweichende Prozessorplattformen wie ARM verwendet werden können, etwa um Software zu testen. Nachteilig ist, dass diese Methode sehr langsam ist.

-Paravirtualisierung mit oder ohne Hardwareunterstützung: In der ersten Variante werden die Gastsysteme angepasst und verwenden, nach Zuteilung durch den Hypervisor, die physikalische Hardware des Hostrechners. Dies bringt Geschwindigkeitsvorteile. In der zweiten Variante müssen die Prozessoren für die Virtualisierung optimiert sein. Moderne Prozessoren haben diese Funktionalität in der Regel. Bei Intel heißt die Technik VT-X, bei AMD nennt sie sich AMD-V.

Zudem werden Hypervisoren in zwei Typen kategorisiert:

-Typ 1-Hypervisor: Diese laden ein rudimentäres Betriebssystem mit dem Hypervisor. Eine Bedienung ist über die Kommandozeile oder ein Webinterface von einem entfernten Rechner möglich.

-Typ 2-Hypervisor: Das Wirtssystem ist ein vollständiges Betriebssystem. Der Hypervisor wird von diesem geladen und kann wie eine Software bedient werden.

VMWare ESXi ist ein Typ-1-Hypervisor und verwendet Paravirtualisierung mit Hardwareunterstützung.

Einzelheiten zu VMWare ESXi

VWMware stellte den ESXi-Server erstmals 2001 vor. In der Anfangszeit bot der Virtualisierungsspezialist parallel den ESX-Server an, bei dem es sich um die umfassendere Lösung handelte. Die Weiterentwicklung von ESX wurde inzwischen eingestellt. VMWare ESXi ist Bestandteil der Virtualisierungsplattform vSphere. Weitere Bestandteile sind beispielsweise der vCenter Server zur Verwaltung von VMWare ESXi und das vCenter zur Automatisierung der Verwaltung von virtuellen Maschinen. ESXi verhält sich nach der Installation wie ein rudimentäres Linux-System. Auf einer textbasierten Eingabemaske lässt sich beispielsweise das Netzwerk konfigurieren.

Die eigentliche Administration erfolgt später von einem entfernten Rechner, mit der Software vSphere Client. Dort hat der Administrator die Möglichkeit, virtuelle Maschinen anzulegen und zu verwalten. Zudem ist es möglich, Netzwerke inklusive virtueller Komponenten, wie Switche und Router, einzurichten. Speicher kann auch extern eingebunden werden, etwa per iSCSI.

Für die virtuellen Maschinen können detaillierte Einstellung für die zur Verfügung stehende Hardware gemacht werden. Es ist möglich, Vorlagen für bestimmte virtuelle Maschinen anzulegen. Hieraus kann ein virtuelles System in sehr kurzer Zeit erstellt werden.

Die virtualisierten Systeme sind zudem einfach zu exportieren, etwa zur Sicherung oder zur Migration. Sinnvoll ist die Snapshot-Funktion, mit der Systeme eingefroren werden. So können Änderungen, beispielsweise zu Testzwecken, auf eine temporäre Festplatte (Delta) geschrieben werden. Später kann entschieden werden, ob zu einem Snapshot zurückgesprungen oder das Delta übernommen werden soll.

Hardware, etwa Lizenz-Dongles, dürfen sowohl am ESXi-Server zur Verfügung gestellt werden, als auch an durchgereichten USB-Schnittstellen aufrufender Rechner. Es werden verschiedene Ausführungen des aktuellen vSphere mit der Versionsnummer 6 angeboten. Einige hiervon sind:

-vSphere Hypervisor: Ist die kostenlose, im Funktionsumfang eingeschränkte, Version. Diese kann nur auf einem physikalischen Server mit einem Prozessorkern verwendet werden.

-vSphere Essentials: Ist die kleinste kostenpflichtige Variante. Sie darf auf drei physikalischen Servern betrieben werden. Zudem ist ein zentrales Management möglich.

-vSphere Standard: Sieht keine Beschränkungen bei der Anzahl von Servern vor. Die Anzahl der virtuellen Kerne pro Gast ist aus 128 begrenzt. Sie bietet zudem Features wie die Migration von Systemen im laufenden Betrieb.

-vSphere Platinum: Ist das Spitzenprodukt. Es beinhaltet unter anderem zusätzliche Sicherheitsmodule von Drittanbietern und Netzwerk-Monitoring.

Anwendungsgebiete und Vorteile von VMware ESXi

Gebräuchlich ist VMWare ESXi im Bereich der Server-Virtualisierung (vServer). Im Firmenumfeld werden so beispielsweise Server nach Anwendungszweck getrennt. Zudem können kurzfristig Spezialrechner, wie Workstations bereitgestellt werden.

Vorteilhaft ist die Skalierbarkeit. Hardwareressourcen sind kurzfristig an die Anforderungen anpassbar. Eine Ausfallsicherheit ist durch den Umstand gegeben, dass die Vorlagen eines Systems in sehr kurzer Zeit auf neue Hardware migriert werden können.

Wird VMware ESXi bei einem Hosting-Anbieter auf einem gemieteten Server betrieben, ist es sogar möglich, Kosten zu sparen. Man zahlt dort in der Regel nur die tatsächlich verwendeten Ressourcen.

Alternativen

Insbesondere zur Virtualisierung von Servern gibt es einige Alternativen zu VMWare ESXi. Microsoft bietet mit Hyper-V ein ähnliches System auf kommerzieller Basis an. Dieses gibt es als Typ-1-Hypervisor und, beispielsweise in Windows Server 2019 und Windows 10 Enterprise eingebunden, als Typ-2-Hypervisor.

Eine auf KVM/QEMU basierende Lösung ist der PROXMOX-Server. Hierbei handelt es sich um ein kostenloses Linux-Server-Betriebssystem. Im OpenSource-Bereich ist der von der Universität Cambridge entwickelte Hypervisor XEN eine weitere Alternative.

Als die beiden deutschen Softwareentwickler Martin und Dietmar Maurer im Frühjahr 2008 die Open SourceVirtualisierungssoftware Proxmox VE erstmals der breiten Öffentlichkeit vorstellten, hatte niemand wirklich damit gerechnet, dass sich die Virtualisierungsplattform in den nächsten 12 Jahren zu einer der meistgenutzten Virtualisierungslösungen im Linux-Segment entwickeln würde. Aktuellen Informationen zufolge werden weltweit mehr als 150.000 Server-Hosts in mehr als 150 Ländern mit Proxmox betrieben.

Allgemeine Informationen zu Proxmox

Ein Umstand, der zum Erfolg der Virtualisierungsplattform maßgeblich beigetragen hat, spiegelt sich in der Tatsache wider, dass Proxmox die Option bereitstellt, zwei unterschiedliche Virtualisierungslösungen gleichzeitig zu betreiben, und zwar:

–       virtuelle Linux Container (LXC)

–       kernelbasierte Virtual Machine (KVM)

Der virtuelle Linux Container ist eine performante und ressourcenschonende Container-Virtualisierung. Bei den KVMs handelt es sich um ein Kernel-Modul auf Linux-Basis, das direkt auf der Hardware als Hypervisor ausgeführt wird und bei der Virtualisierung von Hardware eingesetzt wird. Mit den KVMs lässt sich eine Vielzahl verschiedener Vserver (virtueller Server) erstellen, wobei alle aktuellen Betriebssysteme wie Windows, Linux und verschiedene BSD-Derivate unterstützt werden. Der Linux-Kernel wird im Rahmen der Virtualisierung selbst zum Hypervisor befördert, wodurch der Overhead auf einem Minimum gehalten wird. Die kernelbasierte Virtual Machine gehört außerdem zu einem der am besten gewarteten Open Source-Systeme im Linux-Bereich. Bugs und Probleme werden dank der gigantischen Open Source-Community schnell erkannt und behoben.

Einfache und schnelle Verwaltung von Proxmox

LXC und KVM decken unterschiedliche Einsatzbereiche ab. So virtualisiert KVM beispielsweise im Gegensatz zu LXC mit virtuellen Maschinen und nicht auf Betriebssystem-Ebene. Aus diesem Grund ist LXC viel flexibler und bietet die Möglichkeit, Applikationen und Nutzer Stacks in kürzester Zeit in Betreib zu nehmen sowie einzelne Prozesse und gesamte Prozessgruppen voneinander zu isolieren. Auf diese Weise lassen sich mehrere Linux-Systeme parallel auf einem Host-Betriebssystem betreiben, die voneinander getrennt und abgeschottet sind. Dadurch lässt die Hardware des Hostsystems wesentlich besser auslasten. Ähnlich wie die Konkurrenzprodukte Docker, VMware und Hyper-V ist LXC gleichermaßen gut bei der Virtualisierung einzelner Anwendungen einsetzbar.

Proxmox bot bis zu der Version 3.4 ausschließlich Unterstützung für OpenVZ als Container-Technologie. LXC kam erst mit der Version 4.0 hinzu. Gründe hierfür waren u. a. die bessere Unterstützung für Storage-Devices und ein optimiertes Storage-System für Linux-Container. So können Anwender zum Beispiel mit LXC ZFS Sub-Volumes nutzen, was sich mit OpenVZ nicht realisieren lässt. Hinzu kommt noch die Tatsache, dass die Netzwerk-Konfiguration bei Linux-Containern viel flexibler ist.

Ein dedizierter Server für das Management der Cluster, Virtual Machines oder der Container ist nicht notwendig. Jeder Proxmox-Host ist mit einem eigenen Webinterface ausgestattet, mit dem sich der gesamte Cluster von jedem Knoten aus schnell und unkompliziert verwalten lässt. Durch den Einsatz eines verteilten Dateisystems (Proxmox Cluster File System), können die Konfigurationsdateien auf alle Nodes (Hosts) im Cluster automatisch verteilt werden. Auf diese Weise wird für konsistente Verwaltungsinformationen auf mehreren Tausenden virtueller Maschinen gesorgt.

Virtualisierungsplattform für Linux-Enthusiasten

Promox bietet neben dem intuitiven Web-Interface auch eine API für Administratoren und Entwickler, sodass wiederkehrende Tasks ohne großen Aufwand per Skript automatisiert werden können. Clients stehen für folgende Programmier- bzw. Skriptsprachen zur Verfügung:

–       Python

–       Java

–       JavaScript (NodeJS)

–       PHP

–       Perl

Da sich die Virtualisierungsplattform mit den entsprechenden Programmier-Kenntnissen individuell an die eigenen Bedürfnisse der Nutzer anpassen lässt, wird ein äußerst flexibles Agieren ermöglicht.

Proxmox VE nutzt als Basis die Linux-Distribution Debian, sodass Anwender auf alle Funktionalitäten des Betriebssystems zugreifen können. Nutzer können grundsätzlich auch alle Pakete, die für das beliebte Debian entwickelt wurden, unter Proxmox installieren. Die Virtualisierungsplattform ist somit optimal an die Anforderungen von Administratoren zugeschnitten, die bereits über Linux-Erfahrungen verfügen. Proxmox ermöglicht ein ebenso interaktives Arbeiten wie mit Debian. Dank der riesigen Community steht außerdem viel Know-how zur Verfügung, sodass für viele Probleme, mit denen Anwender konfrontiert werden können, bereits eine Lösung existiert.

Hohe Verfügbarkeit von Proxmox

Da Debian als extrem sicher und stabil gilt, trägt es in wesentlichem Maße zu der Zuverlässigkeit der Virtualisierungssoftware bei. Die Proxmox Server Solutions GmbH ist der Verwalter des Projekts und ist direkt dafür zuständig, die Virtualisierungsplattform regelmäßig zu aktualisieren und sie dabei auch an neue Debian-Versionen anzupassen. Die Virtualisierungsplattform kann ebenfalls mit einer hohen Verfügbarkeit punkten. Der Proxmox VE HA Manager ist dafür zuständig, alle Knoten im Cluster kontinuierlich zu überwachen. Sobald einer dieser Knoten ausfällt, wird der Proxmox VE HA Manager aktiviert. Diese Funktionalität ist bereits bei der Standardinstallation von Proxmox VE bereits vorinstalliert, weswegen Anwender die Funktion lediglich an die eigenen Anforderungen und Bedürfnissen anpassen müssen.

Vielseitige Speichertypen für Proxmox

Proxmox VE ist extrem flexibel in Bezug auf den Speicher. Die Virtualisierungsplattform ist mit verschiedenen lokalen Speicher- und Netzwerkspeicher-Modulen versehen, was ebenfalls Debian zu verdanken ist. Alle Speichertypen, die von der Linux-Distribution unterstützt werden, können im Rahmen von Proxmox genutzt werden. Hierzu gehören:

–       Ceph

–       NFS

–       ISCSI

–       FibreChannnel

–       ZFS

Mithilfe der Shared Storage-Funktionalität lassen sich Abbilder der Vserver im lokalen Netzwerk ablegen. Die Virtualisierungsplattform ist außerdem mit einer Funktion zur Live-Migration versehen, sodass sich die erstellten Vserver ohne Ausfallzeit migrieren lassen.

Die Abkürzung Vserver steht für „virtuelle Server“. Durch den Einsatz einer Software für Virtualisierung kann ein Hardwaresystem in einige einzelne, voll funktionsfähige Server aufgeteilt werden. Durch die Virtualisierung, wie sie zum Beispiel Proxmox ermöglicht, lässt sich der Zugriff zwischen den einzelnen Systemen unterbinden bzw. steuern. Darüber hinaus kann ein virtueller Server mittels verschiedener Distributionen, wie zum Beispiel CentOS, Ubuntu oder Debian, betrieben werden.

Das allgemeine Leistungsspektrum von Vservern

Wenn Sie sich zum Beispiel einen Vserver über das Internet mieten möchten, dann bedeutet das nicht gleichzeitig, dass einen Server erhalten, der ausschließlich für Sie arbeitet. Ein virtueller Server ist im Grunde genommen eine „kleiner Teil“ eines noch weitaus größeren Servers, welche etwa in einem Rechenzentrum aufgestellt ist. Auf einem solchen physisch vorhandenen Server werden eine Vielzahl unterschiedlicher Nutzer verwaltet, die wie Sie ebenfalls eine virtuelle Maschine für ihre Zwecke angemietet haben.

In der Regel werden sowohl die Leistung als auch die Größe vom Anbieter/Hoster festgelegt. Die Netzanbindung unterliegt größtenteils etwaigen Vorgaben des Dienstleisters. Sie können sich jedoch darauf verlassen, dass Vserver mit überaus schnellen Anbindungen an ein Netzwerk bzw. an das Internet ausgestattet sind.

Häufig müssen Sie sich allerdings um die Installation des Vserers selbst kümmern und regelmäßige Backups erstellen, damit Sie keinen Datenverlust hinnehmen müssen, wenn der Server ausfällt. Derart aufwendige Aufgaben entfallen bei einem sogenannten Managed Server, welcher Serviceleistungen, wie zum Beispiel Backup-Systeme, eine regelmäßige Wartung ihres Internetauftritt oder auch unendlichen Speicherplatz, beinhaltet.

Wenn die Leistungsfähigkeit eines gesamten Servers aufgrund der hohen Last der angemeldeten Nutzer nicht mehr ausreicht, kann der Host den Vserver auf eine Maschine umziehen, welche zu diesem Zeitpunkt noch über freie Kapazitäten verfügt. Von diesem Umzug bemerken Sie im Regelfall so gut wie nichts und können wie gewohnt Ihrer Arbeit nachgehen.

Basis für viele Programme

Vserver zeichnen sich vor allem durch die Tatsache aus, dass sie eine augenscheinlich unendliche Menge an verschiedenen Programmen unterstützen und Nutzern zielgerichtet zur Verfügung stellen können. Dabei kann es sich um eine simple Seite im Internet, einen Mehrspieler-Server für PC- und Konsolen-Spiele oder komplexe Datenbanken handeln.

Die durchweg individuelle Skalierbarkeit bietet Nutzern zahlreiche Entscheidungsmöglichkeiten und steigert auf diese Weise die Flexibilität bei der täglichen Arbeit. Insbesondere Menschen jüngerer Generationen stehen dieser modernen Technologie überaus offen gegenüber. Firmen erkennen die Technik zunehmend häufiger als zielführend, wenn es um das Erreichen wichtiger unternehmerischer Ziele geht. Zudem schätzen Firmen jedweder Größe den Komfort durch die bereitgestellten dynamischen Server sowie die damit einhergehende Skalierbarkeit.

Die Virtualisierung im Detail

Wie Sie bereits erfahren haben, kümmert sich in der Regel ein Hoster bzw. ein Rechenzentrum um die Virtualisierung von physisch vorhandenen Computern bzw. Servern. Handelt es sich also um einen virtuellen Server/Vserver, handelt es sich im Grunde genommen um einen Computer, welche virtuell in viele einzelne Computer einschließlich alle dazugehörigen Ressourcen aufgeteilt wurde. Ein einzelner dieser kleineren Rechner bezeichnen IT-Experten als sogenannten Container.

Durch den Einsatz dieses Konzepts ist es möglich, dass die Ressourcen aufgespalten werden können und vollkommen dynamisch zu jeder Zeit an die Nutzer verteilt werden können. Besteht bei einem Kunden demnach ein größerer Bedarf, kann ihm der Hoster mehr Kapazität dauerhaft oder für einen begrenzten Zeitraum zuweisen.

Auf einem Vserver lässt sich darüber hinaus ein Betriebssystem installieren, welches im Anschluss einen „vollständigen“ Computer abbildet. Üblicherweise kommt auf einem Vserver das Betriebssystem Linux ohne eine grafische Oberfläche zum Einsatz. Mit Hilfe einer sogenannten SSH-Verbindung kann der Vserver verwaltet werden.

Der Verbindungsaufbau zu einem Vserver

Der SSH-Verbindungsaufbau unter Linux ähnelt dem Terminal- bzw. CMD-Programm der Betriebssysteme Unix und Windows. Sobald ein Administrator die IP-Adresse der virtuellen Maschine sowie die zwingend notwendigen Zugangsdaten (Benutzer und Passwort) eingibt, kann er eine Verbindung zum Server aufbauen und diesen Remote (aus der Ferne) verwalten. Er kann ein Programm durch die entsprechenden Befehle in der Kommandozeile installieren oder Update einspielen. Dieses Vorgehen ist vor allem für einen Administrator überaus komfortabel und zeitsparend. Server mit einer grafischen Oberfläche benötigen weitaus mehr Ressourcen, sodass auf einem Vserver kaum andere Betriebssysteme anzutreffen sind.

Für wen sich Vserver eignen

Vserver sind mittlerweile wahre Alleskönner und sind in nahezu allen Bereichen einsetzbar. Sollten Sie darüber nachdenken, Ihren bereits vorhandenen Webspace abschaffen zu wollen und nach geeigneteren Technologien suchen, dürften Sie für einen oder mehrere Vserver in Frage kommen. Sofern Sie auf die Möglichkeit eines Manged Server verzichten möchten, sollten Sie in diesem Zusammenhang beachten, dass die erstmalige Konfiguration allerdings wesentlich aufwendiger und zeitintensiver ist.

Einsteiger können bei einem Hoster meist eine Basiskonfiguration für den virtuellen Server erwerben und sich mit der Materie vertraut machen. Wenn Sie im Lauf der Zeit feststellen, dass Ihnen die zur Verfügung gestellten Ressourcen nicht mehr ausreichen, können Sie Ihren Vserver jederzeit erweitern lassen. Für die Konfiguration des Servers sollte jedoch Fachwissen beim Nutzer vorhanden.

Lange Jahre wurde die Architektur von Speicher ausschließlich durch die Parameter der Hardware bestimmt. Zumindest, was Größe, Zugriffsgeschwindigkeit und Cache anging. Dynamische Volumes und RAID-Verbünde waren ein erster Schritt, zu mehr Flexibilität. Software defined Storage (SDS) ist die konsequente Fortentwicklung dieses Ansatzes. Der Speicherplatz wird dabei von der Hardware abstrahiert. Dies erlaubt maximale Flexibilität und Skalierbarkeit.

Wie funktioniert die klassische Speicherung von Dateien?

Bis der physikalische Speicher dem Benutzer zum Ablegen seiner Daten angeboten wird, durchläuft er mehrere logische Bearbeitungsprozesse. Dies beginnt beim Controller der klassischen Festplatte. Dieser fasst Speicherbereiche zusammen und bietet sie dem Dateisystem in einer logischen Adressierung an. In Flashspeicher ist ebenfalls eine Abstraktionsschicht integriert, der Flash Translation Layer (FTL). Dieser übernimmt die Adressierung des vom Controller verwalteten Speichers.

Sowohl vom Betriebssystem, als auch auf Hardware-Ebene, können Verbünde erzeugt werden. Beispielsweise durch einen RAID-Controller, der den Speicher von zwei oder mehr Festplatten transparent zu einem großen Bereich zusammenfasst. Auch auf Software-Ebene ist dies möglich, indem beispielsweise unter Windows aus mehreren Festplatten ein dynamisches Laufwerk gebildet wird.

Auf den so zur Verfügung gestellten Speicher greift das Dateisystem zu und übernimmt die Partitionierung sowie Speicherung der Dateien.

Bezüglich der Schreib- und Lesegeschwindigkeit ist man bei diesen Methoden immer auf das „schwächste Glied“ im Verbund reduziert. Die Ablage der Dateien erfolgt zufällig. Auch ist der Austausch oder die Erweiterung der Komponenten nicht in jedem Fall möglich, ohne den gesamten Verbund neu aufzubauen. Ausnahme hiervon sind natürlich RAID-Verbünde, die speziell auf Redundanz ausgelegt sind, dafür aber eine homogene Hardware benötigen.

Wie funktioniert Software defined Storage?

Software defined Storage (SDS) übernimmt mehrere Aufgaben, die zuvor durch unterschiedliche Komponenten erledigt wurden. Er setzt an der Stelle an, wo der Speicher vom Controller logisch zur Verfügung gestellt wird. Er fasst die eingebundenen Komponenten zusammen und setzt sie dynamisch ein.

Dabei kann heterogene Hardware zum Einsatz kommen, ohne dass hierdurch die gesamte Performance beeinträchtigt wird. Vielmehr werden beispielsweise schnelle Speicher für eine Zwischenspeicherung verwendet. Die Daten werden dann zu weniger lastintensiven Zeiten auf andere Bereiche verteilt. Weiterhin ist das Dateisystem ein fester Bestandteil des Systems. So wird dafür gesorgt, dass Daten nicht doppelt abgelegt werden. Sind Dateien inhaltlich mehrfach vorhanden, speichert das Dateisystem sie nur einmal ab und legt Verweise auf den Inhalt an. Diesen Vorgang nennt man Deduplikation.

Auch das Anlegen von Snapshots und Backups wird durch Software defined Storage (SDS) gewährleistet. Die Datenablage erfolgt in redundanten Arrays. So kann Datenverlust bei Ausfall einzelner Komponenten verhindert oder vermindert werden.

Ein großer Vorteil ist die bereits angesprochene Skalierbarkeit. Es ist zu jedem Zeitpunkt möglich, Speicher zu ergänzen. Auch ein Austausch oder das Entfernen von Komponenten ist im laufenden Betrieb möglich.

Anwendungsfälle für Software defined Storage

Software defined Storage (SDS) bietet die flexible Basis für gemeinsam genutzten Speicherplatz in lokalen Netzwerkverbünden. Hauptsächlich dürfte dies für Firmennetzwerke interessant sein. Aus allen bereits vorhandenen Servern kann ein Software defined Storage (SDS) gebildet werden. Auf diesem können dann die notwendigen Dienste angeboten werden. Eine Möglichkeit ist beispielsweise die Nutzung des Speicherplatzes als Fileservers. Auch beliebige Serverdienste können darauf ausgeführt werden. Diese dürfen auch in einer virtualisierten Umgebung laufen. Das gesamte System ist nach der Einrichtung zentral administrierbar.

Was ist Ceph?

Ceph ist eine freie Variante des Software defined Storage (SDS). Sie wird unter GNU Lesser General Public License angeboten (LGPL). Ceph läuft unter Linux und wird von einem Konsortium verschiedener Hard- und Softwarehersteller entwickelt. Unter den Firmen befinden sich Canonical (Entwickler von Ubuntu-Linux), Cisco, Fujitsu, Intel, Red Hat, SanDisk und SuSE-Linux.

Die Software läuft auf handelsüblicher Hardware. Zur Speicherung wird ein Algorithmus mit Namen CRUSH verwendet. Dies steht für Controlled Replication Under scalable Hashing und setzt die Verteilung der Daten im System um. Die Komponenten im System werden Object Storage Nodes (OSDs) genannt. Es ist eine Redundanz der Daten vorgesehen, die dafür sorgt, dass ausgefallene Komponenten ohne Datenverlust ersetzt werden können. Die Software bringt mit CephFS ein eigenes Dateisystem mit.

Was ist Storage Spaces Direct?

Storage Spaces Direct (S2D) heißt der Software defined Storage (SDS) von Microsoft. Das System ist bereits in den Datacenter-Versionen von Windows Server 2016 und 2019 integriert. Es kann also relativ einfach verwendet werden, wenn die Infrastruktur auf diesen Betriebssystemen basiert. Die Flexibilität ist allerdings insofern eingeschränkt, als dass für jedes eingebundene Gerät eine Lizenz erforderlich ist.

Die Einrichtung von S2D erfolgt per PowerShell. Als Dateisystem kann das bekannte NTFS oder das für diesen Zweck optimierte ReFS zur Anwendung kommen. Bei ausreichend eingebundenen Komponenten liegt die Speichereffizienz bei bis zu 80 Prozent. Auch S2D bietet eine Wiederherstellung verlorener Dateien. Dies wird mit der Technik Local Reconstruction Codes (LRC) gewährleistet.

Weitere Anbieter von Software defined Storage

VMWare, der Spezialist für Virtualisierung, verwendet Software defined Storage (SDS) für seine Software vSAN, die Wiederherstellungssoftware Site Recovery Manager und sein Framework Virtual Volumes. Hierbei handelt es sich um ein kostenpflichtiges Angebot. Eine freie Alternative zu Ceph ist das Netzwerk-Dateisystem GlusterFS.

OpenStack Swift ist ein weiteres System zur Bereitstellung von Netzwerkspeicher aus verteilten Systemen. Es handelt sich dabei um Open-Source-Software, die also kostenfrei genutzt werden darf.

Gehört Software defined Storage die Zukunft?

Es sieht im Moment danach aus, dass Software defined Storage (SDS) das Konzept der Zukunft ist. Insbesondere gegenüber vorhandenen NAS- und SAN-Lösungen besticht es durch seine Flexibilität.  Man kann Hardware kann integrieren. Zuwächse in der Performance sind auch mit geringen Investitionen möglich. Zudem scheint der integrative Ansatz ein großer Vorteil bei der Administration zu sein. Backup-Strategien müssen beispielsweise nicht separat entworfen werden. Die Möglichkeit zur zentralen Administration ist ein grundsätzlicher Bestandteil der Technologie. Zudem sind keine Beschränkungen bei der Art der Nutzung des Speicherplatzes des Software defined Storage (SDS) gegeben. Somit harmoniert es beispielsweise gut mit dem Konzept der Virtualisierung von Systemen.

Storage Spaces direct (S2D) ist ein System von Microsoft, mit dem skalierbarer softwaredefinierter Speicher realisiert wird. Es handelt sich um eine Funktion für die Betriebssysteme Windows Server 2016 und 2019 Datacenter. Dabei wird ein Cluster aus den physikalischen Speichermedien der eingebundenen Server erstellt und logischer Speicherplatz gebildet. Dieser ist hochverfügbar und kann unkompliziert erweitert werden.

Wie funktioniert Storage Spaces direct im Detail?

Direkte Speicherplätze, wie Storage Spaces direct (S2D) in deutschsprachigen Programmversionen heißt, nutzt das Prinzip der Virtualisierung. Aus den physikalischen Speichermedien, egal ob Festplatte, SSD oder NVM, wird ein Verbund gebildet. Der schnellste verfügbare Speicher wird dabei automatisch als Cache genutzt. In einer Abstraktionsschicht sorgt das Cluster Shared Volumes Filesystem (CSVFS) dafür, dass der gesamte Speicherbereich logisch wie ein Laufwerk verwaltet werden kann. Die Funktionalität der Dateiverwaltung wird optional durch das bekannte Desktop-Dateisystem NTFS oder ReFS, das spezielle Server-Dateisystem von Microsoft, gewährleistet. Microsoft empfiehlt die Verwendung von ReFS. Der Speicherplatz kann danach zentral verwaltet werden. Dies ist das Prinzip des softwarebasierten Speichers, dem Software-Defined Storage. Die Einrichtung und Verwaltung ist mit der integrierten Microsoft Powershell möglich.

Vorteile von Storage Spaces direct

Das System Storage Spaces direct (S2D) ist direkt in die neuen Server-Betriebssysteme integriert. Hierdurch ist eine reibungslose Einbindung gewährleistet. Aus einer gewachsenen, heterogenen Server-Landschaft kann ein einheitlicher Speicher gebildet werden, der für alle eingebundenen System verfügbar ist. Dieser ist in der Folge auch zentral administrierbar.

Das System ist zudem skalierbar. Mit wenigen Befehlen können nachträglich weitere Komponenten hinzugefügt oder ausgetauscht werden.

Ein bedeutendes Merkmal ist die Ausfallsicherheit. Hier unterscheidet man zwischen der Einzelparität, die einem RAID-5 gleicht und dadurch nur 50 Prozent des physikalischen Speichers nutzen kann und der dualen Parität. Diese ähnelt dem RAID-6 und die Effizienz steigt mit der Anzahl der eingebundenen Hardware-Speichermedien auf bis zu 80 Prozent.

Zudem verwendet Microsoft eine Technik mit Namen Local Reconstruction Codes (LRC). Dabei werden innerhalb der eingebundenen Medien kleinere Gruppen gebildet, damit der Aufwand zur Wiederherstellung nicht auf den gesamten Speicher angewendet werden muss, sondern nur auf die lokal betroffenen Bereiche. Zur Steigerung der Effizienz kann zudem parallel Spiegelung für Teile des Speichers verwendet werden. Dieser Speicher wird dann vorrangig für Schreibvorgänge genutzt und die Daten erste später in andere Speicherbereiche verschoben.

Nachteile von S2D

Storage Spaces direct (S2D) ist an die entsprechenden Server-Lizenzen gebunden. Das bedeutet, dass alle eingebundenen Systeme auch über eine Lizenz für Windows Server 2016 oder 2019 Datacenter verfügen müssen. Das verursacht Kosten von etwa 5000 Euro pro Server, der in den Verbund aufgenommen werden soll. Insbesondere wenn es vorrangig um eine File-Server-Funktionalität geht, gibt es günstigere Alternativen. Bei Nutzung als Plattform für virtuelle Maschinen, müssen die Kosten anderer kommerzieller Anbieter gegenübergestellt werden.

Alternativen zu Storage Spaces direct

Eine ähnliche Funktionalität wie Storage Spaces direct (S2D) bietet das 2012 vorgestellte Ceph. Das System wird unter der GNU-General Public License angeboten und ist damit kostenfrei. An der Weiterentwicklung arbeiten namhafte Firmen. So sind beispielsweise die Hardware-Herstellern CISCO, Fujitsu und Intel sowie Linux-Distributoren, wie Red Hat, SuSE und Canonical (Entwickler von Ubuntu) beteiligt. Es ist allerdings nur unter Linux lauffähig.