was ist nginx und warum ist es besser als apache?

Lange Zeit war Apache mit einem Marktanteil von bis zu 70 Prozent der Webserver für das Internet. Einzig Microsoft IIS stellte mit etwa 20 Prozent eine nennenswerte Konkurrenz dar, da es der Standard für das Betriebssystem Windows Server ist. Mit dem Erscheinen von Nginx – ausgesprochen wie das englische Engine Ex – hat sich die Situation geändert. Besonders große Plattformen setzen auf die Open-Source-Software aus Russland, da diese viele Vorteile mit sich bringt.

Webserver, Datenbanken, Programmiersprachen, Protokolle und Interpreter

Eine Webseite ist heute fast immer dynamisch programmiert. Das bedeutet, bei einer Anfrage erstellen mehrere Programme eine individuelle Antwort, statt ein vorgefertigtes, statisches Dokument auszuliefern. Die Informationen – zum Beispiel Texte, Links, Nutzernamen oder Passwörter – liegen in einer Datenbank. Skripte in einer geeigneten Programmiersprache wie PHP, Perl oder Python fragen diese ab und erstellen die Webseite.

Der Interpreter bildet eine Schnittstelle zwischen dem Skript und dem Betriebssystem – er übersetzt die geschriebenen Befehle in Computersprache. Der Webserver ist für die Kommunikation zuständig: Er nimmt Anfragen entgegen und sendet Antworten an die entsprechenden Adressen.

Um die Kommunikation zwischen Server und unterschiedlichen Endgeräten und Betriebssystemen zu ermöglichen, kommen universelle Protokolle als Gemeinsprache zum Einsatz. Für Webseiten ist dies das Hypertext Transfer Protocol (HTTP) beziehungsweise dessen verschlüsselte Variante mit dem Zusatz Secure (HTTPS). Es ist speziell für die Übertragung von Nachrichten konzipiert, für andere Zwecke wie Dateiübertragungen existieren eigene Formate wie das File Transfer Protocol (FTP).

Nginx – ein modularer Webserver mit geringem Ressourcenverbrauch

Effizienz und Geschwindigkeit zeichnen Nginx besonders aus.

Effizienz und Geschwindigkeit zeichnen Nginx besonders aus.

Um eine hohe Performance und Funktionalität zu ermöglichen, verwendet Nginx ein modulares Design. Es besteht aus einem schlanken Kernprogramm, das ein Nutzer je nach individuellen Anforderungen durch Module erweitert. Dadurch unterstützt der Webserver unterschiedliche Techniken und erlaubt die Einbindung neuer Standards etwa für Videostreaming und interaktive Inhalte. Einige der Möglichkeiten sind Lastverteilung über mehrere Server, zusätzliche Protokolle, direkter Zugriff auf den Arbeitsspeicher oder der Einsatz als E-Mail– oder Webserver für Weiterleitung (Proxy).

Eines der populärsten und interessantesten Module ist PHP-FPM. Es handelt sich um einen Prozessmanager, der die Anbindung an den PHP-Interpreter übernimmt. Die Kommunikation zwischen Webserver und Programmiersprache basiert auf einem 1993 definierten Standard – dem Common Gateway Interface (CGI). Traditionell erstellt dieses für jede Aufgabe einen neuen Prozess.

Im Unterschied zu diesem Verfahren erzeugt PHP-FPM bei Betriebsstart mehrere Interpreter im Hintergrund, auf die es je nach Auslastung Anfragen verteilt. In Verbindung mit anderen Optimierungen erreicht das Modul dadurch eine ausgezeichnete Performance.

Unterschiede zwischen Apache und Nginx

Anders als Apache legt Nginx bereits seit seiner ersten Version eine Priorität auf Effizienz und Geschwindigkeit. Apache verwendet ebenfalls ein modulares Design – eines seiner größten Nachteile ist jedoch, dass es jede Verbindung einzeln bearbeitet. Dadurch besitzt es einen sehr hohen Speicherverbrauch und die Effizienz sinkt bei hohen Besucherzahlen kontinuierlich. Aus diesem Grund setzt das Programm auf eine sogenannte „asynchrone Architektur“. Anfragen behandelt es nicht individuell, sondern bündelt sie in wenigen Prozessen, die tausende Verbindungen simultan verwalten können.

Eine häufig genutzte Funktion unter Apache sind .htaccess-Dateien. Diese ermöglichen es, durch eine lokale Datei Regeln zu definieren, die von dem Webserver ausgewertet werden. Häufige Verwendungen sind das Setzen eines Passworts für eine bestimmte Adresse oder die Umleitung von URLs im Rahmen der Suchmaschinenoptimierung (SEO). Nginx unterstützt keine .htaccess-Dateien, da diese die Performance beeinträchtigen. Es verwendet stattdessen globale – also system– oder seitenweite Einstellungen.

Für die Umwandlung von .htaccess-Befehlen in eine gültige Konfiguration existieren mehrere Konverter, die die Einrichtung erleichtern. Apache ermöglicht es, Module nachträglich einzubinden, indem Anwender diese in die Konfiguration eintragen und in den Webserver laden. Im Gegensatz dazu gehören Module bei Nginx fest zu dem kompilierten Programm. Eine Erweiterung um neue Funktionen erfordert deshalb fast immer den Austausch der installierten Programmversion.

Vor- und Nachteile von Nginx

Bekannte Website setzen auf Nginx als Webserver und erreichen täglich mehrere tausend Aufrufe.

Bekannte Website setzen auf Nginx als Webserver und erreichen täglich mehrere tausend Aufrufe.

Das Projekt Nginx entstand aus der Notwendigkeit, einen schnellen, zuverlässigen, sicheren und effizienten Webserver für die russische Suchmaschine Rambler zu entwickeln. Unter dem Gesichtspunkt der Performance ist dieser wegen dieser Eigenschaften meist die beste Wahl. Populäre Webseiten mit tausenden oder Millionen Aufrufen täglich – darunter zum Beispiel WordPress, Netflix, Apple, Spotify oder Facebook – setzen deshalb bevorzugt Nginx ein. Experten schätzen, dass der Marktanteil des Webservers unter den 10.000 beliebtesten Internetseiten bei über 60 Prozent liegt.

Für kleine Projekte bietet die Verwendung ebenfalls einige Vorteile. Er ermöglicht beispielsweise eine Reduzierung der Hardwareperformance und dadurch der Betriebskosten, ohne die Geschwindigkeit bei Reaktion oder Seitenaufbau zu beeinträchtigen. Ein großer Nachteil von Nginx ist die gegenüber Apache aufwendigere Konfiguration. Darüber hinaus schränkt dieser durch die ausschließlich globale Definition die Möglichkeiten zu einer individuellen Einrichtung bei mehreren unabhängigen Nutzern ein. Wegen dieser Eigenschaft bevorzugen viele Anbieter von Webspace für ihre Kunden nach wie vor Apache.

Apache und Nginx als kombinierter Webserver

Um die Vorteile von beiden Programmen nutzen zu können, bietet sich eine Kombination der Webserver an. In diesem Fall dient Nginx als primäre Instanz und leitet ausschließlich spezielle Anfragen an Apache weiter, um dessen Verbindungen zu minimieren. Das Verfahren benötigt Administrationsrechte auf dem Server und eine individuelle Konfiguration, kann aber den Ressourcenverbrauch erheblich verringern. Das Aufsetzen der Webserver erfordert allerdings ein entsprechendes Fachwissen.

Webserver

Ein Webserver ist eine Serversoftware oder eine Hardware, die für das Ausführen dieser Software bestimmt ist und Inhalte für das World Wide Web bereitstellen kann. Er verarbeitet eingehende Netzwerkanforderungen über HTTP und verschiedene andere verwandte Protokolle. Jeder, der das Internet nutzt, um auf eine Website zuzugreifen, E-Mails abzurufen oder sich in einem sozialen Netzwerk zu verbinden, interagiert auf irgendeine Weise mit einem Webserver. Ein Webserver ist für die Beantwortung aller Anfragen an eine Internetadresse verantwortlich.

Anwendungen von Webservern

WebserverDie Hauptfunktion eines Webservers besteht darin, Webseiten zu speichern, zu verarbeiten und an Clients zu liefern. Die Kommunikation zwischen Client und Server erfolgt über das Hypertext Transfer Protocol (HTTP). Webseiten sind in der Hauptsache HTML-Dokumente, die neben dem Textinhalt Bilder, Stylesheets und Skripte enthalten können. Für eine stark frequentierte Website können mehrere Web Server verwendet werden.

Der Client eines Benutzers, üblicherweise ein Webbrowser, initiiert die Kommunikation mit dem Webserver, indem er eine bestimmte Ressource über HTTP anfordert. Der Server antwortet mit dem Inhalt dieser Ressource oder mit einer Fehlermeldung, falls die angeforderte Ressource nicht verfügbar ist. Die Ressource ist normalerweise eine Datei im sekundären Speicher des Servers. Dies ist jedoch nicht unbedingt der Fall und hängt davon ab, wie der Server implementiert wird. Während die Hauptfunktion die Bereitstellung von Inhalten ist, umfasst eine vollständige Implementierung von HTTP die Möglichkeit, Inhalte von Clients zu empfangen. Diese Funktion wird zum Senden von Webformularen und dem Upload von Dateien verwendet

Viele generische Web Server unterstützen die serverseitige Skripterstellung mit ASP (Active Server Pages), PHP (HypertextPreprocessor) oder anderen Skriptsprachen. Dies bedeutet, dass das Verhalten des Webservers in separaten Dateien beeinflusst werden kann, während die eigentliche Serversoftware unverändert bleibt. Diese Funktion nutzen beispielsweise Content Management Systeme wie WordPressDrupal oder Joomla, um HTML-Dokumente dynamisch zu generieren, anstatt statische Dokumente zurückzugeben.

Web Server können darüber hinaus in Geräten wie Druckern, Routern oder Webcams eingebettet sein und nur ein lokales Netzwerk bedienen. Der Server ist dann Teil eines Systems zum Überwachen oder Verwalten der Geräte. Dies bedeutet in der Regel, dass auf dem Client-Computer keine zusätzliche Software installiert werden muss, da nur ein Webbrowser erforderlich ist.

Zusätzliche Funktionen von Webservern

Moderne Web Server bieten über die Verwaltung und Bereitstellung von Webseiten hinausgehende Funktionen. Webserver werden häufig als Portale für anspruchsvolle, interaktive, webbasierte Anwendungen verwendet, die Unternehmens-Middleware und Back-End-Anwendungen zu Enterprise-Class-Systemen zusammenfügen. Mit Amazon Web Services können Benutzer beispielsweise öffentliche Cloud-Ressourcen über ein webbasiertes Portal verwalten. Streaming Media-Dienste wie Spotify für Musik und Netflix für Filme liefern Streaming-Inhalte in Echtzeit über Web Server.

Gängige Web Server

Den Markt für Webserver teilen sich aktuell im Wesentlichen 5 verschiedene Anbieter

Apache Websever

Der Apache Web Server ist eine Open Source-Software zum Erstellen, Bereitstellen und Verwalten von Webservern. Ursprünglich von einer Gruppe von Software-Programmierern entwickelt, wird die Software heute von der Apache Software Foundation verwaltet. Mit Apache Software können Webserver erstellt werden, die eine oder mehrere HTTP-basierte Websites hosten können. Zu den Funktionen gehören die Unterstützung mehrerer Programmiersprachen, serverseitige Skripterstellung, ein Authentifizierungsmechanismus und Datenbankunterstützung.

Der Apache Web Server kann durch Ändern der Codebasis oder Hinzufügen mehrerer Add-Ons erweitert werden. Die Apache Software wird auch häufig von Webhosting-Unternehmen zum Bereitstellen von Shared und Virtual Hosting verwendet, da Apache Web Server standardmäßig verschiedene Hosts unterstützt, die sich auf demselben Rechner befinden. Die Apache Software kann auf Windows, Linux und Unix Systemen genutzt werden.

Microsoft Internet Information Services (IIS)

Microsoft IIS ist ein flexibler Universal-Webserver, der auf Windows-Systemen ausgeführt wird, um angeforderte HTML-Seiten oder -Dateien bereitzustellenIIS ist ein erweiterbarer Webserver, der von Microsoft zur Verwendung mit der Windows NT-Familie erstellt wurde. IIS unterstützt HTTP, HTTP / 2, HTTPS, FTP, FTPS, SMTP und NNTP. Der Webserver ist seit Windows NT 4.0 ein fester Bestandteil der Windows NT-Produktfamilie, obwohl er in einigen Editionen – zum Beispiel der Windows XP Home Edition – nicht vorhanden und standardmäßig nicht aktiv ist.

NGINX

NGINX – ausgesprochen Engine X – ist eine flexible Open-Source-Software für Web-ServingReverse-ProxyingCachingLoad-BalancingMedia-Streaming und mehr. Ursprünglich wurde NGINX als ein Webserver mit maximaler Leistung und Stabilität entwickelt. Neben den HTTP-Serverfunktionen kann NGINX aktuell zudem als Proxyserver für E-Mails (IMAP, POP3 und SMTP) und als Reverse-Proxy und Load-Balancer für HTTP-, TCP- und UDP-Server genutzt werden.

LiteSpeed Web Server (LSWS)

Der LiteSpeed Web Server ist eine proprietäre Webserver-Software. Es ist der vierthäufigste Webserver und wurde im Oktober 2018 von 3,5 % der Webseiten weltweit genutztLSWS wurde entwickelt, um Apache zu ersetzen rund und kann die httpd.conf– und .htaccess -Dateien von Apache zu lesen und ausführen. Dies bedeutet, dass keine Änderungen an der Konfiguration erforderlich sind, wenn User zu LiteSpeed wechseln. Es verwendet vorhandenen Apache-Einstellungen und arbeitet mit den bestehenden Anwendungen einschließlich der Control Panels, die für Apache geschrieben wurden, zusammen.

Google Webserver (GWS)

Google Web Server ist eine proprietäre Webserver-Software, die Google für seine Webinfrastruktur verwendetGWS wird ausschließlich innerhalb des Google-Ökosystems für das Hosting von Websites verwendet. Im Laufe der Jahre wurden nur wenige Informationen veröffentlicht, es wird jedoch angenommen, dass GWS ursprünglich auf der Apache WebserverSoftware basiert und auf einer stark modifizierten Version von Debian Linux läuft.

Im Mai 2015 wurde die GWS nach Apache, NGINX und Microsoft IIS als viertgrößter Web Server im Internet eingestuft. Im Jahr 2018 betrug der Marktanteil laut W3Techs jedoch nur noch rund 1 Prozent. Webseitenanfragen auf den meisten Google-Seiten enthalten „gws“ (ohne Versionsnummer) im HTTP-Header als Hinweis auf die verwendete Webserver-Software.

Weitere Artikel im Blog der Biteno GmbH zum Thema Server und Virtualisierung

Warum das richtige Netzwerk bei Ceph so wichtig ist

Vor der Integration eines Ceph storage-clusters steht jeder Linux-Administrator irgendwann vor der Frage, welches Netzwerk (Ethernet, Infiniband, Omnipath) er verwenden möchte. Das hängt zunächst selbstverständlich vom zu erwartenden Workload und der Anzahl der Clients ab. Allerdings gibt es noch einen wichtigen weiteren Faktor den es zu beachten gibt. Ceph nutzt viele unabhängige Festplatten. RAID Arrays bieten sich nicht an, da die Performance mit  jeder zusätzlichen Festplatte wunderbar linear skaliert. Die vielen einzelnen Festplatten sowie der Aufbau des Ceph Clusters bringen es mit sich, dass alle Datenblöcke auf mehrere Knoten verteilt werden müssen. Je nach implementiertem Regelwerk sogar über Racks oder Rechenzentren hinweg. Das schafft Ausfallsicherheit. Jedoch bedeutet das, dass bei jedem Lese- oder Schreibzugriff eine Kommunikation mit allen Ceph-Nodes über das Netzwerk stattfinden muss, um alle notwendigen Datenblöcke zu erreichen.

Festplattenzugriff = Netzwerkzugriff bei Ceph

Da also jeder Zugriff auf eine der vorhandenen Festplatten auch ein Netzwerkzugriff ist, sollte man unbedingt auf ein 10 GE Netzwerk zurückgreifen um alle Ceph Knoten untereinander zu verbinden. 10 GE stellt hierbei das absolute Minimum dar. Möchten Sie Ceph richtig im produktiven Betrieb mit mehreren clients einsetzen, kommt ein 1 GE Netzwerk wirklich extrem schnell an seine Grenzen. Hier ist nicht nur der Datenverkehr zu den Clients und zwischen den Ceph Knoten bei der konkreten Datenabfrage zu betrachten. Ceph muss schließlich auch alle Replikationen auf den vorhandenen Servern und Festplatten des Clusters verteilen. Im besonderen wenn eine der Festplatten oder ein ganzer Server ausfällt, repliziert Ceph automatisch die Daten bis wieder die gewünschte Anzahl an Repliken vorliegt.

Netzwerkoptimierung

Dieses Verhalten kann durch getrennte Netzwerke optimiert werden. Ein Netzwerk übernimmt dann die Kommunikation zu den clients. Das zweite Netzwerk ist ausschließlich für die OSD Replikationen zuständig.

Die Konfiguration

Um zwei separate Netzwerke zu nutzen, müssen die Netzwerke innerhalb der ceph.conf eingetragen werden. Hierzu genügt es bereits die Netz ID mit entsprechendem Prefix anzugeben.

[global]

public network = 172.10.10.0/24

cluster network = 172.10.11.0/24

Sobald die Ceph Konfiguration auf allen Knoten verteilt wurde und die Services neu gestartet sind, werden die Netzwerke entsprechend verwendet. Damit wurde ein möglicher Flaschenhals in der Architektur  des Clusters optimiert bzw. verhindert.

Ein Managed Server ist das, was man ein Rundum-Sorglos Paket nennt. Neben dem eigentlichen virtuellen Server als Speicherplatz und Host beinhalten Managed Server eine Vielfalt praktischer und sicherer Serviceleistungen. Backup Systeme und die Wartung des Internetauftrittes sind zwei der zahlreichen und häufig genutzten Beispiele.

Managed Server sind ausschließlich für den Kunden da während ein Shared Server nur gemietet wird und einen Teil des vorhandenen Speicherplatzes anhand der Mietkosten zur Verfügung stellt, bieten Managed Server ihren Kunden unendlich viel Speicherplatz. Ebenso wird das Maximum an Serviceleistungen per Fernwartung geboten, wodurch der Kunde auf der sicheren Seite und bestens betreut ist. Das Konzept Managed Server wird immer beliebter, was nicht zuletzt an der Kundenorientierung und den zahlreichen integrierten Zusatzleistungen liegt. Der Kunde steht im Mittelpunkt und erhält die besten Leistungen vom Anbieter.

Leistungsumfang beim Managed Server

Techniker wartet einen ServerDie Fernwartung, das Patch Management, ein Remote Data Backup und viele Aspekte zur Sicherheit sowie die Überwachung des Desktop sind integrierte Leistungen. Kunden sparen mit einem Managed Server eine Menge Zeit und Geld, da sie keinen eigenen IT Support beschäftigen oder sich selbst mit der IT Wartung beschäftigen müssen. Für private und klein gehaltene Websites ist ein Managed Server nur bedingt geeignet. Für Unternehmer, die keine eigene Energie und Zeit in das Hosting und die darum auflaufenden Aufgaben investieren möchten, bietet sich diese Option aber an.

Wie wird ein Managed Server bezahlt?

Der Kunde schließt einen All-Inklusive Vertrag ab und zahlt seine monatliche Rate. Bei allen gewünschten Änderungen und im Rahmen der vertraglich vereinbarten Dienstleistung genügt eine Anfrage des Kunden und die Aufgabe wird erledigt. Die sichere und seriöse Wartung der Seite ist ein deutlicher Vorteil, den sich Unternehmer durch das Outsourcing an einen Hoster sichern, der ihnen einen Managed Server anbietet. Ein einfacher Host ist günstiger, aber: Benötigt ein Unternehmen einen vollständigen IT Support, ist der Managed Server auf lange Sicht die günstigere und praktischere Variante. Vor allem Großkonzerne und mittelständische Unternehmen erhalten so einige Vorteile.

Weitere Artikel im Blog der Biteno GmbH zum Thema Server und Virtualisierung

Sicherheitskonzept Managed Server

Die Haftung für die Sicherheit der Kundendaten und der gesamten Website obliegt dem Betreiber des Servers. Bei einem Managed Server können Unternehmer sicher sein, dass der Betreiber seine Haftung ernst nimmt und seine Server mit der entsprechenden Sicherheitssoftware und Betriebssoftware ausstattet. Die Daten werden gesichert und der Kunde profitiert von einem Support, der keinen Wunsch offen und keine Frage unbeantwortet lässt. Datenschutz und Datensicherheit sind zwei Grundpfeiler von Managed Servern und liegen den Betreibern am Herzen.

Managed Server vs, klassischer Host

Beim klassischen Hosting bucht man Speicherplatz, der streng begrenzt und in der Aufstockung teuer ist. Beim Managed Server bucht man ein Full-Service Paket, das so viel Speicherplatz wie gewünscht beinhaltet. Expandiert das Unternehmen, wächst die Website ohne Probleme mit. Denn auf dem Managed Server können prinzipiell unendlich viele Daten gespeichert werden, wodurch Unternehmen nicht in ihrer Performance begrenzt werden. Wer nur eine kleine Firma oder einen kleinen Onlineshop betreibt, ist mit einem klassischen Host besser beraten. Großunternehmer und mittelständische Firmen sparen sich die IT Abteilung, da der Managed Server diese Dienstleistung beinhaltet und per Fernwartung vornimmt.

Das Prinzip der Virtualisierung (Quelle: Wikipedia)

Die innovative Technologie der Virtualisierung gehört heutzutage zum festen Bestandteil moderner IT. Die Virtualisierung von Servern ist aus dem heutigen geschäftlichen Umfeld beim Betrieb der IT nicht mehr wegzudenken. Virtuelle Server rücken immer mehr in den Vordergrund, so dass Virtualisierung zunehmend sowohl den professionellen als auch den Privatanwenderbereich für sich gewinnt. Doch was genau versteht man unter dem Begriff Virtualisierung? In diesem Beitrag beleuchten wir die Grundlagen, die Einsatzbereiche sowie die Vorteile der Virtualisierungstechnologie.

Was versteht man unter Virtualisierung?

Mit dem Begriff Virtualisierung werden im IT-Bereich unterschiedliche Technologien bezeichnet, welche auf einem raffinierten Prinzip basieren. Im Grunde genommen geht es darum, die Software wie beispielsweise ein Betriebssystem oder eine bestimmte Anwendung von der Hardware zu entkoppeln. Virtualisierung ermöglicht, dass auf einem physikalischen Server im Rechenzentrum oder in der Cloud mehrere virtuelle Server gleichzeitig betrieben werden, wodurch nicht nur an zusätzlicher Hardware, sondern auch an Strom gespart wird. Virtualisierung ist ein komplexes Thema, das IT-Laien und unerfahrene Computernutzer anfangs oft nur schwer begreifen können.

Virtualisierung im konkreten Beispiel

Das Prinzip der Virtualisierung (Quelle: Wikipedia)

Das Prinzip der Virtualisierung (Quelle: Wikipedia)

Virtualisierung lässt sich gut an einem Beispiel erklären. Nehmen wir etwa den Bau von Häusern: Anstatt für jedes Unternehmen ein Einfamilienhaus zu bauen, erreichtet man gleich lieber große Mietshäuser (leistungsstarke physikalische Server), in denen man dann die Mieter (Unternehmen) unterbringen kann. Im Gegensatz zu den unflexiblen kleinen Häusern, in denen man die Zimmeranordnung und die Zimmergröße nur sehr schwer verändern kann, lassen sich bei virtuellen Servern, die auf einem physischen Server ausgeführt werden, wichtige Parameter wie zum Beispiel Festplattenspeicher, Arbeitsspeicher und Rechenleistung bei Bedarf nahezu beliebig hinzufügen und wieder entfernen. Das heißt, wenn Ihr Unternehmen kurzzeitig mehr Speicherplatz benötigt, kann das schnell und einfach bewerkstelligt werden. Die Virtualisierungs-Technologie ermöglicht es  Anbietern, die benötigten Mengen an Speicherplatz, Rechenpower und Arbeitsspeicher effizienter und flexibler zuzuweisen, als wenn jeder Kunde über einen festen Server verfügen würde.

Technologie-Anbieter

Die hohe Effizienz der Virtualisierungstechnologien führt in aller Regel zu günstigeren Preisen für die Kunden, da diese anfangs nur so viel Speicherplatz und Rechenleistung buchen müssen, wie sie tatsächlich benötigen. Ein weiterer großer Vorteil der Virtualisierung liegt in der Automatisierung, mit der sich komplexe IT-Umgebungen relativ einfach verwalten lassen. Obwohl bereits zahlreiche Virtualisierungsplattformen für den Heimanwenderbereich (etwa VirtualBox) erhältlich sind, kommt Virtualisierung als Technologie heutzutage in erster Linie in großen Rechenzentren zum Einsatz. Die zwei großen Anbieter von Virtualisierungslösungen sind VMware und Microsoft. Die Produkte dieser beiden IT-Giganten werden im geschäftlichen Umfeld äußerst erfolgreich eingesetzt. Die beiden Virtualisierungs-Lösungen HyperV (Microsoft) und vSphere von VMWare dominieren im Wesentlichen sowohl den Markt der OnPremise-Virtualisierung in Kunden-Niederlassungen als auch den Markt für Virtualisierung im Rechenzentrum

Einsatzbereiche der Virtualisierungs-Technologie

Obwohl Virtualisierung an sich bereits seit Mitte der 1990er Jahre im Einsatz ist, konnte sich die Technologie erst um das Jahr 2005 durchsetzen und erlebt seitdem einen anhaltenden Aufschwung, den selbst viele Experten damals nicht für möglich gehalten haben. Heutzutage wird diese Technologie in der IT-Branche in drei großen Bereichen eingesetzt. Das sind Server-, Storage- und Netzwerk-Virtualisierung.

  • Bei der Servervirtualisierung handelt es sich um die gemeinsame Nutzung von Server-Ressourcen, die sich auf einem individuellen physischen Server (Host) befinden und von diesem bereitgestellt werden. Dazu gehören Speicherplatz, Arbeitsspeicher und CPU-Kapazitäten. Damit will man dem Anwender ersparen, dass er sich um komplexe Details der Server-Ressourcen kümmern muss. Darüber hinaus wird die Auslastung der bestehenden Hardware optimiert, da sich mehrere virtuelle Server die Kapazitäten des physischen Servers teilen.
  • Bei der Storagevirtualisierung (Stichwort: Software defined Storage) handelt es sich um die Konsolidierung von physischem Speicherplatz, der auf physischen Speichergeräten wie beispielsweise Festplatten im Netzwerk verteilt ist. Der zur Verfügung stehende Speicherplatz wird dem Anwender so präsentiert, als ob es sich um ein einzelnes Speichergerät handeln würde.
  • Bei der Netzwerkvirtualisierung (engl. „Software defined Networking“) werden alle in einem Netzwerk verfügbaren Ressourcen kombiniert, indem die verfügbare Bandbreite in Kanäle aufgeteilt wird. Die einzelnen Kanäle sind voneinander unabhängig, so dass man jeden Kanal einem bestimmten Server oder einem anderen Gerät in Echtzeit zuweisen kann. Die Idee hinter dieser Technologie, das die Komplexität des Netzwerks durch den Einsatz von Virtualisierung verringert wird.
  • Bei der Desktop-Virtualisierung kombiniert man mittlerweile erfolgreich den IT-Trend praktisch alle Computer-Ressourcen in eines oder mehrere zentrale Rechenzentren zu verlagern. Dabei wird auf dem Arbeitsplatz-Rechner des Anwenders nur noch die Grafik der jeweiligen Programme angezeigt. Die eigentliche Ausführung findet an einer zentralen Stelle statt.

 

Fazit zur Virtualisierung

Die Virtualisierung von Servern ist seit über 10 Jahren in der IT ein Thema, von dem auch mittelständische Unternehmen mehr und mehr profitieren. Das Feld der Ablösung von klassischen Storage-Lösungen durch SDS (Software definied Storage) kommt hingegen erst seit 1-2 Jahren langsam in Schwung.

Wenn auch Sie wissen möchten, wie Ihr Unternehmen von der Flexibilisierung von Speicherplatz und Servern profitieren kann, so nehmen Sie einfach mit uns Kontakt auf. Die sowohl in KVM, Hyper-V als auch VMware zertifizierten IT-Spezialisten der Biteno GmbH beraten Sie gerne unverbindlich.

Die Cloud, englisch für Wolke, ist ein theoretisch unbegrenzter Onlinespeicher, in dem Daten aller Art gespeichert und von praktisch jedem Ort mit einem internetfähigen Gerät genutzt werden können. Dabei ist der Begriff Cloud die Kurzfassung für Cloud-Computing.

Der Begriff Cloud-Computing beinhaltet sowohl das Nutzen als auch das Anbieten von unterschiedlichen IT-Dienstleistungen und beinhaltet neben dem Speicherplatz die Bereitstellung von Hard- und Software über das Internet. Cloud-Computing bietet gewissermaßen einen virtuellen Computer im Internet, der in Teilen den lokalen Computer am Arbeitsplatz ersetzen kann.

Die Idee, Daten extern zu speichern und von jedem beliebigen Ort aus zu nutzen, wurde bereits in den 1950er Jahren geboren. Allerdings sind die technischen Voraussetzungen für die Anwendung erst seit Ende der 1990er gegeben.

Wie funktioniert die Cloud?

So sieht ein Cloud-Rechenzentrum von innen aus

So sieht ein Cloud-Rechenzentrum von innen aus

Cloud-Computing ist ein dynamischer, an den Bedarf der Nutzer angepasster Prozess. Cloud-Dienstleister stellen den Kunden Speicherplatz und Rechenleistung auf Ihren Servern bzw. in deren Rechenzentrum gegen ein Entgelt, eine monatliche oder jährliche Mietzahlung, zur Verfügung. Durch die Verknüpfung vieler einzelner Server miteinander werden die Daten der Kunden nicht nur auf einem Server gespeichert und die Ressourcen können je nach Bedarf in Anspruch genommen werden.

Nutzer haben über das Internet jederzeit Zugriff auf die eigenen Daten und können beliebig viele Daten speichern. So können zum Beispiel E-Mails, Dokumente oder der eigene Terminkalender von jedem Ort aus über das Internet abgerufen oder anderen Nutzern zur Verfügung gestellt werden. Der Computer am Arbeitsplatz, das Smartphone oder Tablet dienen bei der Nutzung eines Cloud-Speichers nur noch zur Steuerung der Hard- und Software.

Beim Cloud-Computing wird zwischen öffentlichen und privaten Clouds unterschieden. Öffentliche Clouds können von unterschiedlichen Kunden genutzt werden, die zum Beispiel die gleiche Software verwenden. Bei privaten Clouds ist das Angebot an Hard- und Software auf die Anforderungen eines Kunden abgestimmt und nur durch diesen nutzbar. Andere Formen sind die sogenannten Community Clouds für die Nutzung von Gruppen mit gleichen Interessen und Hybrid Clouds, bei denen private und öffentliche Clouds von den gleichen Kunden genutzt werden.

Cloud: IaaS, PaaS oder SaaS

Cloud-Services werden in unterschiedlichen Modellen, die als IaaS, PaaS und SaaS bezeichnet werden, angeboten. IaaS steht für Infrastructure as a Service. Hierbei stellt der Dienstleister lediglich IT-Ressourcen wie Rechenleistung, Speicherplatz oder Netzwerkkapazitäten zur Verfügung. Der Anwender muss bei diesem Modell die Infrastruktur in der Regel selbst zusammenstellen.

PaaS bedeutet Platform as a Service. Hierbei werden dem Kunden Programmiermodelle und Entwicklerwerkzeuge zur Verfügung gestellt, mit denen Cloud-basierte Anwendungen erstellt und ausgeführt werden können.

SaaS ist die Abkürzung für Software as a Service. Diese Variante wird in der Regel von Unternehmen und Privatkunden genutzt. Der Dienstleister stellt seinen Kunden neben der Hardware und Infrastruktur zusätzlich Anwendungsprogramme, also Software zur Verfügung. Kunden eines SaaS-Anbieters müssen sich nicht um die Installation oder Updates der Software kümmern. Das können dann etwa so populäre Dienste wie der Musik-Anbieter Spotify oder auch spezialisierte Business-Software wie etwa ein Online-Dokumenten-Management sein.

Welche Vorteile bietet Cloud-Computing?

Nur ein Symbol: Die Wolke für Cloud-Computing

Nur ein Symbol: Die Wolke für Cloud-Computing

Cloud-Computing bietet für Nutzer, insbesondere Unternehmen, eine Reihe von Vorteilen. Der größte Vorteil ist der Gewinn an Flexibilität bei der Datennutzung und dem Datenaustausch. Durch eine automatische Synchronisierung der online gespeicherten Daten mit den lokal gespeicherten Daten sind alle Nutzer, egal, wo sie sich gerade aufhalten, immer auf dem gleichen Informationsstand. Hinzu kommt, dass die Investitionen in Hardware, Software und Infrastruktur im Unternehmen deutlich gesenkt werden können. Gleichzeitig reduziert sich der administrative Aufwand für die Wartung und Pflege der IT-Infrastruktur. Ein weiterer Vorteil ist der Schutz vor einem Datenverlust. Wenn zur Sicherung der Daten ein Cloud-Speicher genutzt wird, gehören Datenverluste durch defekte Festplatten etc. der Vergangenheit an.

Was ist bei der Auswahl eines Cloud-Dienstleisters zu beachten?

Immer mehr Dienstleister drängen auf den Markt und versuchen, sich einen Teil des lukrativen und zukunftsweisenden Geschäftes mit dem Cloud-Computing zu sichern. Einige Anbieter locken neue Kunden gar mit kostenlosem Speicherplatz von bis zu mehreren Gigabyte. Bei wachsendem Speicherplatzbedarf kann eine Erweiterung des Speicherplatzes gegen einen monatlich oder jährlich zu bezahlenden Betrag hinzugekauft werden.

Viel wichtiger, als die Frage nach den Kosten für den Speicherplatz ist die Frage: Wo werden die Daten gespeichert? Die Antwort auf diese Frage sollte eindeutig lauten: Auf Servern, die in einem Rechenzentrum in Deutschland stehen!

Warum? In Deutschland hat eines der strengsten Datenschutzgesetze weltweit. Bei Servern mit Standort in Deutschland ist der Zugriff auf Ihre Daten klar geregelt. Das bedeutet, nur Sie bestimmen, wer Zugriff auf Ihre Daten hat und wer nicht. Ganz anders sieht dies zum Beispiel in den USA aus.

Dort fallen Cloud-Dienste schon seit geraumer Zeit unter den sogenannten Patriot Act, dem nach dem 11. September 2001 verabschiedeten Antiterror-Gesetz der USA. Dieses Gesetz hat auch für Cloud-Nutzer aus Deutschland weitreichende Folgen für die Privatsphäre und den Datenschutz. Amerikanische Geheimdienste wie CIA oder NSA und die Bundespolizei FBI dürfen auf Ihre bei einem US-amerikanischen Cloud-Dienstleister gespeicherten Daten zugreifen. Und das ohne Ihr Wissen oder einen richterlichen Beschluss.

Auf einen bloßen Verdacht hin sind die US-amerikanischen Anbieter dazu verpflichtet, Ihre Daten den Behörden preiszugeben. Dies gilt auch für Cloud-Speicher, die zwar nicht in den USA stehen, aber von einem amerikanischen Unternehmen betrieben werden.

Fazit zum Thema Cloud-Computing:

Wenn Sie Wert auf die maximale Sicherheit Ihre Daten legen, sollten sie nur einen Cloud-Dienstleister wählen, dessen Server sich in einem Rechenzentrum in Deutschland befinden. Auch, wenn der Dienst dann vielleicht etwas mehr kostet.

Insgesamt sind die Vorteile von Cloud-Computing für mittelständische Firmen deutlich größer als die vermeindlichen Nachteile. Firmen die Cloud-Computing in Deutschland nutzen wollen sollten sie – wie bei sonstigen Entscheidungen auch – im Vorfeld ausführlich informieren und etwa Referenzen des neuen Cloud-Anbieters einholen.

Haben Sie Interesse daran zu erfahren, wie Sie mit Cloud-Computing Ihre IT-Kosten senken können. Wir beraten Sie gerne unverbindlich – Sie erreichen unser Vertriebs-Team unter +49-(0)711-4889020. Wir freuen uns auf Sie.