Was ist Virtualisierung

, ,
Das Prinzip der Virtualisierung (Quelle: Wikipedia)

Die innovative Technologie der Virtualisierung gehört heutzutage zum festen Bestandteil moderner IT. Die Virtualisierung von Servern ist aus dem heutigen geschäftlichen Umfeld beim Betrieb der IT nicht mehr wegzudenken. Virtuelle Server rücken immer mehr in den Vordergrund, so dass Virtualisierung zunehmend sowohl den professionellen als auch den Privatanwenderbereich für sich gewinnt. Doch was genau versteht man unter dem Begriff Virtualisierung? In diesem Beitrag beleuchten wir die Grundlagen, die Einsatzbereiche sowie die Vorteile der Virtualisierungstechnologie.

Was versteht man unter Virtualisierung?

Mit dem Begriff Virtualisierung werden im IT-Bereich unterschiedliche Technologien bezeichnet, welche auf einem raffinierten Prinzip basieren. Im Grunde genommen geht es darum, die Software wie beispielsweise ein Betriebssystem oder eine bestimmte Anwendung von der Hardware zu entkoppeln. Virtualisierung ermöglicht, dass auf einem physikalischen Server im Rechenzentrum oder in der Cloud mehrere virtuelle Server gleichzeitig betrieben werden, wodurch nicht nur an zusätzlicher Hardware, sondern auch an Strom gespart wird. Virtualisierung ist ein komplexes Thema, das IT-Laien und unerfahrene Computernutzer anfangs oft nur schwer begreifen können.

Virtualisierung im konkreten Beispiel

Das Prinzip der Virtualisierung (Quelle: Wikipedia)

Das Prinzip der Virtualisierung (Quelle: Wikipedia)

Virtualisierung lässt sich gut an einem Beispiel erklären. Nehmen wir etwa den Bau von Häusern: Anstatt für jedes Unternehmen ein Einfamilienhaus zu bauen, erreichtet man gleich lieber große Mietshäuser (leistungsstarke physikalische Server), in denen man dann die Mieter (Unternehmen) unterbringen kann. Im Gegensatz zu den unflexiblen kleinen Häusern, in denen man die Zimmeranordnung und die Zimmergröße nur sehr schwer verändern kann, lassen sich bei virtuellen Servern, die auf einem physischen Server ausgeführt werden, wichtige Parameter wie zum Beispiel Festplattenspeicher, Arbeitsspeicher und Rechenleistung bei Bedarf nahezu beliebig hinzufügen und wieder entfernen. Das heißt, wenn Ihr Unternehmen kurzzeitig mehr Speicherplatz benötigt, kann das schnell und einfach bewerkstelligt werden. Die Virtualisierungs-Technologie ermöglicht es  Anbietern, die benötigten Mengen an Speicherplatz, Rechenpower und Arbeitsspeicher effizienter und flexibler zuzuweisen, als wenn jeder Kunde über einen festen Server verfügen würde.

Technologie-Anbieter

Die hohe Effizienz der Virtualisierungstechnologien führt in aller Regel zu günstigeren Preisen für die Kunden, da diese anfangs nur so viel Speicherplatz und Rechenleistung buchen müssen, wie sie tatsächlich benötigen. Ein weiterer großer Vorteil der Virtualisierung liegt in der Automatisierung, mit der sich komplexe IT-Umgebungen relativ einfach verwalten lassen. Obwohl bereits zahlreiche Virtualisierungsplattformen für den Heimanwenderbereich (etwa VirtualBox) erhältlich sind, kommt Virtualisierung als Technologie heutzutage in erster Linie in großen Rechenzentren zum Einsatz. Die zwei großen Anbieter von Virtualisierungslösungen sind VMware und Microsoft. Die Produkte dieser beiden IT-Giganten werden im geschäftlichen Umfeld äußerst erfolgreich eingesetzt. Die beiden Virtualisierungs-Lösungen HyperV (Microsoft) und vSphere von VMWare dominieren im Wesentlichen sowohl den Markt der OnPremise-Virtualisierung in Kunden-Niederlassungen als auch den Markt für Virtualisierung im Rechenzentrum

Einsatzbereiche der Virtualisierungs-Technologie

Obwohl Virtualisierung an sich bereits seit Mitte der 1990er Jahre im Einsatz ist, konnte sich die Technologie erst um das Jahr 2005 durchsetzen und erlebt seitdem einen anhaltenden Aufschwung, den selbst viele Experten damals nicht für möglich gehalten haben. Heutzutage wird diese Technologie in der IT-Branche in drei großen Bereichen eingesetzt. Das sind Server-, Storage- und Netzwerk-Virtualisierung.

  • Bei der Servervirtualisierung handelt es sich um die gemeinsame Nutzung von Server-Ressourcen, die sich auf einem individuellen physischen Server (Host) befinden und von diesem bereitgestellt werden. Dazu gehören Speicherplatz, Arbeitsspeicher und CPU-Kapazitäten. Damit will man dem Anwender ersparen, dass er sich um komplexe Details der Server-Ressourcen kümmern muss. Darüber hinaus wird die Auslastung der bestehenden Hardware optimiert, da sich mehrere virtuelle Server die Kapazitäten des physischen Servers teilen.
  • Bei der Storagevirtualisierung (Stichwort: Software defined Storage) handelt es sich um die Konsolidierung von physischem Speicherplatz, der auf physischen Speichergeräten wie beispielsweise Festplatten im Netzwerk verteilt ist. Der zur Verfügung stehende Speicherplatz wird dem Anwender so präsentiert, als ob es sich um ein einzelnes Speichergerät handeln würde.
  • Bei der Netzwerkvirtualisierung werden alle in einem Netzwerk verfügbaren Ressourcen kombiniert, indem die verfügbare Bandbreite in Kanäle aufgeteilt wird. Die einzelnen Kanäle sind voneinander unabhängig, so dass man jeden Kanal einem bestimmten Server oder einem anderen Gerät in Echtzeit zuweisen kann. Die Idee hinter dieser Technologie, das die Komplexität des Netzwerks durch den Einsatz von Virtualisierung verringert wird.
  • Bei der Desktop-Virtualisierung kombiniert man mittlerweile erfolgreich den IT-Trend praktisch alle Computer-Ressourcen in eines oder mehrere zentrale Rechenzentren zu verlagern. Dabei wird auf dem Arbeitsplatz-Rechner des Anwenders nur noch die Grafik der jeweiligen Programme angezeigt. Die eigentliche Ausführung findet an einer zentralen Stelle statt.

 

Fazit zur Virtualisierung

Die Virtualisierung von Servern ist seit über 10 Jahren in der IT ein Thema, von dem auch mittelständische Unternehmen mehr und mehr profitieren. Das Feld der Ablösung von klassischen Storage-Lösungen durch SDS (Software definied Storage) kommt hingegen erst seit 1-2 Jahren langsam in Schwung.

Wenn auch Sie wissen möchten, wie Ihr Unternehmen von der Flexibilisierung von Speicherplatz und Servern profitieren kann, so nehmen Sie einfach mit uns Kontakt auf. Die sowohl in Hyper-V als auch VMware zertifizierten IT-Spezialisten der Biteno GmbH beraten Sie gerne unverbindlich.

Was ist eine Cloud?

,
Nur ein Symbol: Die Wolke für Cloud-Computing

Die Cloud, englisch für Wolke, ist ein theoretisch unbegrenzter Onlinespeicher, in dem Daten aller Art gespeichert und von praktisch jedem Ort mit einem internetfähigen Gerät genutzt werden können. Dabei ist der Begriff Cloud die Kurzfassung für Cloud-Computing.

Der Begriff Cloud-Computing beinhaltet sowohl das Nutzen als auch das Anbieten von unterschiedlichen IT-Dienstleistungen und beinhaltet neben dem Speicherplatz die Bereitstellung von Hard- und Software über das Internet. Cloud-Computing bietet gewissermaßen einen Computer im Internet, der in Teilen den lokalen Computer am Arbeitsplatz ersetzen kann.

Die Idee, Daten extern zu speichern und von jedem beliebigen Ort aus zu nutzen, wurde bereits in den 1950er Jahren geboren. Allerdings sind die technischen Voraussetzungen für die Anwendung erst seit Ende der 1990er gegeben.

Wie funktioniert die Cloud?

So sieht ein Cloud-Rechenzentrum von innen aus

So sieht ein Cloud-Rechenzentrum von innen aus

Cloud-Computing ist ein dynamischer, an den Bedarf der Nutzer angepasster Prozess. Cloud-Dienstleister stellen den Kunden Speicherplatz und Rechenleistung auf Ihren Servern bzw. in deren Rechenzentrum gegen ein Entgelt, eine monatliche oder jährliche Mietzahlung, zur Verfügung. Durch die Verknüpfung vieler einzelner Server miteinander werden die Daten der Kunden nicht nur auf einem Server gespeichert und die Ressourcen können je nach Bedarf in Anspruch genommen werden.

Nutzer haben über das Internet jederzeit Zugriff auf die eigenen Daten und können beliebig viele Daten speichern. So können zum Beispiel E-Mails, Dokumente oder der eigene Terminkalender von jedem Ort aus über das Internet abgerufen oder anderen Nutzern zur Verfügung gestellt werden. Der Computer am Arbeitsplatz, das Smartphone oder Tablet dienen bei der Nutzung eines Cloud-Speichers nur noch zur Steuerung der Hard- und Software.

Beim Cloud-Computing wird zwischen öffentlichen und privaten Clouds unterschieden. Öffentliche Clouds können von unterschiedlichen Kunden genutzt werden, die zum Beispiel die gleiche Software verwenden. Bei privaten Clouds ist das Angebot an Hard- und Software auf die Anforderungen eines Kunden abgestimmt und nur durch diesen nutzbar. Andere Formen sind die sogenannten Community Clouds für die Nutzung von Gruppen mit gleichen Interessen und Hybrid Clouds, bei denen private und öffentliche Clouds von den gleichen Kunden genutzt werden.

Cloud: IaaS, PaaS oder SaaS

Cloud-Services werden in unterschiedlichen Modellen, die als IaaS, PaaS und SaaS bezeichnet werden, angeboten. IaaS steht für Infrastructure as a Service. Hierbei stellt der Dienstleister lediglich IT-Ressourcen wie Rechenleistung, Speicherplatz oder Netzwerkkapazitäten zur Verfügung. Der Anwender muss bei diesem Modell die Infrastruktur in der Regel selbst zusammenstellen.

PaaS bedeutet Platform as a Service. Hierbei werden dem Kunden Programmiermodelle und Entwicklerwerkzeuge zur Verfügung gestellt, mit denen Cloud-basierte Anwendungen erstellt und ausgeführt werden können.

SaaS ist die Abkürzung für Software as a Service. Diese Variante wird in der Regel von Unternehmen und Privatkunden genutzt. Der Dienstleister stellt seinen Kunden neben der Hardware und Infrastruktur zusätzlich Anwendungsprogramme, also Software zur Verfügung. Kunden eines SaaS-Anbieters müssen sich nicht um die Installation oder Updates der Software kümmern. Das können dann etwa so populäre Dienste wie der Musik-Anbieter Spotify oder auch spezialisierte Business-Software wie etwa ein Online-Dokumenten-Management sein.

Welche Vorteile bietet Cloud-Computing?

Nur ein Symbol: Die Wolke für Cloud-Computing

Nur ein Symbol: Die Wolke für Cloud-Computing

Cloud-Computing bietet für Nutzer, insbesondere Unternehmen, eine Reihe von Vorteilen. Der größte Vorteil ist der Gewinn an Flexibilität bei der Datennutzung und dem Datenaustausch. Durch eine automatische Synchronisierung der online gespeicherten Daten mit den lokal gespeicherten Daten sind alle Nutzer, egal, wo sie sich gerade aufhalten, immer auf dem gleichen Informationsstand. Hinzu kommt, dass die Investitionen in Hardware, Software und Infrastruktur im Unternehmen deutlich gesenkt werden können. Gleichzeitig reduziert sich der administrative Aufwand für die Wartung und Pflege der IT-Infrastruktur. Ein weiterer Vorteil ist der Schutz vor einem Datenverlust. Wenn zur Sicherung der Daten ein Cloud-Speicher genutzt wird, gehören Datenverluste durch defekte Festplatten etc. der Vergangenheit an.

Was ist bei der Auswahl eines Cloud-Dienstleisters zu beachten?

Immer mehr Dienstleister drängen auf den Markt und versuchen, sich einen Teil des lukrativen und zukunftsweisenden Geschäftes mit dem Cloud-Computing zu sichern. Einige Anbieter locken neue Kunden gar mit kostenlosem Speicherplatz von bis zu mehreren Gigabyte. Bei wachsendem Speicherplatzbedarf kann eine Erweiterung des Speicherplatzes gegen einen monatlich oder jährlich zu bezahlenden Betrag hinzugekauft werden.

Viel wichtiger, als die Frage nach den Kosten für den Speicherplatz ist die Frage: Wo werden die Daten gespeichert? Die Antwort auf diese Frage sollte eindeutig lauten: Auf Servern, die in einem Rechenzentrum in Deutschland stehen!

Warum? In Deutschland hat eines der strengsten Datenschutzgesetze weltweit. Bei Servern mit Standort in Deutschland ist der Zugriff auf Ihre Daten klar geregelt. Das bedeutet, nur Sie bestimmen, wer Zugriff auf Ihre Daten hat und wer nicht. Ganz anders sieht dies zum Beispiel in den USA aus.

Dort fallen Cloud-Dienste schon seit geraumer Zeit unter den sogenannten Patriot Act, dem nach dem 11. September 2001 verabschiedeten Antiterror-Gesetz der USA. Dieses Gesetz hat auch für Cloud-Nutzer aus Deutschland weitreichende Folgen für die Privatsphäre und den Datenschutz. Amerikanische Geheimdienste wie CIA oder NSA und die Bundespolizei FBI dürfen auf Ihre bei einem US-amerikanischen Cloud-Dienstleister gespeicherten Daten zugreifen. Und das ohne Ihr Wissen oder einen richterlichen Beschluss.

Auf einen bloßen Verdacht hin sind die US-amerikanischen Anbieter dazu verpflichtet, Ihre Daten den Behörden preiszugeben. Dies gilt auch für Cloud-Speicher, die zwar nicht in den USA stehen, aber von einem amerikanischen Unternehmen betrieben werden.

Fazit zum Thema Cloud-Computing:

Wenn Sie Wert auf die maximale Sicherheit Ihre Daten legen, sollten sie nur einen Cloud-Dienstleister wählen, dessen Server sich in einem Rechenzentrum in Deutschland befinden. Auch, wenn der Dienst dann vielleicht etwas mehr kostet.

Insgesamt sind die Vorteile von Cloud-Computing für mittelständische Firmen deutlich größer als die vermeindlichen Nachteile. Firmen die Cloud-Computing in Deutschland nutzen wollen sollten sie – wie bei sonstigen Entscheidungen auch – im Vorfeld ausführlich informieren und etwa Referenzen des neuen Cloud-Anbieters einholen.

Haben Sie Interesse daran zu erfahren, wie Sie mit Cloud-Computing Ihre IT-Kosten senken können. Wir beraten Sie gerne unverbindlich – Sie erreichen unser Vertriebs-Team unter +49-(0)711-4889020. Wir freuen uns auf Sie.

 

WordPress mit Cloudfront Content Delivery Network (CDN)

,
verfasst am:
Kategorie:
Auszug:
Was macht ein Content Delivery Network (CDN). Wenn Sie ein Content Delivery Network (CDN) für ihre Website nutzen, dann werden Teile der Webseite auf geografisch verteilte Server eines CDN-Anbieters gespeichert. Besucher Ihre Website erhalten dann die Bilder, PDFs oder auch die ganze Website vom jeweils nächsten Server des CDNs. Das reduziert die Last Ihres Webservers […]

Chrome stuft Symantec Zertifikate herab

, ,
Was ist eigentlich ein Browser?

Chrome (Google) stuft Symantec Zertifikate herab

Google tadelt Symantecs Vertrauenswürdigkeit |  Symantec Zertifikate im Chrome Browser herabgestuft

Der Streit zwischen Symantec als Zertifizierungsstelle und Google geht in eine neue Runde. Im Konkreten heißt das, dass zum Beispiel bei Thawte und Geotrust Zertifikate fortan nur noch mit der Bezeichnung sicher und nicht mehr mit dem Namen des Zertifikatsinhabers gezeigt werden.

Für Firmeninhaber ist die Herabstufung des gekauften SSL Zertifikats besonders ärgerlich, wenn sie bereits einige hundert Euro in die Zertifizierung investiert und so für die vertrauenswürdige Darstellung gesorgt haben. Symantecs Statement zur Herabstufung und später geplanten Annullierung der Zertifikate ist: verantwortungslos.

Wie handelt man als Zertifikatsinhaber?

Die erste Etappe der Herabstufung bezieht sich auf Google Chrome. Google erwähnt drastische Schritte, sodass es nicht bei der alleinigen Herabstufung bleiben wird. Vielmehr sollen aktuell als vertrauenswürdig gekennzeichnete Seiten mit SSL-Zertifikat zukünftig als nicht vertrauenswürdig eingestuft und im System annulliert werden. Rund 30.000 der ausgestellte Zertifikate entsprechen nicht den Richtlinien, so Google. Den Zertifikaten wird der EV Status entzogen, wodurch in der Adressleiste keine ausführlichen Informationen zum Inhaber der Domain ersichtlich sind. Websitebesucher nutzen die Informationen zur Kenntnisnahme, dass es sich um eine legitime Website und nicht um die Umleitung auf eine unsichere Domain handelt.

Die Herabstufung mit minderer Vertrauenswürdigkeit soll ein Jahr lang andauern, ehe weitere Schritte folgen und bis zur Annullierung der Seiten führen sollen. Der im Jahr 2015 aufkeimende Streit zwischen Symantecs Management und Google ist schwelend und wird auch in den kommenden Jahren kaum zur Ruhe kommen. Weltweit basieren über 40% aller Zertifikate auf Ausstellungen Symantecs, was enorme Auswirkungen für Zertifikatsinhaber und Internetnutzer haben wird. Doch kann aktuell keine Empfehlung zur Handlung gegeben werden, wenn alternative Zertifikate ausgeschlossen sind und Unternehmer kein zusätzliches Budget in die Hand nehmen möchten.

Vertrauensabbau soll zum Umdenken anhalten

Auf lange Sicht sollten Symantecs Zertifikate als unsicher eingestuft und nicht nur vom Browser, sondern auch vom User als nicht vertrauenswürdig betrachtet werden. Wenn Google den Zertifikaten misstraut, könnte dies für die vollständige Unerreichbarkeit der Websites sprechen. Würde die Vertrauenswürdigkeit über Nacht verändert, wäre ein Super-GAU mit enormen wirtschaftlichen Folgen unaufhaltsam.

Daher hat Google angekündigt, dass die Vertrauensspanne in ein Zertifikat des Streitpartners immer kürzer werden soll. Es ist die Rede davon, das sich der Zeitraum bei allen neuen Chromes-Versionen verringern soll. Anfänglich spricht man von 33 Monaten, in der Nachfolger-Version des Browsers sollen es nur noch neun Monate sein.

Für Zertifikatsinhaber und Websitebetreiber bleibt laut Google ausreichend Zeit, ihr Zertifikate gegen revalidierte Versionen zu tauschen und so für eine vertrauenswürdige Präsenz im Web zu sorgen.

Wenn zwei Internet-Riesen sich streiten

Wenn es zwischen zwei Internet-Giganten zu einem Streit kommt, zieht dieser schwere Folgen nach sich. So im Falle Google und Symantecs falschen Zertifikaten, die in 2015 erstmalig auffielen. Google forderte die CA auf, ihr Certificate-Transparency-Modell zu unterstützen. Eine Reaktion der Zertifizierungsstelle blieb aus. So kam es zur Androhung der Herabstufung, die nun offenbar im Jahr 2017 durchgesetzt wird. Anfang des Jahres gab es erneute Probleme mit Zertifikaten der CA, wodurch sich Google zur Handlung gezwungen und in der Aufgabe sieht, die Vertrauenswürdigkeit der Zertifizierungsstelle so zu präsentieren, wie sie sich durch falsche Zertifikate gezeigt hat.

Für Kunden, die über die Biteno GmbH ihr Zertifikat erworben haben, besteht keine Gefahr: Wir beraten Sie gerne wie Sie weiterhin sicher das https-Protokoll für Ihre Website bzw. ihre Domain nutzen können.