Beiträge

Was ist ein WLAN Controller?

Mit einem Wireless LAN Controller können Sie unabhängig vom Gerät, in dem es sich befindet, eine Reihe von Zugriffspunkten (Access Points, APs) auf vereinfachte Weise zentral verwalten und konfigurieren. Somit ermöglicht ein WLAN Controller die effiziente Verwaltung von WLAN-Netzen und deren Zugriffspunkten – vor allem wenn es vielzählige Access Points gibt.

Bei WLAN handelt es sich um eine drahtlose Architektur, die darauf abzielt, sich ändernden Netzwerkanforderungen gerecht zu werden. Ein WLAN-Controller verwaltet drahtlose Netzwerkzugriffspunkte, über die drahtlose Geräte eine Verbindung zum Netzwerk herstellen können.

WLAN-Controller sind physische Geräte, die im zentralen Datenraum in einem Rack montiert sind und gleichzeitig mit jedem AP kommunizieren. Dies ermöglicht die einfache und schnelle Konfiguration mehrerer APs, ohne dass IT-Experten jeden einzelnen manuell konfigurieren müssen.

Funktionsweise

Gegenwärtig können WLAN Controller mehrere Tausend APs steuern. Auf diese Weise können Unternehmen SSIDs, die dynamische Kanalzuweisung, die Übertragungsleistung, den Sicherheitstyp, die VLAN-Zuordnung, die Kanalrichtlinie und alles andere im Zusammenhang mit drahtloser Kommunikation über eine einzige Verwaltungsschnittstelle steuern und bereitstellen.

Der WLAN-Controller ist auch dafür verantwortlich, Firmware und Konfigurationscodes an die Zugriffspunkte zu senden. Darüber hinaus verwaltet es das Roaming in den Modi Layer 2 und Layer 3 und verfolgt alle verbundenen Clients, einschließlich der MAC-Adressinformationen und des zugehörigen AP. Es ist auch der Teil des Netzwerks, der Ihren kabellosen Verkehr mit Ihrem kabelgebundenen Netzwerk verbindet.

Das System übernimmt auch das Radio Resource Management. Er sammelt alle Informationen von den APs und ermöglicht sowohl dem Administrator als auch dem drahtlosen Netzwerk selbst eine vollständige 3D-Ansicht des Netzwerks. Durch die Übernahme des Radio Resource Management steuert der WLAN Controller auch, auf welchen Kanälen die APs geschaltet sind, wie viel Sendeleistung sie haben und was bei Störungen zu tun ist.

Der WLAN-Controller ist eine reale Anwendung des Konzepts einer separaten Verwaltungs- und Datenebene. Der WLAN-Controller ist die Verwaltungsebene, und die APs arbeiten in der Datenebene. Mit dieser Trennung erreichen Unternehmen, deren WiFi über vielzählige Zugriffspunkte verfügt, die größtmögliche Effizienz.

Management und Betrieb
Dies sind die Aufgaben, die die Bereitstellung und den Betrieb des Wireless LAN-Netzwerks auf einheitliche und einfache Weise ermöglichen, ohne die gleichen Vorgänge in jedem der APs innerhalb des lokalen Netzwerks wiederholen zu müssen. Mit diesen Funktionen können Sie Probleme im Netzwerk konfigurieren, überwachen und diagnostizieren sowie Warnungen senden und empfangen, wenn Probleme erkannt werden. Um eine homogene Netzwerkleistung zu erzielen, wird in diese Gruppe auch das Betriebssystem-Update der APs aufgenommen, sodass alle dieselbe Version haben.

Aggregation und Verarbeitung des Datenverkehrs von drahtlosen Geräten wie Tablets und Smartphones
Solche Funktionen werden im WLC nicht immer ausgeführt, was hauptsächlich von der verwendeten Netzwerkarchitektur abhängt. Wenn der gesamte Datenverkehr von drahtlosen Geräten über den Controller geleitet wird, können mit diesem Datenverkehr „Dinge“ erledigt werden, z. Bsp. das Verschlüsseln sowie das Trennen des Datenverkehrs zum Senden an verschiedene Netzwerke oder das Filtern nach Prioritäten gemäß vordefinierter Qualitätsrichtlinien.

Lokale drahtlose Funktionen
Die spezifischen Merkmale der Funktechnologie machen die Verwendung von Koordinations- und Schutzmechanismen innerhalb eines bestimmten Funkspektrums für eine effizientere Nutzung in einem bestimmten lokalen Gebiet ratsam. Die Mechanismen sind hier gruppiert, sodass jeder AP einen anderen Teil des elektrischen Spektrums (Kanals) als die umliegenden verwendet. Ein WLAN Controller bietet Mechanismen zur Optimierung der Verkehrsverteilung zwischen drahtlosen Geräten und APs, zur Erkennung von Interferenzen und sogar zur geografischen Positionierung der Geräte mithilfe von Funk-Triangulationsmechanismen.

Andere „Nicht-Wi-Fi“ -Funktionen
Viele Controller verfügen auch über Funktionen, die mit der Wi-Fi-Technologie wenig oder gar nichts zu tun haben, z. Bsp. dienen sie als Druckerserver, als NAS (Network Attached Storage) oder als herkömmlicher fester LAN-Switch.

Wie zu vermuten ist, wird die Skalierbarkeit durch Hinzufügen eines WLAN-Controllers erheblich verbessert, da auf einfache Weise mehr Zugriffspunkte im Netzwerk installiert werden können und die Komplexität bei Bereitstellung und Verwaltung verringert wird.

Wer braucht einen WLAN Controller?

Für alle Unternehmen, die in ihren Gebäuden/auf ihrem Gelände 2 oder mehr Access Points zu ihrem WLAN Netzwerk verfügen, ist ein WLAN Controller empfehlenswert. Durch die Verwaltung aller Access Points als vollständiges WLAN-System bietet die Nutzung eines WLAN Controllers nicht nur maximale Skalierbarkeit, Leistung und WLAN-Steuerung. Moderne WLAN Controller sind heutzutage standardmäßig mit effizienter eingebetteter Software ausgestattet, verwenden, wie im obigen Abschnitt bereits erwähnt, Radio Resource Management (RRM) -Algorithmen, um Änderungen frühzeitig zu erkennen und notwendige Anpassungen vorzunehmen.
Unternehmen, egal ob klein, mittelgroß oder groß, profitieren vom erstellen einer selbstkonfigurierenden, selbstoptimierenden und selbstkorrigierenden WLAN-Umgebung. Diese Anpassungen erzeugen die optimale Topologie für drahtlose Netzwerke auf die gleiche Weise wie Routing-Protokolle.

Ein WLAN Controller übernimmt so viele Arbeitsschritte und Prozesse, dass IT Abteilungen spürbar entlastet werden können. In einer Welt, die ohne effiziente WLAN-Nutzung nicht so funktionieren würde, wie erfolgreiche Unternehmen es heute benötigen, sind WLAN-Controller von großer Bedeutung für die optimale Nutzung der vorhandenen Technologien.

Was ist Azure und wofür wird es verwendet?

Bei Microsoft Azure handelt es sich um eine performante Cloud-Computing-Plattform des IT-Giganten Microsoft. Die Plattform stellt Cloud-Dienste wie IaaS- (Infrastructure as a Service), SaaS- (Software as a Service) und PaaS-Lösungen (Plattform as a Service) über ein weltweit verteiltes Netzwerk an Rechenzentren zur Verfügung.

Die Azure-Plattform ist hoch skalierbar und richtet sich mit ihrem Angebot in erster Linie an Entwickler und Unternehmen. Microsoft hat seine Cloud-Dienste erstmals im Jahr 2010 der breiten Öffentlichkeit zugänglich gemacht und arbeitet seither kontinuierlich an der Optimierung bestehender und der Einführung neuer Dienste.

Vielzahl unterschiedlicher Cloud-Dienste

Was es mit Azure und Cloud Computing auf sich hatMicrosoft bietet seinen Nutzern unterschiedliche Services an, die diese aus der Cloud beziehen können. Hierzu gehören Dienstleistungen aus den Bereichen Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS). Zum Angebot an verfügbaren Cloud-Diensten gehören auch hoch performante Datenbankensysteme und Speicherlösungen, die Nutzern weltweit zur Verfügung gestellt werden.

Das Ziel, das Microsoft mit seiner Cloud-Strategie verfolgt, ist es, Anwendern eine flexible und skalierbare Cloud-Infrastruktur bereitzustellen, die man den eigenen Anforderungen und Wünschen schnell und unkompliziert anpassen kann, wodurch der Betrieb einer privaten IT-Infrastruktur überflüssig wird.

Da Microsoft Rechenzentren auf der gesamten Welt auf strategisch wichtigen Standorten platziert hat, stehen alle Cloud-Dienste mit hoher Verfügbarkeit rund um den Globus zur Verfügung. Dank innovativer Technologien ermöglicht Azure den Einsatz von hybriden Systemen, bei denen nur ein Teil der Infrastruktur in der Cloud betrieben und der Rest auf lokalen Servern realisiert wird.

Einteilung der Azure-Cloud in unterschiedliche Bereiche

Die Cloud von Microsoft lässt sich in unterschiedliche Bereiche einteilen, und zwar:
– der Computing-Bereich
– der Speicher-Bereich
– das Content Delivery Netzwerk (CDN)
– der Marketplace
– der AppFabric-Bereich

Im Computing-Bereich wird Rechenleistung für Anwendungen, virtuelle Server, Datenbanken und Rechenaufgaben zur Verfügung gestellt. Durch den Einsatz der virtuellen Cloud-Server der Azure-Cloud können eigene Server, die lokal betrieben werden, über Images schnell und einfach in die Cloud ausgelagert werden. Das Speichern von Daten in der Cloud wird im Bereich Storage realisiert. AppFabric bietet Entwicklern die Möglichkeit, verteilte Anwendungen schnell und einfach über die Infrastruktur des Cloud-Systems von Microsoft zu betreiben. Bei dem Marketplace handelt es sich um einen Online-Marktplatz, auf dem Dienstleistungen von Drittanbietern Kunden von Azure bereitgestellt werden.

Die Azure-Cloud und Aspekte des Datenschutzes

Die gesamte Infrastruktur der Microsoft-Cloud inklusive all ihrer Services wird in Rechenzentren betrieben, die rund um den Globus verteilt sind. Sie als Microsoft-Kunde haben in der Regel die Wahl, darüber zu entscheiden, in welchem Rechenzentrum Sie Ihre Dienste betreiben möchten. Die aktuellen EU-Datenschutzvorgaben und Compliance-Richtlinien können es für manche Unternehmen erforderlich machen, Server zu nutzen, die in Deutschland oder in der Europäischen Union platziert sind. Dies bietet nicht nur den Vorteil von kürzeren Latenzzeiten, sondern Sie stellen damit sicher, dass Ihr Unternehmen mit den europäischen Datenrichtlinien konform ist.

Wie hängt Azure mit dem Datenschutz zusammen?

Eigens für deutsche Nutzer hat Microsoft eine Dienstleistung in Form eines Treuhand-Konstruktes zur Verfügung gestellt, die den deutschen Datenschutzbedürfnissen genügen sollte. Der Zugriff auf Daten, die in den deutschen Rechenzentren in Magdeburg und Frankfurt am Main aufbewahrt wurden, wurde durch einen Datentreuhändler kontrolliert. Obwohl die deutschen Rechenzentren einen wichtigen Bestandteil der globalen Azure-Cloud darstellten, wurde somit gewährleistet, dass Daten nicht in ein Rechenzentrum außerhalb Deutschlands transferiert werden. Leider wurde dieser Service inklusive der in Deutschland stationierten Rechenzentren im Jahr 2018 aufgrund mangelnden Interesses eingestellt.

Microsoft-Cloud und das Betriebssystem Linux

Obwohl die Azure-Cloud ein Produkt des IT-Giganten Microsoft ist, müssen Sie nicht ausschließlich auf dem Betriebssystem Windows basierende Server nutzen. Sie können in der Microsoft-Cloud problemlos verschiedene Linux-Distributionen betreiben. Realisiert wird das durch den Einsatz sogenannter „virtueller Maschinen“, wo Sie Betriebssysteme wie Debian, Red Hat oder Ubuntu installieren können.

Funktioniert Azure nur mit Windows?

Dadurch entsteht die nötige Flexibilität, unabhängig vom Betriebssystem die Software zu nutzen, die optimal auf Ihre Anforderungen zugeschnitten ist. Darüber hinaus werden zahlreiche Tools und Applikationen von Herstellern wie IBM oder SAP unterstützt. Die Leistungsfähigkeit und die Ressourcen der virtuellen Maschinen können Sie nach persönlichen Anforderungen variabel wählen, wobei die Abrechnung nutzungsabhängig ist.

Garantierte Verfügbarkeit und Ausfallsicherheit

Unternehmen, die ihre Dienstleistungen und Anwendungen auf externe Server verlagern, müssen mit einer hohen Verfügbarkeit und Ausfallsicherheit rechnen. Dank der innovativen Azure-Cloud-Infrastruktur können SLAs (Service Level Agreements) realisiert werden, mit denen Verfügbarkeiten von bis zu 99,9 Prozent

Höhere Verfügbarkeiten mit Azure

gewährleistet werden. Je nach Bedeutung werden die Azure-Cloud-Services in unterschiedliche Verfügbarkeitsgruppen unterteilt. Für die Storage- und Computing-Services garantiert Microsoft beispielsweise eine Verfügbarkeit von bis zu 99,9 Prozent.

Warum das richtige Netzwerk bei Ceph so wichtig ist

Vor der Integration eines Ceph storage-clusters steht jeder Linux-Administrator irgendwann vor der Frage, welches Netzwerk (Ethernet, Infiniband, Omnipath) er verwenden möchte. Das hängt zunächst selbstverständlich vom zu erwartenden Workload und der Anzahl der Clients ab. Allerdings gibt es noch einen wichtigen weiteren Faktor den es zu beachten gibt. Ceph nutzt viele unabhängige Festplatten. RAID Arrays bieten sich nicht an, da die Performance mit  jeder zusätzlichen Festplatte wunderbar linear skaliert. Die vielen einzelnen Festplatten sowie der Aufbau des Ceph Clusters bringen es mit sich, dass alle Datenblöcke auf mehrere Knoten verteilt werden müssen. Je nach implementiertem Regelwerk sogar über Racks oder Rechenzentren hinweg. Das schafft Ausfallsicherheit. Jedoch bedeutet das, dass bei jedem Lese- oder Schreibzugriff eine Kommunikation mit allen Ceph-Nodes über das Netzwerk stattfinden muss, um alle notwendigen Datenblöcke zu erreichen.

Festplattenzugriff = Netzwerkzugriff bei Ceph

Da also jeder Zugriff auf eine der vorhandenen Festplatten auch ein Netzwerkzugriff ist, sollte man unbedingt auf ein 10 GE Netzwerk zurückgreifen um alle Ceph Knoten untereinander zu verbinden. 10 GE stellt hierbei das absolute Minimum dar. Möchten Sie Ceph richtig im produktiven Betrieb mit mehreren clients einsetzen, kommt ein 1 GE Netzwerk wirklich extrem schnell an seine Grenzen. Hier ist nicht nur der Datenverkehr zu den Clients und zwischen den Ceph Knoten bei der konkreten Datenabfrage zu betrachten. Ceph muss schließlich auch alle Replikationen auf den vorhandenen Servern und Festplatten des Clusters verteilen. Im besonderen wenn eine der Festplatten oder ein ganzer Server ausfällt, repliziert Ceph automatisch die Daten bis wieder die gewünschte Anzahl an Repliken vorliegt.

Netzwerkoptimierung

Dieses Verhalten kann durch getrennte Netzwerke optimiert werden. Ein Netzwerk übernimmt dann die Kommunikation zu den clients. Das zweite Netzwerk ist ausschließlich für die OSD Replikationen zuständig.

Die Konfiguration

Um zwei separate Netzwerke zu nutzen, müssen die Netzwerke innerhalb der ceph.conf eingetragen werden. Hierzu genügt es bereits die Netz ID mit entsprechendem Prefix anzugeben.

[global]

public network = 172.10.10.0/24

cluster network = 172.10.11.0/24

Sobald die Ceph Konfiguration auf allen Knoten verteilt wurde und die Services neu gestartet sind, werden die Netzwerke entsprechend verwendet. Damit wurde ein möglicher Flaschenhals in der Architektur  des Clusters optimiert bzw. verhindert.

Ein Managed Server ist das, was man ein Rundum-Sorglos Paket nennt. Neben dem eigentlichen virtuellen Server als Speicherplatz und Host beinhalten Managed Server eine Vielfalt praktischer und sicherer Serviceleistungen. Backup Systeme und die Wartung des Internetauftrittes sind zwei der zahlreichen und häufig genutzten Beispiele.

Managed Server sind ausschließlich für den Kunden da während ein Shared Server nur gemietet wird und einen Teil des vorhandenen Speicherplatzes anhand der Mietkosten zur Verfügung stellt, bieten Managed Server ihren Kunden unendlich viel Speicherplatz. Ebenso wird das Maximum an Serviceleistungen per Fernwartung geboten, wodurch der Kunde auf der sicheren Seite und bestens betreut ist. Das Konzept Managed Server wird immer beliebter, was nicht zuletzt an der Kundenorientierung und den zahlreichen integrierten Zusatzleistungen liegt. Der Kunde steht im Mittelpunkt und erhält die besten Leistungen vom Anbieter.

Leistungsumfang beim Managed Server

Techniker wartet einen ServerDie Fernwartung, das Patch Management, ein Remote Data Backup und viele Aspekte zur Sicherheit sowie die Überwachung des Desktop sind integrierte Leistungen. Kunden sparen mit einem Managed Server eine Menge Zeit und Geld, da sie keinen eigenen IT Support beschäftigen oder sich selbst mit der IT Wartung beschäftigen müssen. Für private und klein gehaltene Websites ist ein Managed Server nur bedingt geeignet. Für Unternehmer, die keine eigene Energie und Zeit in das Hosting und die darum auflaufenden Aufgaben investieren möchten, bietet sich diese Option aber an.

Wie wird ein Managed Server bezahlt?

Der Kunde schließt einen All-Inklusive Vertrag ab und zahlt seine monatliche Rate. Bei allen gewünschten Änderungen und im Rahmen der vertraglich vereinbarten Dienstleistung genügt eine Anfrage des Kunden und die Aufgabe wird erledigt. Die sichere und seriöse Wartung der Seite ist ein deutlicher Vorteil, den sich Unternehmer durch das Outsourcing an einen Hoster sichern, der ihnen einen Managed Server anbietet. Ein einfacher Host ist günstiger, aber: Benötigt ein Unternehmen einen vollständigen IT Support, ist der Managed Server auf lange Sicht die günstigere und praktischere Variante. Vor allem Großkonzerne und mittelständische Unternehmen erhalten so einige Vorteile.

Weitere Artikel im Blog der Biteno GmbH zum Thema Server und Virtualisierung

Sicherheitskonzept Managed Server

Die Haftung für die Sicherheit der Kundendaten und der gesamten Website obliegt dem Betreiber des Servers. Bei einem Managed Server können Unternehmer sicher sein, dass der Betreiber seine Haftung ernst nimmt und seine Server mit der entsprechenden Sicherheitssoftware und Betriebssoftware ausstattet. Die Daten werden gesichert und der Kunde profitiert von einem Support, der keinen Wunsch offen und keine Frage unbeantwortet lässt. Datenschutz und Datensicherheit sind zwei Grundpfeiler von Managed Servern und liegen den Betreibern am Herzen.

Managed Server vs, klassischer Host

Beim klassischen Hosting bucht man Speicherplatz, der streng begrenzt und in der Aufstockung teuer ist. Beim Managed Server bucht man ein Full-Service Paket, das so viel Speicherplatz wie gewünscht beinhaltet. Expandiert das Unternehmen, wächst die Website ohne Probleme mit. Denn auf dem Managed Server können prinzipiell unendlich viele Daten gespeichert werden, wodurch Unternehmen nicht in ihrer Performance begrenzt werden. Wer nur eine kleine Firma oder einen kleinen Onlineshop betreibt, ist mit einem klassischen Host besser beraten. Großunternehmer und mittelständische Firmen sparen sich die IT Abteilung, da der Managed Server diese Dienstleistung beinhaltet und per Fernwartung vornimmt.

Die Cloud, englisch für Wolke, ist ein theoretisch unbegrenzter Onlinespeicher, in dem Daten aller Art gespeichert und von praktisch jedem Ort mit einem internetfähigen Gerät genutzt werden können. Dabei ist der Begriff Cloud die Kurzfassung für Cloud-Computing.

Der Begriff Cloud-Computing beinhaltet sowohl das Nutzen als auch das Anbieten von unterschiedlichen IT-Dienstleistungen und beinhaltet neben dem Speicherplatz die Bereitstellung von Hard- und Software über das Internet. Cloud-Computing bietet gewissermaßen einen virtuellen Computer im Internet, der in Teilen den lokalen Computer am Arbeitsplatz ersetzen kann.

Die Idee, Daten extern zu speichern und von jedem beliebigen Ort aus zu nutzen, wurde bereits in den 1950er Jahren geboren. Allerdings sind die technischen Voraussetzungen für die Anwendung erst seit Ende der 1990er gegeben.

Wie funktioniert die Cloud?

So sieht ein Cloud-Rechenzentrum von innen aus

So sieht ein Cloud-Rechenzentrum von innen aus

Cloud-Computing ist ein dynamischer, an den Bedarf der Nutzer angepasster Prozess. Cloud-Dienstleister stellen den Kunden Speicherplatz und Rechenleistung auf Ihren Servern bzw. in deren Rechenzentrum gegen ein Entgelt, eine monatliche oder jährliche Mietzahlung, zur Verfügung. Durch die Verknüpfung vieler einzelner Server miteinander werden die Daten der Kunden nicht nur auf einem Server gespeichert und die Ressourcen können je nach Bedarf in Anspruch genommen werden.

Nutzer haben über das Internet jederzeit Zugriff auf die eigenen Daten und können beliebig viele Daten speichern. So können zum Beispiel E-Mails, Dokumente oder der eigene Terminkalender von jedem Ort aus über das Internet abgerufen oder anderen Nutzern zur Verfügung gestellt werden. Der Computer am Arbeitsplatz, das Smartphone oder Tablet dienen bei der Nutzung eines Cloud-Speichers nur noch zur Steuerung der Hard- und Software.

Beim Cloud-Computing wird zwischen öffentlichen und privaten Clouds unterschieden. Öffentliche Clouds können von unterschiedlichen Kunden genutzt werden, die zum Beispiel die gleiche Software verwenden. Bei privaten Clouds ist das Angebot an Hard- und Software auf die Anforderungen eines Kunden abgestimmt und nur durch diesen nutzbar. Andere Formen sind die sogenannten Community Clouds für die Nutzung von Gruppen mit gleichen Interessen und Hybrid Clouds, bei denen private und öffentliche Clouds von den gleichen Kunden genutzt werden.

Cloud: IaaS, PaaS oder SaaS

Cloud-Services werden in unterschiedlichen Modellen, die als IaaS, PaaS und SaaS bezeichnet werden, angeboten. IaaS steht für Infrastructure as a Service. Hierbei stellt der Dienstleister lediglich IT-Ressourcen wie Rechenleistung, Speicherplatz oder Netzwerkkapazitäten zur Verfügung. Der Anwender muss bei diesem Modell die Infrastruktur in der Regel selbst zusammenstellen.

PaaS bedeutet Platform as a Service. Hierbei werden dem Kunden Programmiermodelle und Entwicklerwerkzeuge zur Verfügung gestellt, mit denen Cloud-basierte Anwendungen erstellt und ausgeführt werden können.

SaaS ist die Abkürzung für Software as a Service. Diese Variante wird in der Regel von Unternehmen und Privatkunden genutzt. Der Dienstleister stellt seinen Kunden neben der Hardware und Infrastruktur zusätzlich Anwendungsprogramme, also Software zur Verfügung. Kunden eines SaaS-Anbieters müssen sich nicht um die Installation oder Updates der Software kümmern. Das können dann etwa so populäre Dienste wie der Musik-Anbieter Spotify oder auch spezialisierte Business-Software wie etwa ein Online-Dokumenten-Management sein.

Welche Vorteile bietet Cloud-Computing?

Nur ein Symbol: Die Wolke für Cloud-Computing

Nur ein Symbol: Die Wolke für Cloud-Computing

Cloud-Computing bietet für Nutzer, insbesondere Unternehmen, eine Reihe von Vorteilen. Der größte Vorteil ist der Gewinn an Flexibilität bei der Datennutzung und dem Datenaustausch. Durch eine automatische Synchronisierung der online gespeicherten Daten mit den lokal gespeicherten Daten sind alle Nutzer, egal, wo sie sich gerade aufhalten, immer auf dem gleichen Informationsstand. Hinzu kommt, dass die Investitionen in Hardware, Software und Infrastruktur im Unternehmen deutlich gesenkt werden können. Gleichzeitig reduziert sich der administrative Aufwand für die Wartung und Pflege der IT-Infrastruktur. Ein weiterer Vorteil ist der Schutz vor einem Datenverlust. Wenn zur Sicherung der Daten ein Cloud-Speicher genutzt wird, gehören Datenverluste durch defekte Festplatten etc. der Vergangenheit an.

Was ist bei der Auswahl eines Cloud-Dienstleisters zu beachten?

Immer mehr Dienstleister drängen auf den Markt und versuchen, sich einen Teil des lukrativen und zukunftsweisenden Geschäftes mit dem Cloud-Computing zu sichern. Einige Anbieter locken neue Kunden gar mit kostenlosem Speicherplatz von bis zu mehreren Gigabyte. Bei wachsendem Speicherplatzbedarf kann eine Erweiterung des Speicherplatzes gegen einen monatlich oder jährlich zu bezahlenden Betrag hinzugekauft werden.

Viel wichtiger, als die Frage nach den Kosten für den Speicherplatz ist die Frage: Wo werden die Daten gespeichert? Die Antwort auf diese Frage sollte eindeutig lauten: Auf Servern, die in einem Rechenzentrum in Deutschland stehen!

Warum? In Deutschland hat eines der strengsten Datenschutzgesetze weltweit. Bei Servern mit Standort in Deutschland ist der Zugriff auf Ihre Daten klar geregelt. Das bedeutet, nur Sie bestimmen, wer Zugriff auf Ihre Daten hat und wer nicht. Ganz anders sieht dies zum Beispiel in den USA aus.

Dort fallen Cloud-Dienste schon seit geraumer Zeit unter den sogenannten Patriot Act, dem nach dem 11. September 2001 verabschiedeten Antiterror-Gesetz der USA. Dieses Gesetz hat auch für Cloud-Nutzer aus Deutschland weitreichende Folgen für die Privatsphäre und den Datenschutz. Amerikanische Geheimdienste wie CIA oder NSA und die Bundespolizei FBI dürfen auf Ihre bei einem US-amerikanischen Cloud-Dienstleister gespeicherten Daten zugreifen. Und das ohne Ihr Wissen oder einen richterlichen Beschluss.

Auf einen bloßen Verdacht hin sind die US-amerikanischen Anbieter dazu verpflichtet, Ihre Daten den Behörden preiszugeben. Dies gilt auch für Cloud-Speicher, die zwar nicht in den USA stehen, aber von einem amerikanischen Unternehmen betrieben werden.

Fazit zum Thema Cloud-Computing:

Wenn Sie Wert auf die maximale Sicherheit Ihre Daten legen, sollten sie nur einen Cloud-Dienstleister wählen, dessen Server sich in einem Rechenzentrum in Deutschland befinden. Auch, wenn der Dienst dann vielleicht etwas mehr kostet.

Insgesamt sind die Vorteile von Cloud-Computing für mittelständische Firmen deutlich größer als die vermeindlichen Nachteile. Firmen die Cloud-Computing in Deutschland nutzen wollen sollten sie – wie bei sonstigen Entscheidungen auch – im Vorfeld ausführlich informieren und etwa Referenzen des neuen Cloud-Anbieters einholen.

Haben Sie Interesse daran zu erfahren, wie Sie mit Cloud-Computing Ihre IT-Kosten senken können. Wir beraten Sie gerne unverbindlich – Sie erreichen unser Vertriebs-Team unter +49-(0)711-4889020. Wir freuen uns auf Sie.

 

Datenbackup in einer Cloud

Backup könnte kurz und knapp auch als Datensicherung bezeichnet werden und ist ein wichtiges Thema. Viele nehmen es nicht so ernst und reagieren leider erst, wenn es schon zu spät ist. Schnell ist es passiert: Der Bildschirm friert ein und nichts hilft mehr, die Daten sind weg. Wer an eine Datensicherung gedacht hat, darf sich nun glücklich schätzen.

Wichtige Daten und vieles mehr mit einem Backup sichern

Wichtige Dokumente, berufliche und private Unterlagen, Zugangsdaten, die Diplom- oder Abschlussarbeit, unverzichtbare E-Mails, jahrelang gesammelte Fotos, die Musiksammlung, Videos usw., all das kann von einer Minute auf die andere verloren sein. Nicht jedoch, wenn ein Backup erstellt wurde. Damit kann ein Datenverlust vermieden werden, bevor es irgendwann zu spät dafür ist. Ist das Backup, also die Sicherung erfolgt, sind alle Dateien noch vorhanden. Spätestens, wenn die Festplatte oder der Computer plötzlich den Dienst verweigern, wissen Nutzer Backups zu schätzen. Um den Datenverlust, der bei vielen eine „Katastrophe“ bedeutet, zu vermeiden, sollten möglichst früh und regelmäßig Backups des Systems erstellt werden.

Bild von hard disc

Regelmäßig Sichern bringt viele Vorteile

Datensicherung ernst nehmen

Unter einem Backup wird die Speicherung von sicherungswürdigen Daten verstanden. Damit entsteht eine regelmäßige Sicherungskopie, sprich ein Abbild der relevanten Daten. Dies geschieht abseits des gewöhnlichen Speicherortes, auf einem externen Datenträger wie einer separaten Festplatte, einem Flash-Speicher, einer CD, DVD oder einem Cloud-Speicher. Wenn beispielsweise die Festplatte defekt ist oder ein Virus die Daten zerstört hat, kommt diese zum Einsatz. Um auf einem externen Datenträger Backups anzufertigen, ist eine Software erforderlich. Diese sichert alle Daten.

Warum ist ein Backup wichtig?

Die moderne Technik ist mittlerweile sehr fortgeschritten und langlebig, allerdings nicht unsterblich. Die Festplatte beispielsweise funktioniert eine bestimmte Anzahl an Betriebsstunden. Je nach Beanspruchung kann diese länger, aber auch kürzer sein. Irgendwann treten Störungen und Defekte auf. Sogar eine neue Festplatte kann in Ausnahmefällen defekt werden. Der Computer kann vielleicht nicht mehr gestartet werden, sodass kein Zugriff mehr auf die Daten besteht und sie schlimmstenfalls verloren gehen. Auch Schadsoftware wie ein Computervirus kann dies verursachen.

  • Volles Backup: umfasst jede Datei auf dem System (Abbild des jetzigen Zustands)
  • Partielles Backup: nur Teile der Daten werden gespeichert
  • Inkrementelles oder differenzielles Backup: die zu sichernden Daten werden noch weiter reduziert
Bild von Backup Server

Nicht vernachlässigen: das regelmäßige Sichern aller relevanter Daten

Ein regelmäßiges Backup, also eine Datensicherung, ist unbedingt empfehlenswert. Das Ziel besteht darin, dass wichtige Daten usw. auf einem separaten Datenträger gespeichert werden, sodass sie beim Defekt oder Verlust des Geräts wiederhergestellt werden können.

Wie oft eine Datensicherung durchgeführt wird, muss jeder für sich entscheiden, denn Defekte sind grundsätzlich bei jedem Speichermedium möglich. In Unternehmen fallen täglich deutlich höhere Datenmengen an. Eine manuelle Sicherung würde in diesem Fall zu viel Aufwand bedeuten, sodass hier zu automatisierten Lösungen gegriffen wird.