Beiträge

Unter Vulnerability versteht man in der Informationstechnik eine Verwundbarkeit der Hard- oder Software. Immer wieder tauchen Meldungen über neue Vulnerabilitäten auf. Sogar in als unverwundbar geltenden Architekturen, wie der des iPhone von Apple, hat ein Hacker mit dem Checkm8-Exploit kürzlich eine mächtige Sicherheitslücke aufgetan. Kann man also davon ausgehen, dass in jedem Programm und in jeder Hardware-Architektur unbekannte Fehler schlummern?

Der Exploit, des Hackers Werkzeug

Eine Vulnerability wird dadurch gefährlich, dass jemand herausfindet, wie er sie ausnutzen kann. Das Programm, mit dem die Sicherheitslücke für einen bestimmten Zweck „ausgebeutet“ werden kann, ist der . Im günstigsten Fall ist der Hacker ein Sicherheitsforscher, der mit einem Proof-of-concept (PoC) nur den Beweis der Verwundbarkeit antreten will. Dann wird er vor der Veröffentlichung das betroffene Unternehmen in Kenntnis setzen. Kriminelle Hacker hingegen, nutzen die Vulnerability aus, um größtmöglichen Profit zu erzielen oder hohen Schaden anzurichten.

Bekannte Hardware-Sicherheitslücken

Rowhammer (2015): Verwendet eine Vulnerability in der Architektur von Arbeitsspeicher. Hier wird ausgenutzt, dass der Speicher mittels elektrischer Spannung beschrieben wird. Werden viele Schreib- und Leseoperationen in einem Bereich ausgeführt, kann das auch nicht betroffene Bits verändern. Eine Cache-Funktion, die genau diesen Umstand verhindern soll, kann vom Angreifer gezielt ausgehebelt werden.

Meltdown/Spectre (2017): Sind Exploits, die Schwachstellen in Prozessoren der drei großen Anbieter Intel, AMD und ARM ausnutzen. Sie erlauben Zugriffe auf privilegierte Speicherbereiche. In einem Szenario greifen dafür vorgesehene Sicherheitsmechanismen nicht schnell genug, da aus Performance-Gründen unkontrolliert Befehle vorab in internen Registern ausgeführt werden dürfen.

Bekannte Software-Vulnerabilitäten

Heartbleed (2014): Nutzt die Schwäche in einer älteren Version von SSL aus. In dieser kontrolliert SSL das Bestehen der Verbindung regelmäßig durch das Senden von Kontrollbits. Dieselbe Menge wird als Bestätigung zurückgesandt. Jedoch ist es möglich, die vorgesehene Größe zu überschreiten. Die zurückgesandten Bits werden dann mit zufällig im Speicher befindlichen Inhalten aufgefüllt. Dies können auch sensible Daten sein.

-KRACK (2016): Benennt einen Angriff auf die bis dahin als sicher geltende WPA2-Verschlüsselung in WLANs. Bei diesem werden im Authentifizierungsprozess (Handshake) übersandte Pakete abgefangen und Wiederholungen der Versendungen erzwungen. Ein zum Schutz vorgesehener, temporärer Zufallswert (Nonce) wird angreifbar, da er dadurch erneut verwendet wird.

DirtyCow (2016): Benutzt eine Vulnerability, die den Linux-Kernel betrifft. Daher sind auch Android-Geräte betroffen. Namensgebend ist die Ursache, der sogenannte Copy-on-write-Mechanismus. Durch geschickte Mehrfachöffnung einer virtuellen Datei in parallelen Threads, gelingt es dem Exploit, sich nicht vorgesehene Rechte zu verschaffen.

-BlueBorne (2017): Basiert auf einer Vulnerability bei der Implementierung von Bluetooth in nahezu allen Betriebssystemen. Der Angreifer muss sich im Funkbereich der aktivierten Schnittstelle befinden. Dann kann er sich als Man-in-the-Middle betätigen und den Netzwerkverkehr mitlesen. Unter Linux ist es ihm möglich, Schadcode mit den Rechten des Bluetooth-Prozesses auszuführen.

Der Zero-Day-Exploit und CVE

Verwendet der Hacker einen Exploit, bevor er dem betroffenen Entwickler mitgeteilt wurde, spricht man von einem Zero-Day-Exploit. Teilweise wird dieser über einen längeren Zeitraum genutzt, bevor der Hersteller davon erfährt.

Das Gegenstück dazu sind die Common Vulnerabilities and Exposures (CVE). Hierbei handelt es sich um eine Sammlung veröffentlichter Sicherheitslücken. Den Entwicklern wird vor der Bekanntgabe Zeit zur Beseitigung des Fehlers gegeben. Die Veröffentlichung erfolgt, damit Forscher und Hersteller sich damit beschäftigten können. Die CVE erhalten eindeutige Nummern, die es Herstellern von Schutzsoftware ermöglichen, die Vulnerability konkret zu benennen.

Warum gibt es so viele Vulnerabilitäten?

Es gilt auch hier die Weisheit: Wo Menschen arbeiten, werden Fehler gemacht. Allerdings sind Betriebssysteme und viele Programme heutzutage derart komplex, dass Fehler niemals völlig ausgeschlossen werden können. Zudem steht es nicht immer in der Macht eines Entwicklers, derartige Probleme zu vermeiden. Vielmehr muss er sich oftmals auf Module anderer Anbieter verlassen. So wird TLS/SSL in Mailprogrammen und auch im HTTPS-Protokoll genutzt. In vielen Betriebssystemen ist es als Bibliothek fest implementiert. Daher sind durch eine Vulnerability in SSL, die durch den Heartbleed-Exploit ausgenutzt wurde, eine derart hohe Anzahl an Endgeräten und Software-Produkten betroffen. Bei der KRACK-Attacke wiederum wurde ein Hinweis im WPA2-Standard in einem unter Linux und Android gebräuchlichen Treiber fehlerhaft implementiert, so dass nach Durchführung des Angriffs der verwendete Schlüssel nur noch aus Nullen bestand.

Schutz und Gegenmaßnahmen

Um sich vor Vulnerabilitäten zu schützen, sollten Sie als Anwender oder Verantwortlicher auf mehrere Maßnahmen setzen.

Viele Exploits werden von Virenscannern erkannt. Voraussetzung sind tagesaktuelle Signaturen und leistungsfähige Schutzsoftware. Eine Firewall kann verhindern, dass Daten zugänglich werden oder abfließen.

Essentiell sind Sicherheitsupdates für Hard- und Software. Für den Großteil der aufgeführten Exploits haben die Hersteller Sicherheitsupdates veröffentlicht.

Nicht zu vergessen bleibt eine vernünftige Backup-Strategie, da Exploits auch Daten korrumpieren können. Schließlich sollten Sie als Verantwortlicher die aktuelle Bedrohungslage im Auge behalten. Dies können Sie anhand öffentlich zugänglicher CVE-Datenbanken. Im Zweifel macht es möglicherweise Sinn, auf bestimmte Hard- oder Software zu verzichten, bis die Vulnerability geschlossen ist.

Damit ein Computer funktioniert, benötigt er mehrere aufeinander abgestimmte Komponenten, ein Betriebssystem und Anwendungsprogramme. RAM ist ein Begriff, der in diesem Zusammenhang häufig genannt wird. Was RAM ist, wie er funktioniert und wozu er in einem Computer verwendet wird, erfahren Sie im folgenden Beitrag.

RAM ist die Abkürzung für „Random Access Memory“ und bezeichnet den schnellen Arbeitsspeicher in einem Computer oder Smartphone. „Random Access“ bedeutet wahlfreier oder direkter Zugriff. Auf die im RAM gespeicherten Daten kann direkt über die Adresse des Speicherplatzes zugegriffen werden. RAM wird daher auch als Direktzugriff-Speicher bezeichnet. Allgemein gebräuchlich ist jedoch die Bezeichnung Arbeitsspeicher. RAM ist ein flüchtiger Speicher. Die gespeicherten Daten gehen verloren, wenn der Strom abgeschaltet wird.

Wozu wird RAM benötigt?

Der Arbeitsspeicher eines Computers wird als Zwischenablage für häufig benötigte Daten verwendet. Beim Hochfahren eines Computers werden zunächst häufig verwendete Daten des Betriebssystems im RAM gespeichert. Sobald ein Programm, beispielsweise ein Office Programm oder ein Browser geöffnet wird, speichert das System ebenfalls häufig benutzte Daten der Programme im Arbeitsspeicher. Während des Betriebs werden von den benutzten Programmen und vom Betriebssystem selbst temporärer Daten erzeugt, die im RAM zwischengespeichert werden. Dadurch, dass wichtige Daten verschiedener Programme im RAM zwischengespeichert werden, ist sogenanntes Multitasking, die gleichzeitige Nutzung mehrerer Programme möglich. Zudem kann praktisch ohne Verzögerung zwischen mehreren Anwendungsprogrammen gewechselt werden.

Der Bedarf an Arbeitsspeicher für Betriebssysteme und Softwareprogramme hat sich im Laufe der Jahre deutlich erhöht. Für das Windows XP Betriebssystem waren minimal nur 64 MByte RAM erforderlich. Windows 7 benötigte in der 32-Bit Version mindestens 1 Gigabyte RAM und in der 64-Bit Version mindestens 2 Gigabyte Arbeitsspeicher. Für Windows 10 sind mindestens 2 GB RAM, besser jedoch 4 Gigabyte erforderlich, um flüssig funarbeiten zu können.

Funktionsweise

Ähnlich wie ein Mikroprozessor ist ein RAM-Speicherchip eine sogenannte integrierte Schaltung (Integrated Circuit, IC), die aus Millionen Transistoren und Kondensatoren besteht. Je mindestens ein Transistor und ein Kondensator bilden eine Speicherzelle. In jeder Speicherzelle kann ein einzelnes Datenbit – eine 0 oder eine 1 – gespeichert werden. Der Kondensator speichert elektrische Ladung in Form von Elektronen. Wenn ein Kondensator geladen ist, entspricht dies dem Wert 1. Ein leerer, nicht geladener Kondensator entspricht dem Wert 0. Der Transistor wird als Schalter benutzt, um den Ladungszustand des Kondensators zu lesen oder seinen Zustand zu ändern.
Mehrere dieser Speicherzellen sind in Zeilen, den sogenannten „Pages“ organisiert. Der Arbeitsspeicher ist über ein sogenanntes Bussystem mit dem Prozessor des Computers, der CPU, verbunden. Über das Bussystem werden Daten und die Informationen darüber, an welcher Stelle die Daten gespeichert sind, zwischen Prozessor und Arbeitsspeicher ausgetauscht. Ein kleiner Bereich eines RAM-Speicherchips wird als sogenannter Cache-Speicher verwendet. Dieser Teil ist direkt mit dem Prozessor verbunden. Dadurch ist ein sehr schneller Zugriff möglich. Der Cache-Speicher wird verwendet, um Daten zu speichern, die vom Prozessor besonders häufig benötigt werden. Die Speicherung im Cache erfolgt immer nur für kurze Zeit. Seltener genutzte Daten werden immer durch häufiger verwendete Daten ersetzt.

RAM Speicherchips haben aktuell eine Speicherkapazität zwischen 0,5 und 256 GB. Meistens werden mehrere Speicherchips auf einer Platine zu einem sogenannten Speichermodul zusammengefasst. Diese Module haben je nach Chipsatz eine Speicherkapazität von 2, 4, 8, 16, 32 und mehr Gigabyte.

Hohe Datenübertragungsraten und kurze Zugriffszeiten

RAM Speichermodule werden verwendet, da die Zugriffszeiten wesentlich kürzer und die Datenübertragungsraten deutlich höher sind als bei Festplattenspeichern. Sogenannte DDR4-SDRAM (Double Data Rate Synchronous Dynamic Random Access Memory) Module der 4. Generation erreichen Datenübertragungsraten von bis zu 25.600 Megabyte (MB) pro Sekunde. Im Vergleich dazu beträgt die Übertragungsrate einer HDD maximal etwa 380 MB/s. Eine moderne SSD kann etwas über 520 MB/s pro Sekunde übertragen. Zudem sind die Zugriffszeiten bei RAM Speichermodulen mit 60 bis 70 Nanosekunden deutlich geringer als bei Festplatten mit ca. 3,5 ms und SSDs mit etwa 0,2 ms.

Was passiert, wenn der Speicher „voll“ ist?

Sobald ein Computer läuft, werden Daten im RAM zwischengespeichert. Je mehr Programme geöffnet werden und je mehr Programme – wie beispielsweise Antivirenprogramme – im Hintergrund laufen, umso mehr füllt sich der Arbeitsspeicher mit Daten. Wenn im Arbeitsspeicher kein Platz für weitere Daten ist, nutzt das Betriebssystem freien Festplattenspeicher als virtuellen Arbeitsspeicher zur Auslagerung von häufig benötigten Daten. Da Festplatten deutlich langsamer sind als RAM, verlangsamt sich die Geschwindigkeit der Programmabläufe dadurch merklich. Videos werden ruckelig abgespielt, Berechnungen bei der Bildbearbeitung dauern länger und auch das Speichern von Textdateien verzögert sich. In den meisten Computern stehen jedoch freie Steckplätze für weitere RAM-Module zur Verfügung. Der Arbeitsspeicher kann daher in der Regel ohne großen Aufwand an gestiegene Anforderungen angepasst werden.

Was ist der Unterschied zwischen ROM und RAM?

ROM ist die Abkürzung für „Read Only Memory“, auf Deutsch „Nur-Lese-Speicher“. Im Gegensatz zu RAM ist ROM ein nichtflüchtiger Speicher. Informationen werden in einem ROM Speicherchip dauerhaft gespeichert. Das heißt, die gespeicherten Daten bleiben erhalten, wenn der Strom abgeschaltet wird. ROM Speicherchips werden für Daten verwendet, die sich während des Betriebs eines Computers nicht oder nur selten verändern. Häufig verwendete ROM-Bausteine sind sogenannte EEPROMs (Electrically Erasable Programmable Read-Only Memory). Diese Bausteine können mittels elektrischem Strom gelöscht und neu programmiert werden. EEPROMs werden immer dann genutzt, wenn sich die gespeicherten Daten nur selten und im geringem Umfang ändern. Sie werden beispielsweise verwendet, um die Informationen zu speichern, die benötigt werden, um einen Computer nach dem Einschalten hochzufahren.

Datenwachstum als Herausforderung der IT

Das stetige Wachstum der Datenmengen ist ein Problem, dem sich jede IT-Abteilung früher oder später stellen muss. Nutzen Sie ausschließlich klassische Speicherlösungen wie SAN oder NAS müssen die zur Verfügung stehenden Kapazitäten irgendwann mühsam erweitert werden. Eine solche Maßnahme hat des öfteren auch eine kurze downtime zur Folge, da nicht jede Erweiterung im laufenden Betrieb möglich ist.

Damit stellt sich bereits ein weiteres großes Problem ein. Kunden erwarten heutzutage, dass IT-Services zu 100 % an jedem Tag und zu jeder Stunde verfügbar sind. Downtimes werden immer weniger toleriert, besonders im Bereich von Rechenzentren sowie des Hostings. Eine mögliche Lösung um diese Zeiten zu minimieren oder gar völlig auszuschließen bietet beispielsweise Software Defined Storage oder kurz SDS.

Ceph geht neue Wege

Ceph Architektur

Abbildung 1
Ceph Architektur

Schwierigkeiten bei Software Defined Storage

CEPH ist aber keineswegs perfekt und bringt selbstverständlich auch Nachteile mit sich. Ein Merkmal mit dem man sich vor der Inbetriebnahme auseinandersetzen muss, sind die Latenzen die SDS im Vergleich zu Direct Attached Storage (DAS) mit sich bringt. Die erhöhte Komplexität des Software Stacks in Kombination mit den verwendeten Netzwerkverbindungen erhöhen die Latenz pro IO signifikant.

Es erweist sich als äußerst schwierig die Latenz unter den Wert von einigen Millisekunden für Schreibvorgänge zu senken. Woher diese Latenz kommt lässt sich verdeutlichen, wenn man sich die Arbeitsweise von CEPH bei Schreibvorgängen etwas genauer betrachtet (Abbildung 2).

Ein synchroner IO muss vom Client zur primären OSD gesendet werden. Die primäre OSD schickt anschließend die Anzahl konfigurierter Replikationen zu weiteren OSD’s und deren Journalen. Sobald die Repliken auf den Journalen aller OSD’s vorliegen, wird der Vorgang an die primäre OSD bestätigt. Hat die primäre OSD nun alle Bestätigungen erhalten, wird eine Bestätigung an den Client gesendet und dieser kann den nächsten IO senden. Das verdeutlicht schon weshalb es bereits zu Latenzen innerhalb des Software Stacks kommt.

SDS mit Ceph - Arhcitektur

Abbildung 2

Zusätzlich spielt auch das eingesetzte Netzwerk bei Ceph eine entscheidende Rolle. Es gilt hier zunächst unnötige Hops zu vermeiden, da jeder Hop etwa 200us Latenz mit sich bringt. Ein 10GE Netzwerk gilt hierbei als das absolute Minimum, welches Sie beim Einsatz von Ceph oder einem anderen verteilten Speichersystem verwenden sollten. Das verringert Latenzen und erhöht die Bandbreite. Eine zusätzliche Verbesserung bringt Ihnen selbstverständlich der Einsatz von RDMA, jedoch müssen hier die Kosten beachtet werden. All diese Faktoren spielen eine wichtige Rolle und müssen optimiert werden um Latenzen unter dem 2ms Level zu erhalten und dabei eine Balance zwischen Kosten und Nutzen zu finden, was natürlich nicht immer einfach ist.

 

Anforderungen an eine gute SDS Lösung

Damit Sie nach der Einführung einer SDS Lösung wie Ceph nicht enttäuscht sind, gibt es einige Punkte zu beachten. SSDs oder (Enterprise SSD oder NVME SSD) für die Journale, in denen die Schreibvorgänge gecached werden, sowie ein 10GE Netzwerk sind nach herrschender Meinung innerhalb der Ceph Community und unseren eigenen Erfahrungen ein Muss. Für die OSD’s sollten nach Möglichkeiten SAS3 HDD’s verwendet werden. Es ist auch denkbar bei Bedarf einen Teil der OSD’s rein aus SSDs zu erstellen und gesondert zur Verfügung zu stellen. Wichtig ist zudem keine RAID Arrays zu verwenden. Ceph profitiert stark von vielen unabhängigen Festplatten. Einem schwerwiegenden Datenverlust entgehen Sie zudem indem Sie mehrere Server mit möglichst vielen Festplatten (OSD’s) bereitstellen

Die CPU sollte möglichst viele Prozessor-Kerne haben, und der Arbeitsspeicher mit etwa 1-2 GB pro OSD berechnet werden um hier keinen Flaschenhals zu generieren. Der Einsatz von RDMA muss wohl überlegt sein und kommt auf den speziellen Workload an. Werden extrem niedrige Latenzen und hohe Bandbreite über 10 GE benötigt bietet es sich eventuell eher an auf ein spezielles Storage System wie GPFS, BeeGFS oder Lustre  in Kombination mit Infiniband/Omnipath zu setzen.

Fazit zu Ceph

Zusammenfassend lässt sich sagen, dass Software Defined Storage definitiv eine gute Möglichkeit darstellt, um stetig wachsende Datenbestände einfacher zu verwalten. Jedoch hat Software Defined Storage genau wie jede andere Lösung gewisse Einschränkungen denen man sich bewusst sein muss. Im modernen IT-Betrieb wird man aber nicht auf SDS verzichten können. Die mitgebrachten Vorteile wie Skalierbarkeit, einfache Erweiterung und eine sehr hohe Verfügbarkeit werden zunehmend wichtiger.

Weiterführende Links zum Thema:

Datenbackup in einer Cloud

Backup könnte kurz und knapp auch als Datensicherung bezeichnet werden und ist ein wichtiges Thema. Viele nehmen es nicht so ernst und reagieren leider erst, wenn es schon zu spät ist. Schnell ist es passiert: Der Bildschirm friert ein und nichts hilft mehr, die Daten sind weg. Wer an eine Datensicherung gedacht hat, darf sich nun glücklich schätzen.

Wichtige Daten und vieles mehr mit einem Backup sichern

Wichtige Dokumente, berufliche und private Unterlagen, Zugangsdaten, die Diplom- oder Abschlussarbeit, unverzichtbare E-Mails, jahrelang gesammelte Fotos, die Musiksammlung, Videos usw., all das kann von einer Minute auf die andere verloren sein. Nicht jedoch, wenn ein Backup erstellt wurde. Damit kann ein Datenverlust vermieden werden, bevor es irgendwann zu spät dafür ist. Ist das Backup, also die Sicherung erfolgt, sind alle Dateien noch vorhanden. Spätestens, wenn die Festplatte oder der Computer plötzlich den Dienst verweigern, wissen Nutzer Backups zu schätzen. Um den Datenverlust, der bei vielen eine „Katastrophe“ bedeutet, zu vermeiden, sollten möglichst früh und regelmäßig Backups des Systems erstellt werden.

Bild von hard disc

Regelmäßig Sichern bringt viele Vorteile

Datensicherung ernst nehmen

Unter einem Backup wird die Speicherung von sicherungswürdigen Daten verstanden. Damit entsteht eine regelmäßige Sicherungskopie, sprich ein Abbild der relevanten Daten. Dies geschieht abseits des gewöhnlichen Speicherortes, auf einem externen Datenträger wie einer separaten Festplatte, einem Flash-Speicher, einer CD, DVD oder einem Cloud-Speicher. Wenn beispielsweise die Festplatte defekt ist oder ein Virus die Daten zerstört hat, kommt diese zum Einsatz. Um auf einem externen Datenträger Backups anzufertigen, ist eine Software erforderlich. Diese sichert alle Daten.

Warum ist ein Backup wichtig?

Die moderne Technik ist mittlerweile sehr fortgeschritten und langlebig, allerdings nicht unsterblich. Die Festplatte beispielsweise funktioniert eine bestimmte Anzahl an Betriebsstunden. Je nach Beanspruchung kann diese länger, aber auch kürzer sein. Irgendwann treten Störungen und Defekte auf. Sogar eine neue Festplatte kann in Ausnahmefällen defekt werden. Der Computer kann vielleicht nicht mehr gestartet werden, sodass kein Zugriff mehr auf die Daten besteht und sie schlimmstenfalls verloren gehen. Auch Schadsoftware wie ein Computervirus kann dies verursachen.

  • Volles Backup: umfasst jede Datei auf dem System (Abbild des jetzigen Zustands)
  • Partielles Backup: nur Teile der Daten werden gespeichert
  • Inkrementelles oder differenzielles Backup: die zu sichernden Daten werden noch weiter reduziert
Bild von Backup Server

Nicht vernachlässigen: das regelmäßige Sichern aller relevanter Daten

Ein regelmäßiges Backup, also eine Datensicherung, ist unbedingt empfehlenswert. Das Ziel besteht darin, dass wichtige Daten usw. auf einem separaten Datenträger gespeichert werden, sodass sie beim Defekt oder Verlust des Geräts wiederhergestellt werden können.

Wie oft eine Datensicherung durchgeführt wird, muss jeder für sich entscheiden, denn Defekte sind grundsätzlich bei jedem Speichermedium möglich. In Unternehmen fallen täglich deutlich höhere Datenmengen an. Eine manuelle Sicherung würde in diesem Fall zu viel Aufwand bedeuten, sodass hier zu automatisierten Lösungen gegriffen wird.

Für Unternehmen gehört die zuverlässige Verwaltung und Sicherung ihrer Datenbestände zu einer der wichtigsten Aufgaben im Betrieb der IT. Nicht selten haben Unternehmen bei einem Verlust der Daten, beispielsweise durch den technischen Ausfall von Festplatten oder Servern oder durch Zerstörung aufgrund äußerer Gewalteinwirkung und Ähnliches, einen so großen Schaden erlitten, der sogar die Weiterführung der Unternehmenstätigkeit infrage gestellt hat.

Um Kundendaten oder firmeninterne Daten ohne Risiko für Datenverluste sichern zu können, bieten IT-Dienstleister Managed Service mit einem beinhaltenden Managed Backup an. Hierbei übernimmt der Informations-Technologie-Dienstleister die tägliche zuverlässige Datensicherung für seinen Auftraggeber.

Managed Services – für mittelständische Unternehmen die sichere Wahl

Managed Backup - die clevere Alternative zur Datensicherung

Managed Backup – die clevere Alternative zur Datensicherung

Die Sicherung der empfindlichen Unternehmensdaten ist auch für kleinere oder mittelständische Unternehmen eine grundständige Basis ihrer Unternehmenstätigkeit. In früheren Zeiten wurden sogenannte „Wartungsverträge“ für die in einem Unternehmen anfallenden IT-Dienstleistungen abgeschlossen. Oftmals war ein umfassender Wartungsvertrag aber für kleinere Firmen sehr kostspielig.

Mittlerweile aber haben die Informations-Technologie-Dienstleister Ihre Service- und Wartungsleistungen den Anforderungen der verschiedenen Unternehmen angepasst und sich auch auf die Bedürfnisse von kleineren sowie mittelständischen Unternehmen eingestellt. Von einzelnen Modulen bis hin zu umfänglichen IT-Dienstleistungen stehen auch den kleineren Unternehmen Betreuungs- und Wartungsdienstleistungen zur Pflege, Verwaltung, Speicherung und Sicherung ihrer Datenbestände zur Verfügung.

Damit können sich kleinere und mittelständische Unternehmen vollständig auf den von ihnen beauftragten Dienstleister für das Management ihrer Daten und deren Pflege verlassen, ohne Angst vor einem Datenverlust zu haben.

Managed Backup als ein wichtiger Bereich eines Managed Service

Managed Backup - mehr als nur Datensicherung

Managed Backup – mehr als nur Datensicherung

Die regelmäßige Backup-Sicherung der Daten wird nach einem bestimmten Rhythmus, zumeist täglich, automatisch von dem beauftragten Dienstleister für die Informationstechnologie eines Unternehmens übernommen. Dadurch brauchen sich die Unternehmen nicht um das Erstellen der Datensicherung  kümmern und haben die Sicherheit stets auf ihre aktualisierten Daten zugreifen zu können.

Der Vorteil liegt auch darin, dass beispielsweise keine Fehler im Unternehmen durch das Zugreifen auf veraltete Datenbestände, durch die Verwendung unterschiedlich alter Datenbestände sowie ähnliche Probleme auftreten können. Zu den Aufgaben, die der Dienstleister für den Auftraggeber übernimmt, gehören beispielsweise

  • die zur Verfügungstellung von ausreichendem Speicherplatz für die Backups der Unternehmens- oder Kundendaten,
  • die zuverlässige tägliche Sicherung der Daten sowie
  • eine mindestens einmal pro Jahr durchgeführte Rücksicherung, das sogenannte Restore mit einer entsprechenden Dokumentation.

Die Daten werden in der Regel als ein sogenanntes Online-Backup gesichert. Mithilfe der in der Regel vorhandenen Internetleitung  werden die Daten direkt auf den Server des jeweiligen Rechenzentrums übertragen und dort als tägliches Backup abgelegt. Die Übertragung der Daten läuft dabei folgendermaßen ab:

  • zunächst werden die entsprechenden Daten beim Kunden auf dem Rechner oder dem Netzwerk identifiziert, das bedeutet: die entsprechenden zu sichernden Daten werden aufgrund verschiedener Kriterien, wie beispielsweise Dateinamen und Endungen aus den Datenbeständen des Kunden automatisch herausgesucht,
  • anschließend werden diese Datenbestände komprimiert – das bedeutet, sie werden in Datenpakete gepackt und in ihrem Datenvolumen verkleinert, um dann
  • mit einer sicheren Verschlüsselung versehen über eine sichere Internetleitung vom Kunden in das jeweilige Rechenzentrum gesendet und letztendlich dort gespeichert zu werden.

Weitere mögliche Dienstleistungen von Managed Services

Neben dem Managed Backup Service sind weitere mögliche Dienstleistungen von Managed Services beispielsweise:

  • Hosting Services,
  • Betreuung von Servern sowie der Infrastruktur von Netzwerken,
  • Betreuung von Einzelgeräten, wie PCs und Notebooks,
  • PC-Sicherheit oder Netzwerksicherheit und Firewalls,
  • Voice over IP bzw. Internettelefonie, Telefonieren über PC-Netzwerke,
  • VPN oder Virtuelles privates Netzwerk, wie beispielsweise die Erstellung einer manipulations- und abhörsicheren Gesprächssituation zwischen VPN-Teilnehmern mithilfe eines VPN-Protokolls und einer Verschlüsselung;
  • SSL-VPN – ermöglicht den Fernzugriff auf EDV-gestützte Ressourcen des Unternehmens, zum Beispiel für eine gemeinsame Bearbeitung und Ähnliches, mithilfe einer sicheren Verschlüsselung,
  • und weitere Fernwartungsarbeiten.

Verschiedene Bezahlmodelle für den Service der IT-Dienstleister

In den häufigsten Fällen werden für diese IT-Dienstleistungen Verträge auf einer monatlichen Basis mit regelmäßigen und fest vereinbarten Zahlungsbeiträgen abgeschlossen. Möglich sind aber auch die Erhebung von Gebühren für die beanspruchte Zeit und jeweilige Leistung oder Zahlungsmodelle, die den Service für einzelne Geräte, Netzwerke, Server oder Ähnliches anbieten. Die Dienstleister können ihren Service durch die hauptsächliche Betreuung, Wartung und Abwicklung über das Internet relativ kostengünstig anbieten.

Kostenintensive Anfahrten und Dienstleistungen bei dem jeweiligen Kunden vor Ort können so vermieden werden. Dabei ist die Beratungs- und Serviceleistung oder Qualität der Dienstleistung durch die „Fernwartung“ über das Internet nicht weniger hochwertig, als der Service vor Ort.

Dieser Managed Service kann für die Unternehmen dann eine große Zeit- und Kostenersparnis bedeuten, wie beispielsweise die freigesetzte Zeit besser für die unternehmenseigenen Aufgaben nutzen, das Personal mit anderen Tätigkeiten beauftragen oder auch einsparen zu können und Ähnliches. Da die Daten oftmals auch auf externen Servern in Rechenzentren ausgelagert werden, können zusätzliche Kosten für die Anschaffung von Terminals, Festplatten, Servern sowie für den Platz zum Aufstellen der Geräte und Weiteres vermieden werden.

Wenn Sie mehr über Managed Backup wissen möchten, so beraten wir Sie gerne. Wir freuen uns auf ihren Kontakt.

 

Kundendaten, Adresslisten, Mitarbeiterinformationen und wichtige Geschäftsdaten – Unternehmen müssen heutzutage viele Daten digital sammeln und verwalten. Da steht die Sicherheit und vor allem die Datensicherung an der ersten Stelle. Doch in der Praxis sieht es oft anders aus. Manche Unternehmen sammeln zwar viele Daten, sichern sie aber nicht regelmäßig. Dieses fahrlässige Handeln kann viel Schaden anrichten.

Denn kaputte Hardware kann man wieder beschaffen und ein Büro kann man nach dem Brand oder Wasserschaden wieder renovieren. Was man aber nicht wiederherstellen kann, sind nicht ordentlich gesicherte Daten. Sind sie einmal futsch –  niemand kann von Geisterhand zaubern.

Doch was heißt es, Daten ordentlich zu sichern? Mit unserem Ratgeber sind Sie auf jeden Fall auf der sicheren Seite. Vorausgesetzt natürlich, Sie befolgen alle diese Schritte:

  1. Regelmäßige Backups

Ganz egal ob es sich um ein Büro eines Freiberuflers oder das Netzwerk einer großen Firma handelt, ein funktionierendes Backup-Konzept muss her! Backups müssen regelmäßig, am besten täglich erstellt werden. Nutzen Sie dafür z.B. Ihre Mittagspause, wenn Sie Ihren eigenen PC oder Ihr Laptop sichern wollen. Wenn Sie aber das Backup für Ihren Server erstellen wollen, dann sind Nachstunden optimal. Da arbeitet niemand und der Server, der mit 24 Stunden am Tag und 7 Tage pro Woche immer Höchstarbeit leistet, ist weniger belastet.

2. Datensicherung sollte automatisch laufen

Eine gut funktionierende Datensicherung muss immer möglichst automatisiert ohne menschliches Eingreifen vollständig  und sicher funktionieren. Dafür kann man die Datensicherung einmal einrichten und danach läuft sie vollkommen automatisch nach Zeitplan. Vollständig automatisch heißt aber nicht ohne Kontrolle. Sie sollten Ihre Datensicherung auf jeden Fall regelmäßig von Ihrem IT-Dienstleister prüfen lassen.

3. Software statt eigenen Skripten

Nutzen Sie immer eine erprobte Software und verzichten Sie auf selbst erstellte Skripte oder hausgemachte Software. Datensicherung ist ein hoch sensibler Bereich und man sollte auf jeden Fall darauf achten, dass man mit guten Produkten arbeitet.

4. Auf die Qualität von Backup-Software achten

Wenn Sie gute Software für Ihre Datensicherung nutzen, dann können Sie viel Platz sparen. Sowohl beim Komprimieren der zu sichernden Dateien als auch bei der Übertragung in ein Rechenzentrum.

Ein weiterer Vorteil von guter Software ist die Deduplizierung. Darunter wird eine Technik  verstanden, mit deren Hilfe redundante Daten identifiziert und eliminiert werden, noch bevor sie auf einem nichtflüchtigen Datenspeicher gespeichert werden.

5. Dateien verschlüsseln

Achten Sie bei der Wahl von Software darauf, wie gut sie Dateien verschlüsseln kann. Gerade bei sensiblen Daten spielt Verschlüsselung eine große Rolle oder auch dann, wenn Unternehmen per Gesetz zu zusätzlichen Schutz-Maßnahmen gezwungen werden. Besonders wenn man zu Cloud-Lösungen für die Datenspeicherung greift, sind Verschlüsselungsmaßnahmen sinnvoll – sollten die Daten in Hände Dritter landen, sind sie unbrauchbar.

6. Nie alle Eier in einem Korb aufbewahren

Wirklich wichtig ist Folgendes: Die Sicherungen der Dateien müssen an einem anderen geografischen Ort gelagert oder gespeichert werden als die Quell-Daten. Sollten im Fall von Brand, Wasserschaden oder Diebstahl die Original-Dateien zerstört oder verloren gehen, bleiben die Dateien dank Sicherung an einem anderen Ort unbeschädigt.

7. Rücksicherung testen

Ist die Datensicherung gestern erfolgreich verlaufen? Haben Sie schon mal überprüft, ob sich die Daten aus Ihrem Backup wirklich wiederherstellen lassen? Bei der Einführung und anschließend in regelmäßigen Abständen muss die Rücksicherung geprüft werden. Dabei wird entweder ein Teil oder alle Dateien zurück gespielt. Nur so kann man wirklich feststellen, ob die Daten brauchbar sind.

Nutzen Sie dazu eine IT-Monitoring Software. So können Sie herausfinden, ob die Dateien wirklich gesichert wurden und ob das technisch einwandfrei gelaufen ist und werden genau wissen, wie lange so eine Rücksicherung im Katastrophenfall dauern würde. Darüber sollte man sich auf jeden Fall im Klaren sein, damit man besser einschätzen kann, wie lange man im Zweifel ohne Daten auskommen müsste.

Fazit: Wer auf die Datensicherung verzichtet, der spielt wahrhaftig mit dem Feuer. Trotz sicherer Hardware  ist man nie absolut sicher, dass seine Daten immer da bleiben, wo sie hingehören. Ob Feuer, Wasser oder ausgeklügelte Hacker-Attacken, man läuft oft die Gefahr, seine wichtigen Daten zu verlieren. Daten, von denen sogar die Existenz eines Unternehmens abhängig sein können. Deshalb ist eine ordentliche Datensicherung absolut empfehlenswert, da man mit wenig Aufwand wirklich mehr Sicherheit erreicht. Einmal eingerichtet und getestet sorgt eine gute Datensicherung für Sicherheit beim Inhaber / GF und meistens auch für einen besseren Nachtschlaf – weniger Sorgen inklusive.