Unter Vulnerability versteht man in der Informationstechnik eine Verwundbarkeit der Hard- oder Software. Immer wieder tauchen Meldungen über neue Vulnerabilitäten auf. Sogar in als unverwundbar geltenden Architekturen, wie der des iPhone von Apple, hat ein Hacker mit dem Checkm8-Exploit kürzlich eine mächtige Sicherheitslücke aufgetan. Kann man also davon ausgehen, dass in jedem Programm und in jeder Hardware-Architektur unbekannte Fehler schlummern?

Der Exploit, des Hackers Werkzeug

Eine Vulnerability wird dadurch gefährlich, dass jemand herausfindet, wie er sie ausnutzen kann. Das Programm, mit dem die Sicherheitslücke für einen bestimmten Zweck „ausgebeutet“ werden kann, ist der . Im günstigsten Fall ist der Hacker ein Sicherheitsforscher, der mit einem Proof-of-concept (PoC) nur den Beweis der Verwundbarkeit antreten will. Dann wird er vor der Veröffentlichung das betroffene Unternehmen in Kenntnis setzen. Kriminelle Hacker hingegen, nutzen die Vulnerability aus, um größtmöglichen Profit zu erzielen oder hohen Schaden anzurichten.

Bekannte Hardware-Sicherheitslücken

Rowhammer (2015): Verwendet eine Vulnerability in der Architektur von Arbeitsspeicher. Hier wird ausgenutzt, dass der Speicher mittels elektrischer Spannung beschrieben wird. Werden viele Schreib- und Leseoperationen in einem Bereich ausgeführt, kann das auch nicht betroffene Bits verändern. Eine Cache-Funktion, die genau diesen Umstand verhindern soll, kann vom Angreifer gezielt ausgehebelt werden.

Meltdown/Spectre (2017): Sind Exploits, die Schwachstellen in Prozessoren der drei großen Anbieter Intel, AMD und ARM ausnutzen. Sie erlauben Zugriffe auf privilegierte Speicherbereiche. In einem Szenario greifen dafür vorgesehene Sicherheitsmechanismen nicht schnell genug, da aus Performance-Gründen unkontrolliert Befehle vorab in internen Registern ausgeführt werden dürfen.

Bekannte Software-Vulnerabilitäten

Heartbleed (2014): Nutzt die Schwäche in einer älteren Version von SSL aus. In dieser kontrolliert SSL das Bestehen der Verbindung regelmäßig durch das Senden von Kontrollbits. Dieselbe Menge wird als Bestätigung zurückgesandt. Jedoch ist es möglich, die vorgesehene Größe zu überschreiten. Die zurückgesandten Bits werden dann mit zufällig im Speicher befindlichen Inhalten aufgefüllt. Dies können auch sensible Daten sein.

-KRACK (2016): Benennt einen Angriff auf die bis dahin als sicher geltende WPA2-Verschlüsselung in WLANs. Bei diesem werden im Authentifizierungsprozess (Handshake) übersandte Pakete abgefangen und Wiederholungen der Versendungen erzwungen. Ein zum Schutz vorgesehener, temporärer Zufallswert (Nonce) wird angreifbar, da er dadurch erneut verwendet wird.

DirtyCow (2016): Benutzt eine Vulnerability, die den Linux-Kernel betrifft. Daher sind auch Android-Geräte betroffen. Namensgebend ist die Ursache, der sogenannte Copy-on-write-Mechanismus. Durch geschickte Mehrfachöffnung einer virtuellen Datei in parallelen Threads, gelingt es dem Exploit, sich nicht vorgesehene Rechte zu verschaffen.

-BlueBorne (2017): Basiert auf einer Vulnerability bei der Implementierung von Bluetooth in nahezu allen Betriebssystemen. Der Angreifer muss sich im Funkbereich der aktivierten Schnittstelle befinden. Dann kann er sich als Man-in-the-Middle betätigen und den Netzwerkverkehr mitlesen. Unter Linux ist es ihm möglich, Schadcode mit den Rechten des Bluetooth-Prozesses auszuführen.

Der Zero-Day-Exploit und CVE

Verwendet der Hacker einen Exploit, bevor er dem betroffenen Entwickler mitgeteilt wurde, spricht man von einem Zero-Day-Exploit. Teilweise wird dieser über einen längeren Zeitraum genutzt, bevor der Hersteller davon erfährt.

Das Gegenstück dazu sind die Common Vulnerabilities and Exposures (CVE). Hierbei handelt es sich um eine Sammlung veröffentlichter Sicherheitslücken. Den Entwicklern wird vor der Bekanntgabe Zeit zur Beseitigung des Fehlers gegeben. Die Veröffentlichung erfolgt, damit Forscher und Hersteller sich damit beschäftigten können. Die CVE erhalten eindeutige Nummern, die es Herstellern von Schutzsoftware ermöglichen, die Vulnerability konkret zu benennen.

Warum gibt es so viele Vulnerabilitäten?

Es gilt auch hier die Weisheit: Wo Menschen arbeiten, werden Fehler gemacht. Allerdings sind Betriebssysteme und viele Programme heutzutage derart komplex, dass Fehler niemals völlig ausgeschlossen werden können. Zudem steht es nicht immer in der Macht eines Entwicklers, derartige Probleme zu vermeiden. Vielmehr muss er sich oftmals auf Module anderer Anbieter verlassen. So wird TLS/SSL in Mailprogrammen und auch im HTTPS-Protokoll genutzt. In vielen Betriebssystemen ist es als Bibliothek fest implementiert. Daher sind durch eine Vulnerability in SSL, die durch den Heartbleed-Exploit ausgenutzt wurde, eine derart hohe Anzahl an Endgeräten und Software-Produkten betroffen. Bei der KRACK-Attacke wiederum wurde ein Hinweis im WPA2-Standard in einem unter Linux und Android gebräuchlichen Treiber fehlerhaft implementiert, so dass nach Durchführung des Angriffs der verwendete Schlüssel nur noch aus Nullen bestand.

Schutz und Gegenmaßnahmen

Um sich vor Vulnerabilitäten zu schützen, sollten Sie als Anwender oder Verantwortlicher auf mehrere Maßnahmen setzen.

Viele Exploits werden von Virenscannern erkannt. Voraussetzung sind tagesaktuelle Signaturen und leistungsfähige Schutzsoftware. Eine Firewall kann verhindern, dass Daten zugänglich werden oder abfließen.

Essentiell sind Sicherheitsupdates für Hard- und Software. Für den Großteil der aufgeführten Exploits haben die Hersteller Sicherheitsupdates veröffentlicht.

Nicht zu vergessen bleibt eine vernünftige Backup-Strategie, da Exploits auch Daten korrumpieren können. Schließlich sollten Sie als Verantwortlicher die aktuelle Bedrohungslage im Auge behalten. Dies können Sie anhand öffentlich zugänglicher CVE-Datenbanken. Im Zweifel macht es möglicherweise Sinn, auf bestimmte Hard- oder Software zu verzichten, bis die Vulnerability geschlossen ist.

Die Begriffe „IT-Sicherheit“ sowie „Informationssicherheit“ werden oftmals fälschlicherweise als Synonyme in unserem täglichen Sprachgebrauch verwendet. Schlimmer noch: Die Wahrscheinlichkeit ist groß, dass sich in einem Unternehmen falsch Begriffe etablieren und daraus ein ausgewachsenes Verständnisproblem entsteht. Eine klare Abgrenzung von IT-Sicherheit und Informationssicherheit ist daher zwingend notwendig und von international geltenden Standards auch genau so gewollt.

Die Informationssicherheit

Der Begriff Informationssicherheit ist unter Experten wohl die Bezeichnung, welcher an Bedeutung zukommt. Die Bezeichnung orientiert sich sowohl am IT-Grundschutzkatalog des Bundesamtes für Sicherheit in der Informationstechnik (BSI) sowie der internationale Sicherheitsstandard ISO 27001/27002. Im Vordergrund steht der Schutz von Daten und Informationen in analoger sowie digitaler Form, welche einen Bezug zu personenbezogenen Daten haben. Die IT-Sicherheit wird hierbei letztendlich als ein wichtiger Bestandteil der Informationssicherheit angesehen.

Die wichtigsten IT-Sicherheitsbegriffe

Grundsätzlich besteht die Informationssicherheit unter anderem aus den Schutzwerten der „Vertraulichkeit“, „Integrität“ und „Verfügbarkeit“, um Informationen ein angemessenes Schutzniveau zukommen zu lassen. Im Rahmen einer so genannten (Erweiterten) Bestandsanalyse/Schutzbedarfsanalyse, welche fester Bestandteil des BSI-Grundschutzkataloges sowie der ISO 27001 ist, werden alle IT-Systeme (Räume, Server, Anwendungen, Netzwerkkomponenten, etc.) erfasst und auf die erwähnten Schutzwerte hin in Kombination mit der Bedeutung für das Unternehmen bewertet. Darauf basierend gewinnen sowohl die Geschäftsleitung sowie alle jeweils betroffenen Abteilungen einen sehr genauen Überblick über die vorherrschende Unternehmensstruktur. Darüber hinaus sollte die hier erfassten Daten unbedingt für ein das anschließende Risikomanagement zur Verfügung stehen, um Informationen vor potentiell möglichen Gefahren einer „Akzeptanz“, „Minderung“, oder „Vermeidung“ unterordnen zu können.

 

Grundsätzlich lässt sich also festhalten, dass die Informationssicherheit nicht nur IT-Komponenten, sondern auch technische sowie nicht-technische System in ihrer Grundidee berücksichtigt. Das oberste Ziel ist hierbei in einer so genannten Sicherheitsleitlinie festzuhalten, welche den Schutz vor Gefahren und Bedrohungen sowie wirtschaftlichen Schäden beinhaltet.

Die IT-Sicherheit in Unternehmen

Auch wenn die IT-Sicherheit lediglich einen Teil der Informationssicherheit darstellt, ist sie nicht weniger wichtig und vielmehr als ein notwendiger Baustein für den optimalen Schutz vor Gefahren und Bedrohungen (personenbezogener) Daten und Informationen. IT-Sicherheit beschränkt sich ausschließlich auf elektronisch gespeicherte Informationen sowie IT-Systeme. Oft sind IT-Abteilungen der Auffassung, dass die IT-Sicherheit ausnahmslos dem Schutz des technischen Verarbeitungsvorgangs von Informationen dient. Fakt ist jedoch, dass bei der IT-Sicherheit eine möglichst fehlerfreie und zuverlässige Funktion aller zum Einsatz kommenden IT-Systeme im Mittelpunkt steht.

Unter Berücksichtigung der oben erwähnten Schutzwerte „Vertraulichkeit“, „Integrität“ und „Verfügbarkeit“ beinhaltet die IT-Sicherheit alle hierfür notwendigen Planungen, Maßnahmen sowie Kontrollmechanismen, welche letztendlich dem Schutz der IT-Infrastruktur dienen. Alle IT-Komponenten unterliegen im Idealfall dem Business-Continuity-Management, welches seinerseits die Aufrechterhaltung des Geschäftsbetriebs zum Ziel hat.

IT-Sicherheit in der Praxis

Im Gegensatz zur Datensicherheit oder Informationssicherheit orientiert sich die IT-Sicherheit nicht nur am Schutz personenbezogener Daten. Vielmehr steht bei der IT-Sicherheit alle Informationen im Fokus, die einem bestimmten Schutzbedürfnis aus der Bestandsanalyse/Schutzbedarfsanalyse unterliegen.

Sicherheit für die internen Systeme

In der Praxis berücksichtigt die IT-Sicherheit in der Regel Desktop-PCs, Tablet und Smartphones sowie Notebooks, welche Mitarbeiter eines Unternehmens zur Erfüllung ihrer Aufgaben erhalten. Zusammengefasst handelt es sich hierbei um Endpoint Security. Im Bereich der Betriebssystemsicherheit sowie Applikationssicherheit spielen, wie die Bezeichnung bereits vermuten lässt, alle auf den Endgeräten installierten Betriebssystem sowie Anwendungen eine wichtige Rolle.

Aufgrund der zunehmenden Komplexität von IT-Systemen gilt es heutzutage als obligatorisch, dass Endgeräte sowie Anwendung weit über das Unternehmensnetzwerk hinaus über das Internet kommunizieren. Dieser Umstand ist ebenfalls ein wichtiger Faktor im Rahmen der IT-Sicherheit, welcher in all seinen Facetten von den Verantwortlichen sowie der Geschäftsleitung in gemeinsamer Abstimmung beleuchtet werden muss.

C++ ist eine der beliebtesten und weitverbreitetsten Programmiersprachen, die in der modernen Softwareentwicklung eingesetzt werden, um eine Vielzahl unterschiedlicher Anwendungen zu entwickeln. Als Weiterführung der strukturierten C-Programmierung setzt die Programmiersprache auf ein objektorientiertes Modell.

Entwicklungsgeschichte und Eigenschaften von C++

Die Programmiersprache C++ ist weit verbreitet und wird vielfältig genutzt. Ursprünglich ist sie als eine Weiterentwicklung zu der Programmiersprache C entstanden. Aufgrund der engen Verwandtschaft der beiden Programmiersprachen ist es möglich, auch in C++ hardwareorientierte, effiziente und performante Anwendungen zu entwickeln. Die Programmiersprache ermöglicht es, ein reines objektorientiertes Paradigma zu benutzen, also mit Klassen, Objekten, Methoden und Attributen komplexe Konstrukte zu erstellen. Da es sich hierbei um eine sehr umfangreiche Sprache handelt, ist es empfehlenswert, zunächst mit den Grundkonstrukten (Datentypen, Operatoren, Kontrollstrukturen) zu starten.

Die unterschiedlichen Versionen des Programms im Überblick

Die Programmiersprachen C++ wurde im Jahr 1979 von dem dänischen Informatiker Bjarne Stroustrup entwickelt. Im Laufe der Jahre wurde die Sprache kontinuierliche weiterentwickelt und durch neue Funktionalitäten und Features erweitert. Im Jahr 1998 wurde die standardisierte Version mit der Bezeichnung C++98 veröffentlicht. Weitere neue Funktionen und Verbesserungen wurden mit den Standards 03, 11, 14 und 17 in den Jahren 2003, 2011, 2014 und 2017 eingeführt. An der Version 20 wird schon mit Hochdruck gearbeitet.

 

Entwickler, die mit C++ arbeiten möchten, sollten unbedingt eine IDE (Integrated Development Environment) nutzen, die volle Unterstützung für den 11-Standard bietet. Bekannte und weitverbreitete IDEs für C++ sind:

–              NetBeans

–              Visual Studio

–              Eclipse

–              Xcode

Optionale Objektorientierung

Entwickler werden bei C++ nicht dazu gezwungen, ein bestimmtes Programmierparadigma befolgen zu müssen. So wird beispielsweise Objektorientierung weder vorausgesetzt noch erzwungen. Sie können auch rein imperativen Code schreiben, der von einem C-Compiler akzeptiert wird. Dies hat sich im Laufe der Jahre als wesentlicher Vorteil für die Verbreitung der Sprache erwiesen und ermöglicht, performante und effiziente Anwendungen zu entwickeln. Im Gegensatz zu traditionellen objektorientierten Sprachen, wie zum Beispiel Java oder C#, können Programmierer mit C++ eine mehrfache Vererbung (multiple Inheritance) realisieren. Konkret bedeutet das, dass eine Klasse mehr als eine Basisklasse haben kann. Im Folgenden gehen wir auf ein Beispiel für Vererbung in C++ im Detail ein:

Um ein Gesellschaftsspiel zu entwickeln, benötigen Sie u. a. Klassen für Kugelschreiber, Geldstücke und die Basisklasse.

–              Den Würfel können Sie mittels eines Zufallsgenerators realisieren. Zu diesem Zweck existiert in C++ bereits die nötige Basisklasse „RandomNumberGenerator“, von der die Klasse alle Methoden und Attribute erbt.

–              Für den Kugelschreiber können Sie einen Binärzähler benutzen. Die angemessene Basisklasse wäre hierfür „BinaryCounter“.

–              Die Geldstücke sind ein Zahlungsmittel und erben von der Basisklasse „Currency“. Sie können die Gelstücke aber auch als Binärzähler definieren (Zahl = Null, Kopf = Eins).

Java, C#, C++

In traditionellen objektorientierten Programmiersprachen, wie beispielsweise Java oder C# muss sich der Entwickler für eine Basisklasse entscheiden. Zusätzliche Vererbungen kann nur durch den Einsatz von Interfaces realisieren, die ausschließlich abstrakte Funktionen enthalten können. Wie bereits C bietet C++ die Unterstützung für Makros und ein performantes generisches Programmierparadigma mittels Templates. Generische Programmierung gibt Entwicklern die Möglichkeit, einen parametrischen Polymorphismus einzusetzen, der das Überladen mit gleichnamigen Funktionen mit unterschiedlichen Argumenten ermöglicht.

Benutzeroberfläche und Bibliotheken

Es sind zahlreiche Bibliotheken erhältlich, welche die bereits sehr umfangreiche Funktionsvielfalt von C++ noch zusätzlich erweitern. So sind beispielsweise für die Entwicklung von Anwendungen mit Benutzeroberflächen und Zugriff auf Datenbanken verschiedene Bibliotheken erhältlich. Die bekannteste und beliebteste ist die Bibliothek Qt mit der dazugehörigen IDE Qt-Creator. Seit der Version 5.7, die im Juni 2016 veröffentlicht wurde, bietet Qt volle Unterstützung für C++ 11. Obwohl Qt primär mit C++ genutzt wird, kann die IDE auch mit anderen Programmiersprachen wie Python genutzt werden.

In Qt kommt die sogenannte ereignisorientierte Programmierung zum Einsatz. Auf den Benutzeroberflächen sind Steuerungselemente (Widgets) platziert, mit deren Hilfe der Nutzer die Anwendung bedient. Bei einem Ereignis handelt es sich zum Beispiel um einen Klick auf eine Schaltfläche oder die Auswahl eines Eintrags. Bei diesem Vorgang gibt es ein Signal, welches mit einem Slot verbunden sein kann. Dabei handelt es sich in den meisten Fällen um eine Funktion, deren Code aufgrund des Ereignisses aufgerufen wird.

Sprachdesign des Programms

Bei C++ kommen nur etwa 60 Schlüsselwörter zum Einsatz, die den sogenannten „Sprachkern“ bilden. Die eigentliche Funktionalität wird der Sprache durch ihre Standardbibliothek verliehen. Diese bringt der Sprache wichtige Funktionalitäten bei, wie beispielsweise Arrays, Listen oder Vektoren, und stellt die Verbindungen zum Betriebssystem dar (iostream, fstream, …). Je nach Einsatzgebiet kann man die Programmiersprache durch den Einsatz zusätzlicher Bibliotheken erweiterten. Eine der wichtigsten Stärken der Programmiersprache liegt in der Kombination effizienter, maschinennaher Programmierung mit mächtigen Sprachmitteln, mit denen sich komplexe Implementierungsdetails weitestgehend zusammenfassen und hinter einer abstrakten und leicht verständlichen Befehlsfolge verbergen lassen.

Einige Designelemente der Sprache werden jedoch auch häufig kritisiert. So hat die Programmiersprache beispielsweise keine Garbage Collection.Man kann jedoch den Speicher manuell verwalten, was jedoch ein hohes Maß an Erfahrung voraussetzt. Denn eine fehlerhafte Speicherverwaltung kann schwerwiegende Folgen haben, die meist in Programmabstürzen und diversen ähnlichen Bugs enden.

Die Cloud, englisch für Wolke, ist ein theoretisch unbegrenzter Onlinespeicher, in dem Daten aller Art gespeichert und von praktisch jedem Ort mit einem internetfähigen Gerät genutzt werden können. Dabei ist der Begriff Cloud die Kurzfassung für Cloud-Computing.

Der Begriff Cloud-Computing beinhaltet sowohl das Nutzen als auch das Anbieten von unterschiedlichen IT-Dienstleistungen und beinhaltet neben dem Speicherplatz die Bereitstellung von Hard- und Software über das Internet. Cloud-Computing bietet gewissermaßen einen virtuellen Computer im Internet, der in Teilen den lokalen Computer am Arbeitsplatz ersetzen kann.

Die Idee, Daten extern zu speichern und von jedem beliebigen Ort aus zu nutzen, wurde bereits in den 1950er Jahren geboren. Allerdings sind die technischen Voraussetzungen für die Anwendung erst seit Ende der 1990er gegeben.

Wie funktioniert die Cloud?

So sieht ein Cloud-Rechenzentrum von innen aus

So sieht ein Cloud-Rechenzentrum von innen aus

Cloud-Computing ist ein dynamischer, an den Bedarf der Nutzer angepasster Prozess. Cloud-Dienstleister stellen den Kunden Speicherplatz und Rechenleistung auf Ihren Servern bzw. in deren Rechenzentrum gegen ein Entgelt, eine monatliche oder jährliche Mietzahlung, zur Verfügung. Durch die Verknüpfung vieler einzelner Server miteinander werden die Daten der Kunden nicht nur auf einem Server gespeichert und die Ressourcen können je nach Bedarf in Anspruch genommen werden.

Nutzer haben über das Internet jederzeit Zugriff auf die eigenen Daten und können beliebig viele Daten speichern. So können zum Beispiel E-Mails, Dokumente oder der eigene Terminkalender von jedem Ort aus über das Internet abgerufen oder anderen Nutzern zur Verfügung gestellt werden. Der Computer am Arbeitsplatz, das Smartphone oder Tablet dienen bei der Nutzung eines Cloud-Speichers nur noch zur Steuerung der Hard- und Software.

Beim Cloud-Computing wird zwischen öffentlichen und privaten Clouds unterschieden. Öffentliche Clouds können von unterschiedlichen Kunden genutzt werden, die zum Beispiel die gleiche Software verwenden. Bei privaten Clouds ist das Angebot an Hard- und Software auf die Anforderungen eines Kunden abgestimmt und nur durch diesen nutzbar. Andere Formen sind die sogenannten Community Clouds für die Nutzung von Gruppen mit gleichen Interessen und Hybrid Clouds, bei denen private und öffentliche Clouds von den gleichen Kunden genutzt werden.

Cloud: IaaS, PaaS oder SaaS

Cloud-Services werden in unterschiedlichen Modellen, die als IaaS, PaaS und SaaS bezeichnet werden, angeboten. IaaS steht für Infrastructure as a Service. Hierbei stellt der Dienstleister lediglich IT-Ressourcen wie Rechenleistung, Speicherplatz oder Netzwerkkapazitäten zur Verfügung. Der Anwender muss bei diesem Modell die Infrastruktur in der Regel selbst zusammenstellen.

PaaS bedeutet Platform as a Service. Hierbei werden dem Kunden Programmiermodelle und Entwicklerwerkzeuge zur Verfügung gestellt, mit denen Cloud-basierte Anwendungen erstellt und ausgeführt werden können.

SaaS ist die Abkürzung für Software as a Service. Diese Variante wird in der Regel von Unternehmen und Privatkunden genutzt. Der Dienstleister stellt seinen Kunden neben der Hardware und Infrastruktur zusätzlich Anwendungsprogramme, also Software zur Verfügung. Kunden eines SaaS-Anbieters müssen sich nicht um die Installation oder Updates der Software kümmern. Das können dann etwa so populäre Dienste wie der Musik-Anbieter Spotify oder auch spezialisierte Business-Software wie etwa ein Online-Dokumenten-Management sein.

Welche Vorteile bietet Cloud-Computing?

Nur ein Symbol: Die Wolke für Cloud-Computing

Nur ein Symbol: Die Wolke für Cloud-Computing

Cloud-Computing bietet für Nutzer, insbesondere Unternehmen, eine Reihe von Vorteilen. Der größte Vorteil ist der Gewinn an Flexibilität bei der Datennutzung und dem Datenaustausch. Durch eine automatische Synchronisierung der online gespeicherten Daten mit den lokal gespeicherten Daten sind alle Nutzer, egal, wo sie sich gerade aufhalten, immer auf dem gleichen Informationsstand. Hinzu kommt, dass die Investitionen in Hardware, Software und Infrastruktur im Unternehmen deutlich gesenkt werden können. Gleichzeitig reduziert sich der administrative Aufwand für die Wartung und Pflege der IT-Infrastruktur. Ein weiterer Vorteil ist der Schutz vor einem Datenverlust. Wenn zur Sicherung der Daten ein Cloud-Speicher genutzt wird, gehören Datenverluste durch defekte Festplatten etc. der Vergangenheit an.

Was ist bei der Auswahl eines Cloud-Dienstleisters zu beachten?

Immer mehr Dienstleister drängen auf den Markt und versuchen, sich einen Teil des lukrativen und zukunftsweisenden Geschäftes mit dem Cloud-Computing zu sichern. Einige Anbieter locken neue Kunden gar mit kostenlosem Speicherplatz von bis zu mehreren Gigabyte. Bei wachsendem Speicherplatzbedarf kann eine Erweiterung des Speicherplatzes gegen einen monatlich oder jährlich zu bezahlenden Betrag hinzugekauft werden.

Viel wichtiger, als die Frage nach den Kosten für den Speicherplatz ist die Frage: Wo werden die Daten gespeichert? Die Antwort auf diese Frage sollte eindeutig lauten: Auf Servern, die in einem Rechenzentrum in Deutschland stehen!

Warum? In Deutschland hat eines der strengsten Datenschutzgesetze weltweit. Bei Servern mit Standort in Deutschland ist der Zugriff auf Ihre Daten klar geregelt. Das bedeutet, nur Sie bestimmen, wer Zugriff auf Ihre Daten hat und wer nicht. Ganz anders sieht dies zum Beispiel in den USA aus.

Dort fallen Cloud-Dienste schon seit geraumer Zeit unter den sogenannten Patriot Act, dem nach dem 11. September 2001 verabschiedeten Antiterror-Gesetz der USA. Dieses Gesetz hat auch für Cloud-Nutzer aus Deutschland weitreichende Folgen für die Privatsphäre und den Datenschutz. Amerikanische Geheimdienste wie CIA oder NSA und die Bundespolizei FBI dürfen auf Ihre bei einem US-amerikanischen Cloud-Dienstleister gespeicherten Daten zugreifen. Und das ohne Ihr Wissen oder einen richterlichen Beschluss.

Auf einen bloßen Verdacht hin sind die US-amerikanischen Anbieter dazu verpflichtet, Ihre Daten den Behörden preiszugeben. Dies gilt auch für Cloud-Speicher, die zwar nicht in den USA stehen, aber von einem amerikanischen Unternehmen betrieben werden.

Fazit zum Thema Cloud-Computing:

Wenn Sie Wert auf die maximale Sicherheit Ihre Daten legen, sollten sie nur einen Cloud-Dienstleister wählen, dessen Server sich in einem Rechenzentrum in Deutschland befinden. Auch, wenn der Dienst dann vielleicht etwas mehr kostet.

Insgesamt sind die Vorteile von Cloud-Computing für mittelständische Firmen deutlich größer als die vermeindlichen Nachteile. Firmen die Cloud-Computing in Deutschland nutzen wollen sollten sie – wie bei sonstigen Entscheidungen auch – im Vorfeld ausführlich informieren und etwa Referenzen des neuen Cloud-Anbieters einholen.

Haben Sie Interesse daran zu erfahren, wie Sie mit Cloud-Computing Ihre IT-Kosten senken können. Wir beraten Sie gerne unverbindlich – Sie erreichen unser Vertriebs-Team unter +49-(0)711-4889020. Wir freuen uns auf Sie.

 

Für Unternehmen gehört die zuverlässige Verwaltung und Sicherung ihrer Datenbestände zu einer der wichtigsten Aufgaben im Betrieb der IT. Nicht selten haben Unternehmen bei einem Verlust der Daten, beispielsweise durch den technischen Ausfall von Festplatten oder Servern oder durch Zerstörung aufgrund äußerer Gewalteinwirkung und Ähnliches, einen so großen Schaden erlitten, der sogar die Weiterführung der Unternehmenstätigkeit infrage gestellt hat.

Um Kundendaten oder firmeninterne Daten ohne Risiko für Datenverluste sichern zu können, bieten IT-Dienstleister Managed Service mit einem beinhaltenden Managed Backup an. Hierbei übernimmt der Informations-Technologie-Dienstleister die tägliche zuverlässige Datensicherung für seinen Auftraggeber.

Managed Services – für mittelständische Unternehmen die sichere Wahl

Managed Backup - die clevere Alternative zur Datensicherung

Managed Backup – die clevere Alternative zur Datensicherung

Die Sicherung der empfindlichen Unternehmensdaten ist auch für kleinere oder mittelständische Unternehmen eine grundständige Basis ihrer Unternehmenstätigkeit. In früheren Zeiten wurden sogenannte „Wartungsverträge“ für die in einem Unternehmen anfallenden IT-Dienstleistungen abgeschlossen. Oftmals war ein umfassender Wartungsvertrag aber für kleinere Firmen sehr kostspielig.

Mittlerweile aber haben die Informations-Technologie-Dienstleister Ihre Service- und Wartungsleistungen den Anforderungen der verschiedenen Unternehmen angepasst und sich auch auf die Bedürfnisse von kleineren sowie mittelständischen Unternehmen eingestellt. Von einzelnen Modulen bis hin zu umfänglichen IT-Dienstleistungen stehen auch den kleineren Unternehmen Betreuungs- und Wartungsdienstleistungen zur Pflege, Verwaltung, Speicherung und Sicherung ihrer Datenbestände zur Verfügung.

Damit können sich kleinere und mittelständische Unternehmen vollständig auf den von ihnen beauftragten Dienstleister für das Management ihrer Daten und deren Pflege verlassen, ohne Angst vor einem Datenverlust zu haben.

Managed Backup als ein wichtiger Bereich eines Managed Service

Managed Backup - mehr als nur Datensicherung

Managed Backup – mehr als nur Datensicherung

Die regelmäßige Backup-Sicherung der Daten wird nach einem bestimmten Rhythmus, zumeist täglich, automatisch von dem beauftragten Dienstleister für die Informationstechnologie eines Unternehmens übernommen. Dadurch brauchen sich die Unternehmen nicht um das Erstellen der Datensicherung  kümmern und haben die Sicherheit stets auf ihre aktualisierten Daten zugreifen zu können.

Der Vorteil liegt auch darin, dass beispielsweise keine Fehler im Unternehmen durch das Zugreifen auf veraltete Datenbestände, durch die Verwendung unterschiedlich alter Datenbestände sowie ähnliche Probleme auftreten können. Zu den Aufgaben, die der Dienstleister für den Auftraggeber übernimmt, gehören beispielsweise

  • die zur Verfügungstellung von ausreichendem Speicherplatz für die Backups der Unternehmens- oder Kundendaten,
  • die zuverlässige tägliche Sicherung der Daten sowie
  • eine mindestens einmal pro Jahr durchgeführte Rücksicherung, das sogenannte Restore mit einer entsprechenden Dokumentation.

Die Daten werden in der Regel als ein sogenanntes Online-Backup gesichert. Mithilfe der in der Regel vorhandenen Internetleitung  werden die Daten direkt auf den Server des jeweiligen Rechenzentrums übertragen und dort als tägliches Backup abgelegt. Die Übertragung der Daten läuft dabei folgendermaßen ab:

  • zunächst werden die entsprechenden Daten beim Kunden auf dem Rechner oder dem Netzwerk identifiziert, das bedeutet: die entsprechenden zu sichernden Daten werden aufgrund verschiedener Kriterien, wie beispielsweise Dateinamen und Endungen aus den Datenbeständen des Kunden automatisch herausgesucht,
  • anschließend werden diese Datenbestände komprimiert – das bedeutet, sie werden in Datenpakete gepackt und in ihrem Datenvolumen verkleinert, um dann
  • mit einer sicheren Verschlüsselung versehen über eine sichere Internetleitung vom Kunden in das jeweilige Rechenzentrum gesendet und letztendlich dort gespeichert zu werden.

Weitere mögliche Dienstleistungen von Managed Services

Neben dem Managed Backup Service sind weitere mögliche Dienstleistungen von Managed Services beispielsweise:

  • Hosting Services,
  • Betreuung von Servern sowie der Infrastruktur von Netzwerken,
  • Betreuung von Einzelgeräten, wie PCs und Notebooks,
  • PC-Sicherheit oder Netzwerksicherheit und Firewalls,
  • Voice over IP bzw. Internettelefonie, Telefonieren über PC-Netzwerke,
  • VPN oder Virtuelles privates Netzwerk, wie beispielsweise die Erstellung einer manipulations- und abhörsicheren Gesprächssituation zwischen VPN-Teilnehmern mithilfe eines VPN-Protokolls und einer Verschlüsselung;
  • SSL-VPN – ermöglicht den Fernzugriff auf EDV-gestützte Ressourcen des Unternehmens, zum Beispiel für eine gemeinsame Bearbeitung und Ähnliches, mithilfe einer sicheren Verschlüsselung,
  • und weitere Fernwartungsarbeiten.

Verschiedene Bezahlmodelle für den Service der IT-Dienstleister

In den häufigsten Fällen werden für diese IT-Dienstleistungen Verträge auf einer monatlichen Basis mit regelmäßigen und fest vereinbarten Zahlungsbeiträgen abgeschlossen. Möglich sind aber auch die Erhebung von Gebühren für die beanspruchte Zeit und jeweilige Leistung oder Zahlungsmodelle, die den Service für einzelne Geräte, Netzwerke, Server oder Ähnliches anbieten. Die Dienstleister können ihren Service durch die hauptsächliche Betreuung, Wartung und Abwicklung über das Internet relativ kostengünstig anbieten.

Kostenintensive Anfahrten und Dienstleistungen bei dem jeweiligen Kunden vor Ort können so vermieden werden. Dabei ist die Beratungs- und Serviceleistung oder Qualität der Dienstleistung durch die „Fernwartung“ über das Internet nicht weniger hochwertig, als der Service vor Ort.

Dieser Managed Service kann für die Unternehmen dann eine große Zeit- und Kostenersparnis bedeuten, wie beispielsweise die freigesetzte Zeit besser für die unternehmenseigenen Aufgaben nutzen, das Personal mit anderen Tätigkeiten beauftragen oder auch einsparen zu können und Ähnliches. Da die Daten oftmals auch auf externen Servern in Rechenzentren ausgelagert werden, können zusätzliche Kosten für die Anschaffung von Terminals, Festplatten, Servern sowie für den Platz zum Aufstellen der Geräte und Weiteres vermieden werden.

Wenn Sie mehr über Managed Backup wissen möchten, so beraten wir Sie gerne. Wir freuen uns auf ihren Kontakt.

 

Nachdem der Markt für PCs in den jüngsten Jahren stagniert hat, gehen Marktforscher wie IDC nun von einer Stabilisierung des Computer-Absatzes aus. Insbesondere Firmen und gewerbliche Nutzung von PCs sollen wieder für Wachstum sorgen. Insbesondere der Trend zum Austausch von Computern in Unternehmen soll den Markt beflügeln, so Experten.

Überblick zum Markt und seiner Entwicklung

Schon seit einigen Jahren monieren Marktforscher einen schrumpfenden Absatz von PCs. Über mehrere Jahre erlebten PC-Verkäufe einen Rückgang, wobei jedoch für die folgenden Jahre von einer Trendwende ausgegangen wird. Wie das Analyseunternehmen Gartner mitteilt, wird für das Jahr 2019 ein Absatz im Gesamtvolumen von 273 Millionen Endgeräten erwartet. Dies entspricht einem leichten Zuwachs gegenüber dem Absatz von 273 Millionen Geräten.

IDC sieht Trend gebremst

So sieht ein im PC verbaute CPU von innen aus.

So sieht ein im PC verbaute CPU von innen aus.

Auch das Marktforschungsunternehmen IDC geht davon aus, dass im laufenden Jahr 2017 zunächst das Negativwachstum abgebremst wird, bevor sich der Markt 2018 stabilisieren wird. Hierbei soll ein großer Teil des Wachstums auf das Segment von Geschäfts-PCs entfallen. Bis 2019 rechnen die Marktforscher von IDC mit einem Absatz-Plus von 3,7 Prozent. Im Hinblick auf das Consumer-Segment gehen die Experten jedoch von einem weiteren Rückgang der Verkaufszahlen bis mindestens 2020 aus. Wesentliche Gründe finden sich in der Konkurrenz durch Smartphones und Tablets. Diese soll jedoch die Entwicklung der Gerätekategorie leichter und dünner Ultra-Mobiles ankurbeln. Diese Notebook-Kategorie kann den Rückgang der Verkaufszahlen klassischer Notebooks kompensieren. Schon in den vergangenen Monaten hat die wachsende Beliebtheit von Mini-Notebooks die Absatzverluste teurerer PCs kompensiert.

Die Bedeutung der Firmen-Computer

Die Marktforschung geht von einer verstärkten Austausch-Offensive von Unternehmens-PCs aus. Viele Firmen modernisieren oder stellen ihre Computer-Systeme um, was dem Absatzrückgang auf dem Consumer-Markt entgegenwirkt. Gleichzeitig bleibt zu berücksichtigen, dass Notebooks und Desktop-PCs auch unter Privatanwendern nicht verschwinden werden. Es ist nicht davon auszugehen, dass Tablets den PC verdrängen werden, da Verbraucher nicht auf den Zusatznutzen des Computers verzichten wollen. So sind etwa zahlreiche Anwendungen und Applikationen für Mobilgeräte noch nicht verfügbar. Auch sind Möglichkeiten, Monitore und Tastaturen an Smartphones anzuschließen noch in der Entwicklungsphase.

Cloud-Computing und Hardware-Austausch

Seit einigen Jahren zeigen Unternehmen eine verstärkte Tendenz zum Cloud-Computing. Hierbei greifen mehrere Mitarbeiter im Unternehmen über Cloud-Profile auf die gleichen Computer zu. Experten gehen davon aus, dass diese gemeinsame Nutzung zu einem schnelleren Verschleiß der Geräte führen wird. Die Folge wäre die Notwendigkeit eines schnelleren Austauschs der Computer.

Gleichfalls geht das Analyseunternehmen Gartner davon aus, dass sich der Markt für Handys und Smartphones weiterhin positiv entwickeln wird. Allerdings wird mit einem im Verhältnis zu den Vorjahren gebremsten Wachstum gerechnet, wie der dpa mitgeteilt wurde.