Beiträge

Mit dem englischen Begriff Virtual Desktop Infrastructure (VDI) wird eine IT-Infrastruktur zur Zentralisierung und Virtualisierung der Funktionalitäten von Desktop-Rechnern bezeichnet. Durch den Einsatz von VDI lässt sich die Ausstattung der Desktop-Clients am Arbeitsplatz wesentlich reduzieren.

Allgemeine Informationen

Das Konzept der Desktop-Virtualisierung basiert auf dem Ansatz, sämtliche Funktionalitäten eines Arbeitsplatz-Rechners über ein zentrales System, wie beispielsweise Hyper-V, zur Verfügung zu stellen. Der Anwender benötigt am Arbeitsplatz lediglich einen Client, auf dem er den virtualisierten Desktop-PC aufruft. Die Bedienung gestaltet sich dabei wie bei einem gewöhnlichen Desktop-PC. Per Tastatur und Maus wird der Client gesteuert und die Ausgabe der grafischen Anzeige erfolgt lokal über den Monitor, während sämtliche Software-Komponenten auf einem zentralen Server ausgeführt werden.

Der Anwender befindet sich an einem anderen Ort als sein virtueller Desktop-PC. Die Übertragung aller Ein- und Ausgaben zwischen dem Client und Server wird über das Netzwerk realisiert. Der Zugriff auf eine Virtual Desktop Infrastructure (VDI) ist prinzipiell sowohl über das Internet als auch über ein lokales Netzwerk möglich. Um alle Funktionalitäten performant bereitstellen zu können, muss das Netzwerk bestimmte Mindestanforderungen in Bezug auf die Bandbreite und Latenz erfüllen. Im Kontext einer Virtual Desktop Infrastructure wird der Client als Terminal und der Server als Terminal-Server bezeichnet. Die Protokolle, über die die gesamte Kommunikation realisiert wird, sind bei den meisten Systemen proprietär und unterscheiden sich von Anbieter zu Anbieter. Eines der bekannteren Protokolle ist zum Beispiel das Remote Desktop Protocol (RDP), das von Microsoft entwickelt wird.

Bekannte Systeme

Auf dem Markt gibt es eine Vielzahl von Herstellern die unterschiedliche Virtual Desktop Infrastructure-Systeme anbieten. Neben kostenpflichtigen Lösungen sind auch Open Source-Lösungen für die Virtualisierung der Desktop-Infrastruktur samt Clients erhältlich. Die bekanntesten kommerziellen VDI Systeme werden von folgenden Herstellern entwickelt:

–       HP

–       Fujitsu

–       Microsoft

–       Dell

–       Citrix

–       VMWare

–       ViewSonic

–       VXL Instruments

Frei verfügbare VDI-Lösungen auf Open Source-Basis sind beispielsweise:

–       QVD Community Edition

–       Linux Terminal Server Project

Die verschiedenen Client-Arten im Überblick

Im Rahmen einer Virtual Desktop Infrastructure können unterschiedliche Arten von Clients eingesetzt werden. Grundsätzlich werden drei verschiedene Client-Typen unterschieden. Eine eindeutige Abgrenzung zwischen den einzelnen Typen existiert jedoch nicht:

–       Zero Client

–       Thin Client

–       Thick Client

Der Zero Client

Bei dem sogenannten Zero Client handelt es sich um ein maximal abgespecktes Gerät. Zero Clients sind prinzipiell ohne Eingriff eines Administrators einsatzfähig. Eine individuelle Anpassung  des Zero Clients für den Fernzugriff ist nicht nötig. Sobald der Zero Client an das Netzwerk angebunden und mit einer Maus und Tastatur verbunden ist, kann er als virtueller Desktop eingesetzt werden. Die meisten Zero Clients setzen sich aus einem sehr kleinen Computergehäuse zusammen, das sich mit dem Monitor, der Maus und Tastatur sowie dem Netzwerk verbinden lässt. Weitere charakteristische Merkmale eines Zero Clients sind:

–       kein Konfigurationsaufwand und eine simple Administration

–       auf dem Zero Client befindet sich keine oder nur Minimalsoftware

–       aufgrund der abgespeckten Hardware sind die Anschaffungskosten geringer als bei den anderen beiden Client-Varianten

–       ein geringer Stromverbrauch

Der Thin Client

Thin Clients kommen für die Darstellung virtueller Desktops zum Einsatz. Solche Clients sind mit leistungsschwächerer Hardware ausgestattet und sind i auf die wichtigsten Komponenten zur Ausführung des virtuellen Desktops ausgerichtet. Oft werden bei solchen Geräten keine Massenspeicher oder CD-/DVD-Laufwerke eingesetzt. Da der Hauptprozessor und andere Hardwarekomponenten aufgrund der geringen Leistung wenig Wärme produzieren, arbeiten Thin Clients in der Regel ohne aktive Kühlung und  völlig geräuschlos. Dies wirkt sich äußerst positiv auf die Nutzungsdauer aus, weswegen die Hardware seltener ersetzt werden muss.

Der Thick Client

Bei einem Thick Client handelt es sich um einen voll ausgestatteten PC, auf dem ein Software-Paket zur Darstellung der virtuellen Desktop-Umgebung installiert ist. Konkret bedeutet das, dass der Thick Client sowohl über einen eigenen Desktop als auch über einen Remote-Desktop verfügt. Der wesentliche Vorteil eines solchen Clients ist, dass er sowohl für virtuelle Desktop-Anwendungen als auch für lokal betriebene Anwendungen gleichermaßen gut nutzbar ist. Ein bedeutender Nachteil spiegelt sich jedoch in der Tatsache wider, dass viele Vorteile einer VDI Infrastruktur durch den Einsatz eines Thick Clients verloren gehen.

Vorteile einer VDI Infrastruktur im Überblick

Durch den Prozess der Virtualisierung und Zentralisierung der Desktop-PCs ergeben sich zahlreiche Vorteile. Die zentrale Bereitstellung der Desktop-Services vereinfacht deren Administration und Konfiguration. Updates lassen sich auf diese Weise schnell und einfach einspielen und mit wesentlich weniger Aufwand als in traditionellen LANs durchführen. Des Weiteren können Inkompatibilitäten oder auftretende Probleme dank virtueller Server an einer zentralen Stelle analysiert und gelöst werden. Viele Bereitstellungsprozesse der Desktop-Funktionalitäten sowie Backup-Services lassen sich automatisieren und dadurch wesentlich vereinfachen.

Die bedeutendsten Vorteile einer Virtual Desktop Infrastructure ergeben sich in erster Linie durch den Einsatz weniger aufwendiger Client. Dadurch kann man auch vollwertige PCs mit Komplettausstattung verzichten, die in der Regel viel teurer als die entsprechenden Client-Lösungen sind. Darüber hinaus wird die Verflechtung zwischen Software- und Hardwareanwendungen aufgehoben, sodass ein Austausch der Clients aufgrund neuer Software- oder Hardwareanforderungen überflüssig wird. Die Clients weisen dadurch eine deutlich höhere Nutzungsdauer auf.

Bei Hardwarestörungen muss der Administrator das Problem nicht mehr lokal vor Ort beim Nutzer beheben, sondern die Probleme lassen sich an einem zentralen Server beheben. Auch das Einspielen bzw. Zurückspielen von Updates sowie das Wiederherstellen gelöschter Daten werden zentral realisiert. Da die gesamte Infrastruktur für den professionellen Einsatz ausgelegt ist, erhöht sich die Verfügbarkeit der virtuellen Clients deutlich und ist im direkten Vergleich zu traditionellen Desktops um ein Vielfaches höher. Des Weiteren sollten die Vorteile der VDI Infrastruktur auch in Sachen Ressourcenschonung sowie Energieeffizienz keinesfalls vernachlässigt werden.

Veeam ist ein IT-Unternehmen, das Ihnen insbesondere Software für die Datensicherung und ein Backup mit virtuellen Maschinen anbietet. Viele Produkte der Firma Veeam sind leicht integrierbar, wenn Sie mit den Plattformen VMware und Hyper-V arbeiten. Die Software Veeam Backup & Replication zählt zu den Highlights des Angebots. Damit sichern Sie wichtige Server-Daten.

Fakten zum IT-Unternehmen

Der russische Geschäftsmann Ratmir Timashev ist der Gründer des IT-Unternehmens Veeam, das seit 2006 existiert und mittlerweile in der Schweiz über einen Hauptsitz verfügt. Vorwiegend bietet der Softwarehersteller Ihnen Produkte für die allgemeine Datensicherung, eine Desaster Recovery und Virtualisierungsmanagement an. Veeam konzentriert sich bei der Softwareentwicklung vor allem auf Lösungen für die virtuellen Umgebungen Microsoft Hyper-V und VMware vSphere. Die Firma vereinbart mit zahlreichen Software- und Telekommunikationsunternehmen Partnerschaftsabkommen.

Überblick zu den Produkten

Für die Software Veeam Backup & Replication ist das Unternehmen besonders bekannt. Damit ist eine Datensicherung und eine Desaster-Recovery möglich. Das Produkt Veeam ONE kommt wiederum bei der Überwachung und der Berichterstellung zum Einsatz. Zudem dürfen Sie diese Software für die Kapazitätsplanung mit virtuellen Umgebungen einsetzen. Bei der Dokumentation und Automatisierung der Desaster-Recovery-Prozesse werden Sie durch das IT-Produkt Veeam Availability Orchestrator unterstützt.

Im Microsoft System Center Operations Manager ist eine Verwaltungs- und Überwachungssoftware des Herstellers integrierbar. Dabei handelt es sich um das Veeam Management Pack. Darüber hinaus entwickelt das Unternehmern für unterschiedliche Betriebssysteme eine Agent-Backup-Software. Es gibt von Veeam spezielle Agenten, die jeweils an Linux– sowie Windows-Systeme angepasst sind.

Zudem stellt das Unternehmen Ihnen einige Softwareprodukte kostenlos zur Verfügung. Hierzu zählt beispielsweise der Veeam Task Manager. Mit diesem Tool überwachen Sie die Hyper-V Performance in Echtzeit. Sobald Sie mehrere Softwarelösungen zusammen erwerben möchten, entdecken Sie oft passende Produktpakete des Entwicklers. Darunter befinden sich die Backup Essentials und die Availability Suite.

Veeam Backup & Replication für die Server-Datensicherung

Das Produkt Veeam Backup & Replication wird seit 2006 vertrieben. Als IT-Administrator erhalten Sie mit dieser Software die Gelegenheit, physische und virtuelle Server zu sichern. Üblicherweise erfolgt die Datensicherung mit Veeam Backup & Replication in den Geschäftsräumen der Kunden. Dabei kommt häufig ein Network Attached Storage (NAS) als Netzwerkspeicher zum Einsatz. Alternativ bekommen Sie mit Veeam Backup & Replication die Chance, über einen geeigneten Provider an externen Standorten ein Online-Backup erstellen zu lassen. Hierfür steht zum Beispiel auch die Biteno GmbH zur Verfügung.

Komfortable Sicherung mit Veeam

Mit der Backup-Software bietet Veeam Ihnen vor allem Lösungen für eine virtuelle Maschine. Denn der Name des Unternehmens und der gleichnamigen Programme basiert auf der Abkürzung VM. In den Virtualisierungs-Plattformen VMware und Hyper-V ist die Software besonders gut integrierbar. Nachdem Sie als IT-Administrator mit diesen Plattformen einfache Vorkehrungen getroffen haben, lässt sich ein virtueller Server durch die Veeam Produkte in der Regel effektiv und problemlos sichern.

Mit sogenannten Agenten besteht über Veeams Software in der Theorie die Möglichkeit, Sicherungen für eine unbegrenzte Server-Anzahl zu erstellen. Hierzu muss auf allen Servern vor dem Sicherungsvorgang eine Agent-Software aktiv sein. Jeder Agent schickt daraufhin die Daten zur Sicherung an den Veeam-Server.

Backup für einzelne Daten oder komplette Server am Stück

Ein entscheidender Vorteil der Veeam Software besteht für Sie darin, dass verschiedene Sicherungsvarianten umsetzbar sind. Andere Anbieter konzentrieren sich häufig auf eine bestimmte Sicherungsmethode, während Sie mit Veeams Backup-Lösungen auf unterschiedliche Situationen vorbereitet sind. Sie sparen teilweise die Kosten für eine zweite Backup-Software, weil Veeam Angebote mehrere Funktionen miteinander vereinen. Es gelingt Ihnen mit Produkten des Softwareherstellers üblicherweise ohne Probleme, einzelne Dateien zu sichern. Derartige Restores und Sicherungen sind äußerst vorteilhaft, wenn am Vortag eine Server-Datei verloren ging und eine Wiederherstellung notwendig ist.

Alternativ erhalten Sie mit Veeam-Produkten aber auch die Option, einen kompletten Server am Stück zu sichern. Diese Rücksicherung ist seltener erforderlich und zugleich im Ernstfall jedoch besonders wichtig. Sobald es an einem Standort zum Defekt des vollständigen Servers oder der IT kommt, begrenzt die vorige Datensicherung am Stück den entstandenen Schaden oft erheblich. Im absoluten Katastrophenfall sorgt eine sogenannte Desaster-Recovery normalerweise dafür, dass die Inhalte der defekten Hardware nicht dauerhaft verloren bleiben.

Vorteilhafte Kopplung mit Service-Providern und Alternativen

Durch die mögliche Kopplung zwischen einem Datenspeicher auf Veeams Service-Providern und der lokalen Datensicherung in Ihren eigenen Räumen zeigen die Softwarelösungen ebenfalls große Vorteile. Somit bekommen Sie die Gelegenheit, unter der Woche Ihre Daten zunächst an Ihrem Standort zu sichern. Darüber hinaus dürfen Sie mit der Software in regelmäßigen Zeitabständen gesicherte Daten an einen Service-Provider von Veeam in ein externes Rechenzentrum übertragen. Biteno zählt zu den Providern, die Ihnen hierbei zur Verfügung stehen.

Während der Desaster-Receovery vermeidet die regelmäßige Datensicherung in einem Rechenzentrum bei Veeams Service-Providern den dauerhaften Verlust großer Datenmengen. Wenn es tatsächlich zum Katastrophenfall kommt, steht dafür ein Notfallplan bereit. Mit der Sicherung beim Service-Provider lassen sich dann riesige Datenmengen wiederherstellen.

Während Sie zur sicheren Backup-Erstellung Anbieter mit zuverlässiger Software suchen, entdecken Sie auch mehrere Alternativen. Symantec bietet Ihnen für die Datensicherung in Unternehmen beispielsweise das Produkt Backup Exec an. Zudem entwickelt unter anderem der Softwarehersteller Acronis vergleichbare Lösungen, mit denen Sie wichtige Dateien unkompliziert sichern.

IceWarp ist ein E-Mail-Server mit zuverlässigem Schutz vor Spam und Viren. Daneben bietet IceWarp auch Groupware-Module für modernes, komfortables Teamwork: So können Ihre Mitarbeiter online auf alle Termine, Aufgaben und Kontakte zugreifen – im Browser per Desktop, Notebook oder Smartphone. WebDocuments ermöglicht das gemeinsame Arbeiten an Office-Dokumenten in der Cloud und TeamChat ist eine optimale Lösung für Webkonferenzen.

Sicherer Mailserver

Mit dem IceWarp Mailserver können Ihre Mitarbeiter Mails empfangen, lesen, verwalten und versenden. Dabei können Sie sich auf einen modernen E-Mail-Server verlassen, der sowohl Komfort als auch Sicherheit bietet.

Als Spamschutz kommen zwei Schichten zum Einsatz (erste Schicht: SpamAssassin, zweite Schicht: Online-CYREN). So werden zuverlässig unerwünschte Mails aussortiert und nahezu 100 % der Gefahren durch Spam abgewehrt.

Jede Mail, die den zweischichtigen Spamschutz passiert, wird auf Viren gescannt, welche z. B. in Links oder im Mailanhang versteckt sein können. IceWarp verwendet dafür ein auf der bewährten Kaspersky-Engine basierendes Antivirus Programm.

Mit dieser Kombination aus Spamschutz und Virenschutz wehrt der IceWarp Mailserver effektiv alle Schadprogramme ab und verhindert so, dass Spyware, Keylogger oder Ransomware auf Ihre Rechner gelangt.

IceWarp: mit vielen Optionen für modernes Teamwork

IceWarp unterstützt alle gängigen Mail-Protokolle (LDAP, POP3, SMTP, IMAP). Ihre Mitarbeiter können die bereits gewohnten Programme (Outlook, Mailbird, Thunderbird) als Client nutzen. Dafür werden alle Webmail-Dienste als Ajax-Anwendungen angeboten. Auch FTP Server können bei Bedarf aufgesetzt werden.

Ein besonderer Vorteil von IceWarp ist die Benutzerfreundlichkeit. So können Ihre Mitarbeiter Termine und Meetings im gleichen Browserfenster von Mails in den Kalender übertragen. Damit haben Sie alle wichtigen Kontakte, Aufgaben und Termine immer an einem zentralen Ort im Web gesammelt und können weltweit rund um die Uhr darauf zugreifen.

Eine interessante und nützliche Option für die Arbeit im Team: Durch individuelle Kontrolle der PIM-Daten können Sie ausgewählte Termine, Aufgaben und Notizen auch für andere Nutzer freigeben. Dies kann sinnvoll sein, wenn mehrere Mitarbeiter an dem gleichen Projekt arbeiten, Termine im geteilten Kalender gemeinsam festgelegt werden müssen, oder ein Kollege eine bestimmte Aufgabe übernehmen soll, usw.

IceWarp TeamChat

Mit TeamChat bietet IceWarp eine moderne und benutzerfreundliche Lösung für Gruppenchats, VoIP sowie Web- und Videokonferenzen. TeamChat unterstützt dabei sowohl das Screensharing als auch den Austausch von Dateien und Dokumenten und verbessert so effektiv die Kommunikation und Zusammenarbeit.

Die Funktionen von TeamChat sind bereits integriert und können ohne zusätzlichen Installationen kostenlos freigeschaltet werden. Auch ist es möglich, dass TeamChat von internen und externen User gemeinsam genutzt wird. Eine sinnvolle Option, wenn Sie bei einem internationalen Kunden online eine Präsentation halten oder Zwischenergebnisse anhand von Dokumenten diskutieren möchten, etc.

IceWarp WebDocuments

WebDocuments ist die optimale Basis für modernes Teamwork in der Cloud: Ihre Mitarbeiter können von jedem Ort und jederzeit auf alle Dokumente zugreifen und diese gemeinsam und gleichzeitig bearbeiten – vom Desktop im Büro, vom Notebook im Homeoffice oder auch mit dem Smartphone auf Reisen. Dies ermöglicht ein effektives Arbeiten aller Kollegen und erhöht so die Produktivität Ihres Teams. Dabei werden alle üblichen Formate von Microsoft Office (Word, Excel, PowerPoint) unterstützt und Ihre Mitarbeiter können über Windows oder Linux auf WebDocuments zugreifen. Bei Bedarf können auch Datenbanken wie MySQL, SQLite und Oracle verwaltet werden und selbstverständlich können Sie WebDocuments auch als Online-Speicher in der Cloud nutzen.

 

IceWarp Server

Damit Ihre Mails und Daten immer online verfügbar sind, müssen die Server rund um die Uhr im Einsatz sein. IceWarp besitzt hierfür weltweit in vielen Ländern eigene Cluster, so auch in Deutschland (Nürnberg).

Alle Verbindungen sind SSL verschlüsselt und die IceWarp Services erfüllen selbstverständlich die europäische Datenschutzgrundverordnung (DSGVO). Wie die meisten Cloud-Angebote von Biteno ist auch die Qualität der IceWarp Server durch die Standards ISO 9001 und ISO/IEC 27001 gesichert.

Durch die ebenfalls von Biteno angebotene, optionale Remote-Datensicherung sowie einem zusätzlichen Online Backup ist die Sicherheit Ihrer Daten auf lange Zeit gewährleistet.

Alternative zu Microsoft Office 365, Dropbox und Slack

Sie können die Lizenzen für die einzelnen Module unabhängig erwerben und auch die Anzahl der Nutzer kann flexibel an den Bedarf Ihres Unternehmens angepasst werden. IceWarp ist damit eine Alternative zu Office 365, Dropbox und Slack sowie zu anderen Mailservern (Postfix, Sendmail, Zimbra). Dabei kann IceWarp – insbesondere für mittelgroße Unternehmen – oft die kostengünstigere Lösung darstellen.

Der besondere Vorteil von IceWarp ist die Verfügbarkeit aller Services auf einer einzigen Plattform in einer übersichtlichen, benutzerfreundlichen Oberfläche im Browser. Diese Lösung als All-in-one Schnittstelle ist nicht nur effektiv, sondern bietet Ihren Mitarbeitern auch ein Plus an Komfort und Funktionalität, was wiederum die Produktivität Ihres Teams steigern kann.

Kein Unternehmen arbeitet heute in der Regel ohne die Unterstützung einer möglichst maßgeschneiderten IT-Infrastruktur. Doch was ist das eigentlich genau? Was gehört zu diesem Begriff und was sollte rund um die passende IT-Infrastruktur eines Unternehmens unbedingt beachtet werden? Das Wichtigste dazu bietet Ihnen dieser kompakte Überblick.

Die zwei Hauptkomponenten der IT-Infrastruktur

Das wesentliche Unterscheidungskriterium der an einer IT-Anlage eines Unternehmens beteiligten Elemente ist die Einteilung in Hardware und Software. Hardware sind alle Geräte, die die physische Ausstattung der IT betreffen. Das sind zum einen physische Server und die Rechner des Unternehmens, aber auch alle Ein- und Ausgabegeräte wie Tastatur, Maus, Monitor und Drucker. Auch die mobilen Endgeräte eines Unternehmens, beispielsweise Smartphones, Tablets und Netbook, zählen zur IT-Infrastruktur. Dies alles kann nur funktionieren, wenn eine Software installiert ist. Sie ist das zweite wichtige Element in der betrieblichen IT. Softwareprodukte sind zum Beispiel das Betriebssystem der Rechner und die bedarfsgerechten Anwendungen für die Anforderungen der Nutzer. Auch CRM- und ERP-Programme sowie Antivirenschutz zählen zum Softwarebereich der IT-Infrastruktur.

Das Netzwerk Ihres Unternehmens

Wenn eine gute funktionierende IT-Infrastruktur mit hoher Professionalität und passgenauem Praxisbezug geschätzt wird, ist immer wichtig, dass Hard- und Softwareprodukte bedarfsgerecht ausgewählt, installiert und konfiguriert werden. Das Zusammenspiel der einzelnen Bestandteile im Rahmen eines soliden und geschützten Netzwerks spielt für das Unternehmen und seine Anforderungen eine wichtige Rolle.

Zwei Beispiele dieser Zusammenarbeit im Netzwerk sollen der Veranschaulichung dienen. Ein Beispiel ist das CRM, das Customer Relationship Management. Bei diesen Programmen werden alle Kundenkontakte nicht nur lückenlos dokumentiert, sondern unternehmensintern auch all denjenigen verfügbar gemacht, die diese benötigen. So ist es insbesondere möglich, eine Kundenanfrage auch dann professionell und präzise zu betreuen, wenn der zuständige Sachbearbeiter im Urlaub sein sollte. Ein zweites Beispiel ist das Bestandsmanagement in einem Betrieb. So kann mittels eines gut ausgebauten Netzwerks ein Außendienstmitarbeiter mit dem Smartphone die Auskunft aus der IT erhalten, ob ein bestimmter Artikel, für den sich der Kunde interessiert, auf Lager ist.

Zentraler Datenabruf und Datenspeicherung

Bei einer modernen IT-Infrastruktur ist der zentrale Datenzugriff oft besonders wichtig. Die obigen Beispiele demonstrieren das. Die Daten, die in einem Unternehmen gespeichert, aufbewahrt, geändert und verarbeitet werden, haben hohe Volumina. Das bedeutet, dass die Speicherkapazitäten klassischer Server oft überlastet sind. Denn alle Unternehmensprozesse von der Angebotserstellung über die Produktionsabwicklung bis zu Werbung und Verkauf werden heute IT-basiert abgewickelt. Es ist häufig sinnvoll, die internen Rechnerkapazitäten durch ein effizientes Outsourcing zu entlasten. So ist es möglich, physische und virtuelle Server zu mieten, Switches zu integrieren oder die modernen Cloudlösungen dazu zu nutzen, die eigene IT-Infrastruktur optimal zu ergänzen. All diese Möglichkeiten schonen nicht nur die eigenen Kapazitäten des Unternehmens. Sie können auch einen zentralen und bedarfsgerechten Datenzugriff ermöglichen.

Sicherheit ist das A und O bei der IT-Infrastruktur

Eine IT-Infrastruktur ist eine moderne Errungenschaft, die für Ihr Unternehmen mit einer ganzen Reihe von überzeugenden Vorteilen verknüpft ist. Doch gibt es dadurch natürlich auch ein Datenrisiko. Zum einen kann ein Datenverlust durch einen Software- oder Hardwarefehler verursacht sein. Typisch sind die geschrottete Festplatte oder der Blitzeinschlag, der die Serverdaten löscht. Auch ein Virus kann die Daten des Unternehmens löschen. Zum anderen sind es aber auch die Hackerangriffe, die beispielsweise Kundendaten oder Konkurrenzdaten sammeln. Deshalb gehört zu jeder modernen IT-Infrastruktur auch ein professioneller Schutz. Dieser wird durch die Firewall von Rechnern und Servern, aber auch spezielle Antivirenprogramme umgesetzt.

Einen kompetenten IT-Dienstleister beauftragen

Wenn ein Unternehmen keine Professionalität in Sachen IT-Infrastruktur in den eigenen Reihen besitzt, ist es wichtig, sich diese heute unverzichtbare Unterstützung durch Experten von außen zu holen. Ein IT-Dienstleister hat die Expertise, die IT-Infrastruktur eines Unternehmens bedarfsgerecht zu erstellen, zu konfigurieren und bezüglich individueller und sich oft ändernder Anforderungsprofile kompetent zu skalieren. Im Rahmen einer öffentliche IT-Infrastruktur wird die Hard- und Software beim gewählten Anbieter beauftragt, gewartet und auch repariert.

Ein wichtiger Vorteil, den ein solches Arrangement hat: Diese IT-Infrastruktur wird durch den IT-Dienstleister konsequent mit spezieller Softwareprodukten überwacht. Dieses Monitoring ist wertvoll, weil es reibungslos funktionierende Betriebsabläufe und die Sicherheit der IT-Infrastruktur nachhaltig umsetzen kann. Für ein Unternehmen bedeutet das, dass es sich ganz auf seine Kernkompetenzen konzentrieren kann.

Insbesondere bei der Datensicherheit werden IT-Dienstleister immer mehr geschätzt. Seit dem Inkrafttreten der DSGVO am 25. Mai 2018 ist Datensicherung ein wichtiges Thema. Die Nichtbeachtung der komplexen Regelungen der Europäischen Union sind unangenehm. Da viele Datenschutzlecks und Sicherheitslücken in der IT-Infrastruktur der Unternehmen vorhanden sind, ist es die Tendenz, für die Sicherheit die IT-Experten zu beauftragen. Oft ist dies mit Cloud-Lösungen verbunden, die bei Datencrash durch Backups die Daten in aller Regel wiederherstellen können.

 

 

Im Bereich der IT wird mit dem Begriff „Monitoring“ die kontinuierliche Überwachung oder Kontrolle von IT-Systemen auf ihre einwandfreie Funktionalität bezeichnet. Um Ergebnisse zu vergleichen oder auszuwerten muss Monitoring systematisch und regelmäßig durchgeführt werden. Im Rahmen moderner Informationssysteme gehören diese Prozesse zu den wichtigsten Aufgaben von Netzwerk- und Systemadministratoren.

Allgemeine Informationen zum Monitoring

Für die reibungslose Funktionalität einer IT-Infrastruktur müssen IT-Administratoren sicherstellen, dass sich alle beteiligten Komponenten innerhalb ihrer normalen Parameter bewegen. Diese Parameter werden durch Monitoring ermittelt, also durch die regelmäßige und systematische Überwachung relevanter Indikatoren. Früher wurden oft nur die reinen Performance-Parameter erfasst, wie zum Beispiel:

–       die Auslastung der CPU bei einer Datenbanktransaktion

–       der Speicherverbrauch bei einer Client-Anfrage

–       die Zeit, die der Server braucht, um eine Anfrage zu beantworten

Heutzutage umfasst Monitoring jedoch sämtliche Bereiche der IT, wie beispielsweise:

–       Sicherheit

–       Nutzerverhalten

–       Verfügbarkeit

Ziele

Im obigen Absatz haben wir das Ziel aller Prozesse bereits mit der „reibungslosen Funktionalität“ definiert. Grundsätzlich handelt es sich dabei um die Ermittlung der Ursachen, die direkt oder indirekt dafür verantwortlich sind, System-Parameter außerhalb der erwünschten Grenzen zu erzeugen. Dabei wird Monitoring eingesetzt, um:

–       das Problem möglichst früh zu identifizieren, sodass es beseitigt werden kann, bevor größere Schäden entstehen können

–       die Ursache des Problems ausfindig zu machen und zu lokalisieren

–       durch das Beseitigen auftretender Probleme Früherkennungsmaßnahmen zu optimieren, sodass künftige Probleme besser erkannt und behoben werden können

Falls ein System innerhalb der normalen Parameter funktioniert, können Maßnahmen beispielsweise auch eingesetzt werden, um die zukünftige Nutzung zu planen. Hat eine Webapp beispielsweise über das vergangene Jahr hinweg nur 60 Prozent ihrer CPU genutzt, lässt sich etwa ein physikalischer Server mit weniger Leistung betreiben.

Methoden und Verfahren

In Bezug auf den Betrachtungszeitraum der im Rahmen des Monitorings erfassten Informationen können zwei Vorgehensweisen unterschieden werden, und zwar:

–       Das sogenannte „Historical Monitoring“, das primär bei der automatischen Erzeugung von Langzeitstatistiken zu IT-Diensten eingesetzt wird. Diese Art ermöglicht u. a. die Kapazitätsplanung anhand der Wachstumsraten innerhalb einer bestimmten Zeitperiode, Rechenauslegung oder die Planung des Budgets. Darüber hinaus sind derartige Datensätze oft gute Indikatoren für systematische Verfügbarkeitsprobleme und entsprechende Lösungen solcher Probleme. Bei dieser Vorgehensweise arbeitet der IT-Administrator proaktiv.

–       Das sogenannte „Real-Time Monitoring“ ist eher reaktiv ausgelegt. Durch die kontinuierliche und systematische Überwachung der Funktionalitäten sämtlicher Dienste sollen Ausfälle schnellstmöglich identifiziert werden und die IT-Verantwortlichen in Kenntnis gesetzt werden. Im Idealfall werden auftretende Probleme identifiziert, bevor der Nutzer etwas davon merkt.

Hohe Verfügbarkeit und niedrige Ausfallraten

Im Rahmen des aktiven Monitorings versuchen dedizierte Systeme das Problem vorübergehend zu beseitigen. Dabei wird jedoch nur die Symptomatik und nicht die eigentliche Ursache des Problems eliminiert. Darüber hinaus ist für viele auftretende Probleme eine solche Vorgehensweise gar nicht möglich, wie beispielsweise bei einem Serverausfall. Ein wesentlicher Nachteil des aktiven Monitorings ist, dass in der Regel ein privilegierter Zugriff auf Dienste und Systeme benötigt wird, was einen erhöhten Risikofaktor darstellt.

Bei dem sogenannten „durchgängigen Monitoring“ wird hingegen das gesamte System inklusive aller relevanten Parameter und Dienste kontinuierlich überwacht. Dies benötigt jedoch eine hohe Disziplin aller IT-Mitarbeiter: Wenn beispielsweise ein neues Gerät oder ein neuer Server in das Netzwerk integriert wird, darf man nicht vergessen, diesen in das Monitoring einzubinden. Des Weiteren erzeugt diese Form des Monitorings eine gigantische Datenmenge, deren gezielte Analyse viel Zeit in Anspruch nehmen kann.

Unterschiedliche Anwendungen

Im Rahmen des sogenannten „End-to-End-Monitoring“ beschränkt sich die Messung auf die Funktionalität eines einzelnen Dienstes. Wenn beispielsweise ein Kunde in einem Webshop, wie Amazon, einkaufen möchte, dann wird die vollständige Transaktion eines Dienstes gemessen und ausgewertet. Bei dieser Vorgehensweise steht das sogenannte „Application Response Time Monitoring“ im Fokus. Damit lässt sich die exakte Antwortzeit einer Webanwendung ermitteln und ob diese in einer akzeptablen Zeit erfolgt.

Im Rahmen des externen wird ein dediziertes Gerät an das Netzwerk angeschlossen, während beim internen auf ein solches Gerät verzichtet wird. Weitere Bezeichnungen für diese Vorgehensweise sind aktives und passives Monitoring. Im Rahmen des aktiven Monitorings werden noch zusätzlich Pakete an das Netzwerk gesendet, während beim passiven lediglich „mitgehört“ wird.

Monitoring Tools

Die Prozesse finden in der IT in Form zahlreicher Tools Unterstützung. Es ist sind eine Vielzahl kommerzieller als auch Open Source-Produkt erhältlich, die jeweils auf unterschiedliche Einsatzszenarien in unterschiedlichen Umgebungen ausgerichtet sind. Nicht jedes Werkzeug eignet sich für jede Netzwerkinfrastruktur und jedes Verfahren gleichermaßen. Einige Tools verfügen über zahlreichen Funktionen und Features, während andere auf spezialisierte Aufgaben ausgerichtet sind. Bei der Auswahl eines solchen Werkzeugs sollten also die eigenen Anforderungen und Bedürfnisse beachtet werden. Welche Funktionen und Features benötigt werden, hängt von folgenden Faktoren ab:

–       Anforderungen der Netzwerkinfrastruktur

–       Benötigte Alarmmeldungen

–       Auf welche Art und Weise sollen Alarmmeldungen gesendet werden?

–       Welcher Monitoring-Typ ist erforderlich?

 

Unter dem Begriff WannaCry versteht man eine äußerst potente Schadsoftware, die im Mai 2017 großflächig aufgetreten ist und primär Computer mit den beiden Betriebssystemen Windows 7 und Windows XP befallen hat. WannaCry orientiert sich in der Funktionsweise an einer klassischen Ransomware: Die Schadsoftware verschlüsselt die Festplatten inklusive aller Daten des befallenen Rechners mit einer leistungsstarken Verschlüsselung und fordert von dem Anwender Lösegeld für die Entschlüsselung der Daten. Das Besondere an WannaCry war, dass die Ransomware mit der Funktionalität eines Computerwurms ausgestattet war, wodurch sie sich binnen kürzester Zeit weltweit auf Millionen von Rechnern verbreiten konnte.

Allgemeine Informationen zu WannaCry

Am 12. Mai 2017 wurde eine weltweite massenhafte Infektion von Windowscomputern durch einen neuartigen Computervirus registriert. Innerhalb von nur 24 Stunden waren weltweit mehr als 230.000 Windowsrechner betroffen. Neben vielen privaten Computern, auf denen die beiden Betriebssysteme Windows 7 und Windows XP installiert waren, waren auch viele Unternehmen, Regierungsbehörden, Industrieanlagen sowie kritische Infrastrukturen betroffen. Diese Ransomware wird im Allgemeinen als WannaCry bezeichnet, ist jedoch auch unter folgenden Namen bekannt:

–     WannaCrypt

–     WCrypt

–     WCRY

–     Wana Decryptor 2.0

Ransomware stellt eine spezielle Untergruppe von Schadsoftware dar und kommt im Bereich der Cyberkriminalität schon seit Jahren äußerst erfolgreich zum Einsatz. Während die bisherigen Ransomware-Angriffe in der Regel vereinzelt durchgeführt wurden und vorwiegend einzelne Unternehmen, Organisationen oder Privatpersonen gezielt ins Visier der Hacker genommen wurde, hebt sich WannaCry durch seine aggressive Weiterverbreitung deutlich von den bisherigen Hackerangriffen ab. Neben der reinen Ransomware-Funktionalität kommt im Rahmen von WannaCry auch ein potenter Wurmvirus zum Einsatz. Dieser nutzt gezielt den Windows Exploit „EternalBlue“ in Kombination mit dem Backdoor-Tool „DoublePulsar“, um sich selbständig weiterzuverbreiten.

Funktionsweise von WannaCry

Nachdem WannaCry auf ein anfälliges System kopiert wurde, wird zunächst eine Verbindung zu der sogenannten „Killswitch-URL“ aufgebaut. Falls die Domain nicht aktiv ist, wird der sogenannte Dropper aktiviert, der für die Installation der Ransomware zuständig ist. Danach kreiert die Malware einen Service mit der Bezeichnung „mssecsvc2.0“, der den Displaynamen „Microsoft Security Center 2.0“ erhält. Dieser scannt bei der ersten Gelegenheit zuerst das lokale Netzwerk und danach auch das Internet nach weiteren potenziellen Computern mit der Vulnerability „EternalBlue“. Über diese Funktionalität wird die rasend schnelle Verbreitung der Schadsoftware gewährleistet.

Im nächsten Schritt extrahiert der zuvor aktivierte Dropper die eigentliche WannaCry-Ransomware und führt diese aus. Auch die Ransomware prüft zuerst, ob eine Killswitch-URL vorhanden ist. Nur falls diese nicht gefunden wird, geht es mit dem nächsten Schritt weiter.

Nachfolgend gewährt sich WannaCry vollen Zugriff auf alle sich auf dem Rechner befindenden Dateien und setzt alle Attribute der Dateien auf „versteckt“. Danach werden alle Dateien mit einem komplexen Verschlüsselungsalgorithmus verschlüsselt und mit der Dateiendung „.WNCRY“ bestückt. Dabei wird in jedem Ordner eine „ReadMe.txt“-Datei erstellt, welche die genauen Anweisungen für die Zahlung des Lösegelds beinhaltet. Zusätzlich wird ein Registry-Eintrag angelegt, der nach Abschluss der Verschlüsselung alle lokalen Backups und Systemstände entfernt.

Zuletzt ersetzt die Schadsoftware das aktuelle Desktop-Hintergrundbild durch eine Benachrichtigung und startet einen Timer und Anweisungen für die Lösegeldzahlung.

Betroffene Unternehmen und Einrichtungen

Der Hackerangriff betraf mehrere global agierende Unternehmen und Organisationen. Nach aktuellem Stand kam es u.a. bei folgenden Einrichtungen und Unternehmen aufgrund einer Infektion mit der Ransomware zu Störungen und Betriebsausfällen:

–     Telefonica (spansicher Telekommunikationskonzern)

–     National Health Service (das staatliche Gesundheitssystem in Großbritannien und Nordirland)

–     Renault (französischer Automobilkonzern)

–     Fedex (weltweit agierendes Logistikunternehmen aus den USA)

–     PetroChina (chinesischer Ölkonzern)

Darüber hinaus waren tausende Computer des russischen Innenministeriums, des Katastrophenschutzministeriums sowie des Telekommunikationskonzerns MegFon betroffen. In Deutschland waren bei der Deutschen Bahn rund 450 Computer mit der Ransomware infiziert, was u.a. zum Ausfall von Anzeigetafeln an vielen Bahnhöfen und Videoüberwachungssystemen deutschlandweit führte.

Schutzmaßnahmen gegen Ransom Software

Neben dem Einspielen aktueller Sicherheitspatches für das Betriebssystem und installierte Anwendungen wird der Einsatz einer guten Sicherheitslösung wie beispielsweise ESET empfohlen. Aber auch ein kostenloser Virenschutz bietet ein ausreichendes Maß an Sicherheit gegen Ransomware-Angriffe. Es sollte jedoch beachtet werden, dass manche Antivirenprogramme den Zugriff auf die Killswitch-URL automatisch blockieren, weil sie den erhöhten Datenverkehr für auffällig erachten. Dies ist kontraproduktiv, da sich die Ransomware aufgrund fehlender Aktivierung des Notausschalters in diesem Fall unkontrolliert weiterverbreitet.

Des Weiteren können durch den Einsatz einer Firewall die TCP-Ports 137, 139, 445, 3389 sowie die UDP-Ports 137 und 138 blockiert werden, um ein Eindringen der zurzeit häufigsten Variante des WannaCry-Schädlings zu unterbinden.