Im Bereich der IT wird mit dem Begriff „Monitoring“ die kontinuierliche Überwachung oder Kontrolle von IT-Systemen auf ihre einwandfreie Funktionalität bezeichnet. Um Ergebnisse zu vergleichen oder auszuwerten muss Monitoring systematisch und regelmäßig durchgeführt werden. Im Rahmen moderner Informationssysteme gehören diese Prozesse zu den wichtigsten Aspekten von Netzwerk- und Systemadministratoren.

Allgemeine Informationen zum Monitoring

Für die reibungslose Funktionalität einer IT-Infrastruktur müssen IT-Administratoren sicherstellen, dass sich alle beteiligten Komponenten innerhalb ihrer normalen Parameter bewegen. Diese Parameter werden durch Monitoring ermittelt, also durch die regelmäßige und systematische Überwachung relevanter Indikatoren. Früher wurden oft nur die reinen Performance-Parameter erfasst, wie zum Beispiel:

–       die Auslastung der CPU bei einer Datenbanktransaktion

–       der Speicherverbrauch bei einer Client-Anfrage

–       die Zeit, die der Server braucht, um eine Anfrage zu beantworten

Heutzutage umfasst Monitoring jedoch sämtliche Bereiche der IT, wie beispielsweise:

–       Sicherheit

–       Nutzerverhalten

–       Verfügbarkeit

Ziele

Im obigen Absatz haben wir das Ziel aller Prozesse bereits mit der „reibungslosen Funktionalität“ definiert. Grundsätzlich handelt es sich dabei um die Ermittlung der Ursachen, die direkt oder indirekt dafür verantwortlich sind, System-Parameter außerhalb der erwünschten Grenzen zu erzeugen. Dabei wird Monitoring eingesetzt, um:

–       das Problem möglichst früh zu identifizieren, sodass es beseitigt werden kann, bevor größere Schäden entstehen können

–       die Ursache des Problems ausfindig zu machen und zu lokalisieren

–       durch das Beseitigen auftretender Probleme Früherkennungsmaßnahmen zu optimieren, sodass künftige Probleme besser erkannt und behoben werden können

Falls ein System innerhalb der normalen Parameter funktioniert, können Maßnahmen beispielsweise auch eingesetzt werden, um die zukünftige Nutzung zu planen. Hat eine Webapp beispielsweise über das vergangene Jahr hinweg nur 60 Prozent ihrer CPU genutzt, lässt sich etwa ein physikalischer Server mit weniger Leistung betreiben.

Methoden und Verfahren

In Bezug auf den Betrachtungszeitraum der im Rahmen des Monitorings erfassten Informationen können zwei Vorgehensweisen unterschieden werden, und zwar:

–       Das sogenannte „Historical Monitoring“, das primär bei der automatischen Erzeugung von Langzeitstatistiken zu IT-Diensten eingesetzt wird. Diese Art ermöglicht u. a. die Kapazitätsplanung anhand der Wachstumsraten innerhalb einer bestimmten Zeitperiode, Rechenauslegung oder die Planung des Budgets. Darüber hinaus sind derartige Datensätze oft gute Indikatoren für systematische Verfügbarkeitsprobleme und entsprechende Lösungen solcher Probleme. Bei dieser Vorgehensweise arbeitet der IT-Administrator proaktiv.

–       Das sogenannte „Real-Time Monitoring“ ist eher reaktiv ausgelegt. Durch die kontinuierliche und systematische Überwachung der Funktionalitäten sämtlicher Dienste sollen Ausfälle schnellstmöglich identifiziert werden und die IT-Verantwortlichen in Kenntnis gesetzt werden. Im Idealfall werden auftretende Probleme identifiziert, bevor der Nutzer etwas davon merkt.

Hohe Verfügbarkeit und niedrige Ausfallraten

Im Rahmen des aktiven Monitorings versuchen dedizierte Systeme das Problem vorübergehend zu beseitigen. Dabei wird jedoch nur die Symptomatik und nicht die eigentliche Ursache des Problems eliminiert. Darüber hinaus ist für viele auftretende Probleme eine solche Vorgehensweise gar nicht möglich, wie beispielsweise bei einem Serverausfall. Ein wesentlicher Nachteil des aktiven Monitorings ist, dass in der Regel ein privilegierter Zugriff auf Dienste und Systeme benötigt wird, was einen erhöhten Risikofaktor darstellt.

Bei dem sogenannten „durchgängigen Monitoring“ wird hingegen das gesamte System inklusive aller relevanten Parameter und Dienste kontinuierlich überwacht. Dies benötigt jedoch eine hohe Disziplin aller IT-Mitarbeiter: Wenn beispielsweise ein neues Gerät oder ein neuer Server in das Netzwerk integriert wird, darf man nicht vergessen, diesen in das Monitoring einzubinden. Des Weiteren erzeugt diese Form des Monitorings eine gigantische Datenmenge, deren gezielte Analyse viel Zeit in Anspruch nehmen kann.

Unterschiedliche Anwendungen

Im Rahmen des sogenannten „End-to-End-Monitoring“ beschränkt sich die Messung auf die Funktionalität eines einzelnen Dienstes. Wenn beispielsweise ein Kunde in einem Webshop, wie Amazon, einkaufen möchte, dann wird die vollständige Transaktion eines Dienstes gemessen und ausgewertet. Bei dieser Vorgehensweise steht das sogenannte „Application Response Time Monitoring“ im Fokus. Damit lässt sich die exakte Antwortzeit einer Webanwendung ermitteln und ob diese in einer akzeptablen Zeit erfolgt.

Im Rahmen des externen wird ein dediziertes Gerät an das Netzwerk angeschlossen, während beim internen auf ein solches Gerät verzichtet wird. Weitere Bezeichnungen für diese Vorgehensweise sind aktives und passives Monitoring. Im Rahmen des aktiven Monitorings werden noch zusätzlich Pakete an das Netzwerk gesendet, während beim passiven lediglich „mitgehört“ wird.

Monitoring Tools

Die Prozesse finden in der IT in Form zahlreicher Tools Unterstützung. Es ist sind eine Vielzahl kommerzieller als auch Open Source-Produkt erhältlich, die jeweils auf unterschiedliche Einsatzszenarien in unterschiedlichen Umgebungen ausgerichtet sind. Nicht jedes Werkzeug eignet sich für jede Netzwerkinfrastruktur und jedes Verfahren gleichermaßen. Einige Tools verfügen über zahlreichen Funktionen und Features, während andere auf spezialisierte Aufgaben ausgerichtet sind. Bei der Auswahl eines solchen Werkzeugs sollten also die eigenen Anforderungen und Bedürfnisse beachtet werden. Welche Funktionen und Features benötigt werden, hängt von folgenden Faktoren ab:

–       Anforderungen der Netzwerkinfrastruktur

–       Benötigte Alarmmeldungen

–       Auf welche Art und Weise sollen Alarmmeldungen gesendet werden?

–       Welcher Monitoring-Typ ist erforderlich?

 

Das Bundesamt für Sicherheit in der Informationstechnik ist eine deutsche Bundesbehörde, die Sie bei Fragen zur IT-Sicherheit unterstützt. Während das BSI in Einrichtungen des Staats aktiv Schutzmaßnahmen ergreift, profitieren die Gesellschaft und die Wirtschaft insbesondere von Informationen sowie Handlungsempfehlungen der Behörde. Unternehmen nutzen die Vorgaben und Standards der Organisation, um sich beim Business Continuity Planning auf IT-Notfälle vorzubereiten.

BSI: Förderung der IT-Sicherheit in Staat, Wirtschaft und Gesellschaft

Unter der Aufsicht des Bundesinnenministeriums trägt das BSI mit rund 1.000 Mitarbeitern als Bundesbehörde die Verantwortung für Deutschlands IT-Sicherheit. Durch Fördermaßnahmen erleichtert die Behörde Ihnen einen sicheren Einsatz von Kommunikations- und Informationstechnologie. Diese Hauptaufgabe nimmt das BSI für den Staat, die Wirtschaft und die Gesellschaft wahr. Mit Mindeststandards, Leitlinien und Handlungsempfehlungen entwickelt die Bundesbehörde hierzu klare Kriterien. Darüber hinaus ist das BSI direkt für die IT-Sicherheit der deutschen Bundesverwaltung zuständig. Daher sind die Erkennung und die Abwehr eines Hacker-Angriffs auf Regierungssysteme unmittelbare Pflichten der Behörde. Die Bekämpfung der entdeckten Exploits, Viren und Bedrohungen koordiniert die Organisation im nationalen Cyber-Abwehrzentrum.

Sensibilisierung von Unternehmen und Bürgern durch BSI Informationen

Als IT-Sicherheitsbeauftragter oder einfacher Angestellter in einem Unternehmen profitieren Sie ebenso wie private Verbraucher von den regelmäßigen Empfehlungen zur IT-Sicherheit, die das BSI veröffentlicht. Denn eine zentrale Aufgabe der deutschen Bundesbehörde besteht darin, die Wirtschaft und die Bürger mit Informationen über Sicherheitsschwachstellen zu sensibilisieren. Das BSI macht Sie mit Hinweisen auf ein verbreitetes Exploit, Viren oder sonstige Angriffe durch Hacker frühzeitig auf die Vulnerability von Systemen aufmerksam. Mit diesen Ratschlägen gelingt es IT-Sicherheitsbeauftragten auch, sich beim Business Continuity Planning frühzeitig auf IT-Notfälle vorzubereiten und ohne unnötigen Zeitverlust im Ernstfall zu reagieren. Allgemeine BSI-Empfehlungen helfen Ihnen außerdem zum Beispiel dabei, ein sicheres Passwort anzulegen.

IT-Grundschutz mit Standardschutzmaßnahmen als Empfehlungen zur IT-Sicherheit

Bis 2017 aktualisierte die Bundesbehörde jährliche die sogenannten IT-Grundschutz-Kataloge. Danach ersetzte das BSI die Kataloge mit einem IT-Grundschutz-Kompendium. Wenn Sie verbreitete IT-Systeme nutzen, finden Sie in diesen Veröffentlichungen hilfreiche Empfehlungen mit Standardschutzmaßnahmen. Mit dem IT-Grundschutz veranschaulicht das BSI Methoden zur Steigerung der IT-Sicherheit in Firmen, die teilweise auch für Anfänger umsetzbar sind. Ein IT-Sicherheitsbeauftragter erhält durch das IT-Grundschutz-Kompendium die Möglichkeit, mit umfassenden Maßnahmen ein System gegen Hacker und Exploits weitgehend abzusichern. Insgesamt beinhalten die BSI-Hinweise zum IT-Grundschutz rund 5.000 Seiten. Somit bilden die Informationen eine nützliche Grundlage für den Umgang mit der Vulnerability von Computersystemen und die Verbesserung der Business Continuity.

BSI Zertifizierungen für Unternehmen mit geprüften IT-Produkten und Dienstleistungen

Das BSI gibt Ihnen die Chance, als Unternehmer Zertifizierungen zu erlangen und damit die Durchführung der Maßnahmen zum Schutz vor Hacker-Angriffen oder sonstigen Bedrohungen nachzuweisen. Wichtige Zertifizierungen vergibt die Bundesbehörde beispielsweise für die Umsetzung der Standardmaßnahmen aus dem IT-Grundschutz-Kompendium. Hierzu müssen Sie laut den BSI-Vorgaben einen zertifizierten IT-Grundschutz-Auditor um ein Testat-Verfahren bitten. Dabei wird überprüft, ob ein IT-System die Anforderungen des IT-Grundschutzes erfüllt. Im Anschluss an eine erfolgreiche Prüfung stellt der Auditor ein Testat aus. Das BSI verleiht im Erfolgsfall ein Testat-Logo mit einer befristeten Gültigkeit, das die jeweilige Institution im Zusammenhang mit den geprüften Systemen öffentlich verwenden darf.

Für die Überprüfung von IT-Produkten und Systemen sind vor einer Zertifizierung immer unabhängige Prüfstellen mit einer Anerkennung durch das BSI verantwortlich. Die Bundesbehörde stellt sicher, dass die Produktprüfungen mit einheitlichen Kriterien objektiv und unparteiisch durchgeführt werden. Mit BSI-Zertifikaten haben Sie in einem Unternehmen die Gelegenheit, das Sicherheitsniveau von Ihren Produkten transparent darzustellen.

Wenn Sie ein Verbraucher sind, stellen die Produktzertifizierungen wiederum eine nützliche Entscheidungshilfe dar. Die Zertifikate machen deutlich, ob ein IT-Produkt Ihnen in einem bestimmten Einsatzbereich Sicherheit bietet. Außerdem informieren öffentliche BSI-Hinweise Sie häufig darüber, wie Sie bei der Verwendung von zertifizierten IT-Lösungen die IT-Sicherheit selbst steigern und sich dadurch unter anderem vor einem Exploit oder Hacker-Angriffen schützen.

Kooperation mit Bitkom und Betreibern von kritischen Infrastrukturen

Das BSI kooperiert eng mit dem Branchenverband Bitkom, der für die Telekommunikations- und Informationsbranche in Deutschland zuständig ist. Durch diese Zusammenarbeit ist 2012 auch die Allianz für Cybersicherheit entstanden. Mit Partner-Unternehmen und tausenden Institutionen tauscht das Bündnis Daten über neue Hacker-Methoden aus. Die Allianz für Cybersicherheit ermöglicht dem BSI daher die Bereitstellung zusätzlicher Informationen, von denen Sie als IT-Sicherheitsbeauftragter oder einfacher Unternehmer insbesondere beim Business Continuity Planning profitieren. Zudem unterstützt die Bundesbehörde über das Kooperationsgremium UP KRITIS Betreiber der kritischen IT-Infrastrukturen, die für eine funktionierende Gesellschaft unverzichtbar bleiben. Dabei steht insbesondere die Vulnerability von unentbehrlichen Systemen im Blickpunkt.

Bei Social Engineering handelt es sich um einen Oberbegriff, mit dem eine Vielzahl unterschiedlicher sozialer Manipulations- und Betrugstechniken beschrieben wird. Diese Methoden zielen in erster Linie darauf aus, den gutgläubigen Menschen als „Schwachstelle“ auszunutzen. Social Engineering ist keine neue Technik. Sie wurde schon lange vor dem Aufkommen des World Wide Web in Zusammenhang mit sensiblen Informationen angewandt.

Allgemeine Informationen zu Social Engineering

Heutzutage stellen insbesondere Unternehmen aufgrund ihrer kostbaren Daten ein äußerst beliebtes Angriffsziel für Social Engineering-Attacken dar. In diesem Kontext kommen in der Regel folgende Techniken zum Einsatz:

–       Baiting

–       Phishing

–       CEO-Fraud

Mit diesen Angriffen versuchen Hacker die Schwachstelle „Mensch“ auszunutzen, um sich unerlaubten Zugriff zu sensiblen Informationen zu verschaffen. Aufgrund des speziellen Charakters dieser Angriffe, stoßen viele Antiviren– und Malware-Programme an ihre Grenzen, da es keinen Exploit oder keinen Virus gibt, der mit einer Sicherheits-Software eliminiert werden könnte. Schulungen der Mitarbeiter und ein Bewusstsein für diese potenzielle Gefahrenquelle sind die wichtigsten Voraussetzungen, um diese Form der Cyber-Kriminalität zu unterdrücken.

Begriffserklärung Social Engineering

Die Methoden und Techniken des Social Engineering zielen als sogenannte „soziale Beeinflusstechniken“ auf den Faktor Mensch ab. Die unterschiedlichen Arten und Formen des Betrugs werden sowohl im Online- als auch im Offline-Bereich seit Jahrzehnten äußerst erfolgreich eingesetzt. In der modernen Verwendung des Begriffs „Social Engineering“ werden damit jedoch die verschiedenen Formen der Cyber-Kriminalität bezeichnet. Sowohl Privatpersonen als auch internationale Großunternehmen sehen sich mit immer raffinierteren Methoden der sozialen Manipulation konfrontiert. All diese Methoden teilen sich die Gemeinsamkeit, dass sie explizit die menschliche Willensschwäche bzw. die Naivität ahnungsloser Mitarbeiter ausnutzen. Einige bekannte Beispiele hierfür sind:

–       E-Mail Phishing

–       Voice Phishing

Mit diesen Methoden hat nahezu jeder private Internetnutzer bereits Erfahrung.

Betrugsziele

In den Anfängen des World Wide Web in den 1990er Jahren waren Internet-Verbindungen im Allgemeinen minimal verbreitet und waren in der Regel sehr langsam. Aus diesem Grund fungierten damals im Rahmen des Social Engineering oftmals größere Universitäten oder Telefonkonzerne als Ziele für Hacker. Ein Ziel der Hackerangriffe war es, unerlaubten Zugriff auf schnelle Internetverbindungen und große Rechenleistungen zu erlangen. Heute zielen Cyber-Kriminelle in erster Linie auf Daten und Informationen, die sich gut verkaufen oder für illegale Zwecke nutzen lassen. Dazu zählen zum Beispiel:

–       sensible Unternehmensinformationen

–       Kreditkarten- und Bankkontodaten

–       Zugangsdaten (Nutzernamen und Passwörter) zu Accounts

Grundsätzlich sind sämtliche Informationen für Hacker interessant, die sich für illegale Zwecke nutzen lassen. Menschliche Ziele sind primär Mitarbeiter, die im häufigen Kontakt zu Anrufern stehen und für die es selbstverständlich ist, Anfragen zu beantworten. Support-Mitarbeiter stellen aus diesem Grund ein besonders populäres Ziel dar. Sie verfügen in der Regel über ausreichende Informationen und Befugnisse, um dem Cyber-Kriminellen Zugriff zu den gewünschten Informationen zu ermöglichen. In vielen Fällen reicht schon die Offenlegung bestimmter Rufnummern oder E-Mail-Adressen aus, um den Angriff fortzuführen. Auch Informationen über den Internet Service Provider (ISP) des Unternehmens oder über die Sicherheits-Software, die in der Firma eingesetzt wird, sind für Hacker interessant.

Techniken und Beispiele für Social Engineering

Im Laufe der Jahre haben sich im Rahmen des Social Engineering folgende drei Techniken als besonders effektiv erwiesen:

 

–       Phishing: Hierbei handelt es sich um eine bekannte und äußerst wandlungsfähige Form der sozialen Manipulation. Mit den sogenannten „Phishing-Mails“ versuchen Hacker, Mitarbeitern und Anwendern sensible Informationen zu entlocken. In diesem Kontext kommen oft Angst und Dringlichkeit zum Einsatz, um beispielsweise an Kreditkartennummern oder Online-Banking-Informationen zu gelangen.

–       Köder (Baiting): Im Rahmen dieser Social Engineering-Technik setzen Hacker auf Köder. Cyber-Kriminelle zielen hier explizit auf die Neugier des Menschen ab, die ausgenutzt wird, um Zugang zu sensiblen Informationen zu erhalten oder Schadsoftware auf dem Rechner des Opfers zu installieren.

–       CEO-Fraud: Der CEO-Fraud lehnt sich von seiner Vorgehensweise an den sogenannten „Enkel-Trick“ an, der außerhalb der IT seit Jahrzehnten eingesetzt wird. Hier geben sich Kriminelle als Geschäftsführer oder sonstige Vorgesetzte aus, indem sie deren Identität annehmen, beispielsweise durch gefälschte oder gehackte E-Mail-Adressen der betroffenen Personen.

Prävention

Der Bedrohungslage durch soziale Manipulation kann nur mit einem ausgeprägten Gefahrenbewusstsein effektiv entgegengewirkt werden. Ein sicheres Passwort oder eine performante Antiviren-Software bieten gegen Social Engineering-Techniken so gut wie keinen Schutz. Die größte Vulnerability ist der ahnungslose Mitarbeiter. Aus diesem Grund existieren auch keine Sicherheits-Lösungen, die einen zuverlässigen Schutz vor Social Engineering bieten. Insbesondere in Großunternehmen stellt die Tatsache eine gewaltige Herausforderung dar, einen guten Schutz vor Social Engineering und zugleich auch effiziente Arbeitsabläufe gewährleisten zu können.

Ab einer bestimmten Größe des Unternehmens wird es immer wahrscheinlicher, dass sich sämtliche Mitarbeiter nicht untereinander kennen, sodass solche Mitarbeiter ein ideales Ziel für Methoden der sozialen Manipulation darstellen. Aus diesem Grund ist es wichtig, bei jedem Kontakt die Identität des anderen zu erfragen und zu bestätigen.

Unter dem Begriff WannaCry versteht man eine äußerst potente Schadsoftware, die im Mai 2017 großflächig aufgetreten ist und primär Computer mit den beiden Betriebssystemen Windows 7 und Windows XP befallen hat. WannaCry orientiert sich in der Funktionsweise an einer klassischen Ransomware: Die Schadsoftware verschlüsselt die Festplatten inklusive aller Daten des befallenen Rechners mit einer leistungsstarken Verschlüsselung und fordert von dem Anwender Lösegeld für die Entschlüsselung der Daten. Das Besondere an WannaCry war, dass die Ransomware mit der Funktionalität eines Computerwurms ausgestattet war, wodurch sie sich binnen kürzester Zeit weltweit auf Millionen von Rechnern verbreiten konnte.

Allgemeine Informationen zu WannaCry

Am 12. Mai 2017 wurde eine weltweite massenhafte Infektion von Windowscomputern durch einen neuartigen Computervirus registriert. Innerhalb von nur 24 Stunden waren weltweit mehr als 230.000 Windowsrechner betroffen. Neben vielen privaten Computern, auf denen die beiden Betriebssysteme Windows 7 und Windows XP installiert waren, waren auch viele Unternehmen, Regierungsbehörden, Industrieanlagen sowie kritische Infrastrukturen betroffen. Diese Ransomware wird im Allgemeinen als WannaCry bezeichnet, ist jedoch auch unter folgenden Namen bekannt:

–     WannaCrypt

–     WCrypt

–     WCRY

–     Wana Decryptor 2.0

Ransomware stellt eine spezielle Untergruppe von Schadsoftware dar und kommt im Bereich der Cyberkriminalität schon seit Jahren äußerst erfolgreich zum Einsatz. Während die bisherigen Ransomware-Angriffe in der Regel vereinzelt durchgeführt wurden und vorwiegend einzelne Unternehmen, Organisationen oder Privatpersonen gezielt ins Visier der Hacker genommen wurde, hebt sich WannaCry durch seine aggressive Weiterverbreitung deutlich von den bisherigen Hackerangriffen ab. Neben der reinen Ransomware-Funktionalität kommt im Rahmen von WannaCry auch ein potenter Wurmvirus zum Einsatz. Dieser nutzt gezielt den Windows Exploit „EternalBlue“ in Kombination mit dem Backdoor-Tool „DoublePulsar“, um sich selbständig weiterzuverbreiten.

Funktionsweise von WannaCry

Nachdem WannaCry auf ein anfälliges System kopiert wurde, wird zunächst eine Verbindung zu der sogenannten „Killswitch-URL“ aufgebaut. Falls die Domain nicht aktiv ist, wird der sogenannte Dropper aktiviert, der für die Installation der Ransomware zuständig ist. Danach kreiert die Malware einen Service mit der Bezeichnung „mssecsvc2.0“, der den Displaynamen „Microsoft Security Center 2.0“ erhält. Dieser scannt bei der ersten Gelegenheit zuerst das lokale Netzwerk und danach auch das Internet nach weiteren potenziellen Computern mit der Vulnerability „EternalBlue“. Über diese Funktionalität wird die rasend schnelle Verbreitung der Schadsoftware gewährleistet.

Im nächsten Schritt extrahiert der zuvor aktivierte Dropper die eigentliche WannaCry-Ransomware und führt diese aus. Auch die Ransomware prüft zuerst, ob eine Killswitch-URL vorhanden ist. Nur falls diese nicht gefunden wird, geht es mit dem nächsten Schritt weiter.

Nachfolgend gewährt sich WannaCry vollen Zugriff auf alle sich auf dem Rechner befindenden Dateien und setzt alle Attribute der Dateien auf „versteckt“. Danach werden alle Dateien mit einem komplexen Verschlüsselungsalgorithmus verschlüsselt und mit der Dateiendung „.WNCRY“ bestückt. Dabei wird in jedem Ordner eine „ReadMe.txt“-Datei erstellt, welche die genauen Anweisungen für die Zahlung des Lösegelds beinhaltet. Zusätzlich wird ein Registry-Eintrag angelegt, der nach Abschluss der Verschlüsselung alle lokalen Backups und Systemstände entfernt.

Zuletzt ersetzt die Schadsoftware das aktuelle Desktop-Hintergrundbild durch eine Benachrichtigung und startet einen Timer und Anweisungen für die Lösegeldzahlung.

Betroffene Unternehmen und Einrichtungen

Der Hackerangriff betraf mehrere global agierende Unternehmen und Organisationen. Nach aktuellem Stand kam es u.a. bei folgenden Einrichtungen und Unternehmen aufgrund einer Infektion mit der Ransomware zu Störungen und Betriebsausfällen:

–     Telefonica (spansicher Telekommunikationskonzern)

–     National Health Service (das staatliche Gesundheitssystem in Großbritannien und Nordirland)

–     Renault (französischer Automobilkonzern)

–     Fedex (weltweit agierendes Logistikunternehmen aus den USA)

–     PetroChina (chinesischer Ölkonzern)

Darüber hinaus waren tausende Computer des russischen Innenministeriums, des Katastrophenschutzministeriums sowie des Telekommunikationskonzerns MegFon betroffen. In Deutschland waren bei der Deutschen Bahn rund 450 Computer mit der Ransomware infiziert, was u.a. zum Ausfall von Anzeigetafeln an vielen Bahnhöfen und Videoüberwachungssystemen deutschlandweit führte.

Schutzmaßnahmen gegen Ransom Software

Neben dem Einspielen aktueller Sicherheitspatches für das Betriebssystem und installierte Anwendungen wird der Einsatz einer guten Sicherheitslösung wie beispielsweise ESET empfohlen. Aber auch ein kostenloser Virenschutz bietet ein ausreichendes Maß an Sicherheit gegen Ransomware-Angriffe. Es sollte jedoch beachtet werden, dass manche Antivirenprogramme den Zugriff auf die Killswitch-URL automatisch blockieren, weil sie den erhöhten Datenverkehr für auffällig erachten. Dies ist kontraproduktiv, da sich die Ransomware aufgrund fehlender Aktivierung des Notausschalters in diesem Fall unkontrolliert weiterverbreitet.

Des Weiteren können durch den Einsatz einer Firewall die TCP-Ports 137, 139, 445, 3389 sowie die UDP-Ports 137 und 138 blockiert werden, um ein Eindringen der zurzeit häufigsten Variante des WannaCry-Schädlings zu unterbinden.

Microsoft Power BI ist eine Business-Intelligence-Lösung für Unternehmensanalysen, die Möglichkeiten zur Aggregierung, Analyse, Visualisierung und gemeinsamen Nutzung von Daten bietet. Die Lösung besteht aus einer Sammlung von Anwendungen und kann entweder auf dem Desktop, als SaaS-Produkt oder auf einem mobilen Gerät verwendet werden. Die Möglichkeit zur Integration mit anderen Microsoft-Produkten macht Power BI sehr leistungsstark. Es zeichnet sich durch eine intuitive, benutzerfreundliche Oberfläche, aussagekräftigen Analysen und eine hervorragende Datenvisualisierung aus.

Die Stärken von Microsoft Power BI

Es unterstützt Unternehmen dabei, einen aussagekräftigen Überblick über ihre Daten zu erhalten. Mit der Lösung können unterschiedliche Datensätze verbunden und die Daten in ein Datenmodell übertragen und bereinigt werden. Die Erstellung von Grafiken und Diagrammen hilft bei der Visualisierung der Daten. Die wichtigsten Funktionen beinhalten:

– Anpassbare Dashboards

– Tools zur Berichterstattung und Datenvisualisierung

– Ad-hoc-Berichterstattung

– Ad-hoc-Analysen

– Interaktive Berichte

Analytische Online-Verarbeitung (OLAP)

– Trend-Indikatoren

– Q&A-Box für Fragen und Antworten

Visualisierung von Daten

Die visuelle Darstellung von Daten ist eine der wichtigsten Funktionen. Es bietet eine breite Palette an detaillierten und attraktiven Visualisierungen. Je nach Bedarf können Sie Berichte und Dashboards mit einfachen oder komplexen Visualisierungen erstellen. Es steht auch eine Bibliothek für benutzerdefinierte Visualisierungen zur Verfügung. Daten lassen sich in Echtzeit darstellen und für Prognosen bzw. einen Überblick über die Produktivität verschiedener Abteilungen nutzen. Die Darstellung erfolgt mittels Dashboards. Sie sind eine Sammlung von Visualisierungen, die aussagekräftige Informationen oder Einblicke in Daten bieten. Typische Dashboards in Power BI setzen sich aus mehreren Visualisierungen zusammen. Sie eignen sich zur gemeinsamen Verwendung durch mehrere Benutzer und auch zum Ausdrucken.

Daten aus verschiedenen Quellen zusammenführen

Mit Power BI können Sie aus einer Reihe von Datenquellen auswählen. Die Datenquellen können lokal oder cloudbasiert und strukturiert oder unstrukturiert sein. Ein Datensatz kann aus Daten einer einzelnen Quelle, wie einer Excel-Arbeitsmappe oder mehrere Quellen bestehen. Sie können die Datensätze filtern und kleinere Teilmengen verwenden, die nur die wichtigen Daten und die kontextbezogene Relevanz enthalten. Das Lösung bietet den Benutzern eine breite Palette von eingebauten Datenkonnektoren. Damit können Daten von verschiedensten Quellen genutzt werden, wie Text-Dateien, CSV-Dateien, SQL-Datenbanken (MSSQL, MySQL, Postgres, Oracle, SQLite, MongoDB), Access-Datenbanken, ODBC-Datenquellen oder Facebook, Salesforce, usw. Sie können problemlos eine Verbindung zu solchen Datenquellen herstellen und Datensätze durch den Import von Daten aus einer oder mehreren Quellen erstellen.

Aussagefähige Berichte mit Power BI

Berichte sind eine Kombination von Dashboards mit anderen Arten von Visualisierungen, die für ein bestimmtes Thema relevant sind. Ein Bericht zeigt eine vollständige und strukturierte Präsentation von Daten, die auf unterschiedliche Weise dargestellt werden und wichtige Erkenntnisse offenbaren. Sie können Berichte, die mit Power BI erstellt wurden, problemlos mit anderen Benutzern gemeinsam nutzen. Power BI enthält sogenannte DAX-Funktionen zur Datenanalyse. Dabei handelt es sich um vordefinierte Codes zur Durchführung von analysespezifischen Funktionalitäten auf Daten. In der Power-BI-Funktionsbibliothek gibt es derzeit etwa 200 Funktionen und es kommen laufend neue dazu.

Q&A-Box in natürlicher Sprache

Die Natural Language Q&A-Box ist ein einzigartiges Merkmal von Power BI. Mithilfe der Frage- und Antwortbox können Sie Fragen in natürlicher Sprache stellen, um nach Daten und Informationen zu suchen, die im System verfügbar sind. So können Sie nach Daten, Teilen eines Berichts oder Visualisierungen suchen. Die kognitive Technologie verwendet Neuformulierung, automatisches Ausfüllen, Vorschläge und andere derartige Techniken, um  Suchanfragen zu erfüllen.

Verfügbare Versionen

Für KMU steht eine kostenlose Version der Lösung zur Verfügung. Die professionelle Version Power BI Plus ist als monatliches Abonnement erhältlich. Sie können eine Anwendung für Windows 10, genannt Power BI Desktop, und native mobile Anwendungen für Windows-, Android- und iOS-Geräte herunterladen. Es gibt auch einen Power BI Report Server für Unternehmen, die ihre Daten und Berichte lokal pflegen müssen. Diese Version erfordert eine spezielle Version der Desktop-Anwendung, nämlich Power BI Desktop for Power BI Report Server.

Als die beiden deutschen Softwareentwickler Martin und Dietmar Maurer im Frühjahr 2008 die Open SourceVirtualisierungssoftware Proxmox VE erstmals der breiten Öffentlichkeit vorstellten, hatte niemand wirklich damit gerechnet, dass sich die Virtualisierungsplattform in den nächsten 12 Jahren zu einer der meistgenutzten Virtualisierungslösungen im Linux-Segment entwickeln würde. Aktuellen Informationen zufolge werden weltweit mehr als 150.000 Server-Hosts in mehr als 150 Ländern mit Proxmox betrieben.

Allgemeine Informationen zu Proxmox

Ein Umstand, der zum Erfolg der Virtualisierungsplattform maßgeblich beigetragen hat, spiegelt sich in der Tatsache wider, dass Proxmox die Option bereitstellt, zwei unterschiedliche Virtualisierungslösungen gleichzeitig zu betreiben, und zwar:

–       virtuelle Linux Container (LXC)

–       kernelbasierte Virtual Machine (KVM)

Der virtuelle Linux Container ist eine performante und ressourcenschonende Container-Virtualisierung. Bei den KVMs handelt es sich um ein Kernel-Modul auf Linux-Basis, das direkt auf der Hardware als Hypervisor ausgeführt wird und bei der Virtualisierung von Hardware eingesetzt wird. Mit den KVMs lässt sich eine Vielzahl verschiedener Vserver (virtueller Server) erstellen, wobei alle aktuellen Betriebssysteme wie Windows, Linux und verschiedene BSD-Derivate unterstützt werden. Der Linux-Kernel wird im Rahmen der Virtualisierung selbst zum Hypervisor befördert, wodurch der Overhead auf einem Minimum gehalten wird. Die kernelbasierte Virtual Machine gehört außerdem zu einem der am besten gewarteten Open Source-Systeme im Linux-Bereich. Bugs und Probleme werden dank der gigantischen Open Source-Community schnell erkannt und behoben.

Einfache und schnelle Verwaltung von Proxmox

LXC und KVM decken unterschiedliche Einsatzbereiche ab. So virtualisiert KVM beispielsweise im Gegensatz zu LXC mit virtuellen Maschinen und nicht auf Betriebssystem-Ebene. Aus diesem Grund ist LXC viel flexibler und bietet die Möglichkeit, Applikationen und Nutzer Stacks in kürzester Zeit in Betreib zu nehmen sowie einzelne Prozesse und gesamte Prozessgruppen voneinander zu isolieren. Auf diese Weise lassen sich mehrere Linux-Systeme parallel auf einem Host-Betriebssystem betreiben, die voneinander getrennt und abgeschottet sind. Dadurch lässt die Hardware des Hostsystems wesentlich besser auslasten. Ähnlich wie die Konkurrenzprodukte Docker, VMware und Hyper-V ist LXC gleichermaßen gut bei der Virtualisierung einzelner Anwendungen einsetzbar.

Proxmox bot bis zu der Version 3.4 ausschließlich Unterstützung für OpenVZ als Container-Technologie. LXC kam erst mit der Version 4.0 hinzu. Gründe hierfür waren u. a. die bessere Unterstützung für Storage-Devices und ein optimiertes Storage-System für Linux-Container. So können Anwender zum Beispiel mit LXC ZFS Sub-Volumes nutzen, was sich mit OpenVZ nicht realisieren lässt. Hinzu kommt noch die Tatsache, dass die Netzwerk-Konfiguration bei Linux-Containern viel flexibler ist.

Ein dedizierter Server für das Management der Cluster, Virtual Machines oder der Container ist nicht notwendig. Jeder Proxmox-Host ist mit einem eigenen Webinterface ausgestattet, mit dem sich der gesamte Cluster von jedem Knoten aus schnell und unkompliziert verwalten lässt. Durch den Einsatz eines verteilten Dateisystems (Proxmox Cluster File System), können die Konfigurationsdateien auf alle Nodes (Hosts) im Cluster automatisch verteilt werden. Auf diese Weise wird für konsistente Verwaltungsinformationen auf mehreren Tausenden virtueller Maschinen gesorgt.

Virtualisierungsplattform für Linux-Enthusiasten

Promox bietet neben dem intuitiven Web-Interface auch eine API für Administratoren und Entwickler, sodass wiederkehrende Tasks ohne großen Aufwand per Skript automatisiert werden können. Clients stehen für folgende Programmier- bzw. Skriptsprachen zur Verfügung:

–       Python

–       Java

–       JavaScript (NodeJS)

–       PHP

–       Perl

Da sich die Virtualisierungsplattform mit den entsprechenden Programmier-Kenntnissen individuell an die eigenen Bedürfnisse der Nutzer anpassen lässt, wird ein äußerst flexibles Agieren ermöglicht.

Proxmox VE nutzt als Basis die Linux-Distribution Debian, sodass Anwender auf alle Funktionalitäten des Betriebssystems zugreifen können. Nutzer können grundsätzlich auch alle Pakete, die für das beliebte Debian entwickelt wurden, unter Proxmox installieren. Die Virtualisierungsplattform ist somit optimal an die Anforderungen von Administratoren zugeschnitten, die bereits über Linux-Erfahrungen verfügen. Proxmox ermöglicht ein ebenso interaktives Arbeiten wie mit Debian. Dank der riesigen Community steht außerdem viel Know-how zur Verfügung, sodass für viele Probleme, mit denen Anwender konfrontiert werden können, bereits eine Lösung existiert.

Hohe Verfügbarkeit von Proxmox

Da Debian als extrem sicher und stabil gilt, trägt es in wesentlichem Maße zu der Zuverlässigkeit der Virtualisierungssoftware bei. Die Proxmox Server Solutions GmbH ist der Verwalter des Projekts und ist direkt dafür zuständig, die Virtualisierungsplattform regelmäßig zu aktualisieren und sie dabei auch an neue Debian-Versionen anzupassen. Die Virtualisierungsplattform kann ebenfalls mit einer hohen Verfügbarkeit punkten. Der Proxmox VE HA Manager ist dafür zuständig, alle Knoten im Cluster kontinuierlich zu überwachen. Sobald einer dieser Knoten ausfällt, wird der Proxmox VE HA Manager aktiviert. Diese Funktionalität ist bereits bei der Standardinstallation von Proxmox VE bereits vorinstalliert, weswegen Anwender die Funktion lediglich an die eigenen Anforderungen und Bedürfnissen anpassen müssen.

Vielseitige Speichertypen für Proxmox

Proxmox VE ist extrem flexibel in Bezug auf den Speicher. Die Virtualisierungsplattform ist mit verschiedenen lokalen Speicher- und Netzwerkspeicher-Modulen versehen, was ebenfalls Debian zu verdanken ist. Alle Speichertypen, die von der Linux-Distribution unterstützt werden, können im Rahmen von Proxmox genutzt werden. Hierzu gehören:

–       Ceph

–       NFS

–       ISCSI

–       FibreChannnel

–       ZFS

Mithilfe der Shared Storage-Funktionalität lassen sich Abbilder der Vserver im lokalen Netzwerk ablegen. Die Virtualisierungsplattform ist außerdem mit einer Funktion zur Live-Migration versehen, sodass sich die erstellten Vserver ohne Ausfallzeit migrieren lassen.