Je nach der Größe eines Unternehmens ist es notwendig, für eine bestimmte Anzahl von PCs Betriebssysteme und Software- bzw. Hardware-Produkte automatisiert zu verteilen. OPSI ist ein automatisiertes Software-Verteilungssystem und die Kernfunktionen sind Open Source, unabhängig von der Anzahl an PCs. Hier finden sich die wichtigsten Informationen über die Verteilungssoftware von der Mainzer uib GmbH.

OPSI bedeutet Open PC Server Integration. Es handelt sich um ein auf Linux-Server basierendes Clientmanagement-System für die Verwaltung und Verteilung von Software.

Ursprünglich wurde die Verteilungssoftware unter dem Namen hup-si (Hessisches Umweltamt PC-Server-Integration) für den internen Gebrauch im Hessischen Umweltamt (Hessisches Landesamt für Naturschutz, Umwelt und Geologie) entwickelt. Die ursprüngliche Version war auf die Client-Verwaltung mit „Windows NT4“ und „Windows for Workgroups“ ausgerichtet. 1995 erfolgte die Gründung des Umwelt-Informatikbüro, 3 Jahres später wurde es in die uib GmbH ausgegliedert. Die hup-si Freeware wurde zu einer Open Source Software und umbenannt in OPSI.

Was sind die Kernkomponenten?

Was kann die Software eigentlich, für wen wurde sie erstellt? Es handelt sich um ein Software Deployment Tool, dass unabhängig von der Anzahl an angebundenen PCs kostenfrei ist. Die Kernfunktionen sind Open Source, dazu zählen folgende:

-Installation (und Verteilung) von Betriebssystemen und Softwares

-Deinstallation und Updates von Software bzw. Betriebssystemen

-konfigurieren von Endgeräten

-Inventarisierung von Hardware und Software

Den Software-Verteilung und Inventarisierung wird vollautomatisch übernommen. Sie wird vor allem von öffentlichen Verwaltungen genutzt (Schulen, Behörden, etc.).

Was ist ein Software Deployment Tool?

Ein Software Deployment bezeichnet die professionelle Methode, Software-Produkte und Betriebssysteme automatisiert zu verteilen. Durch modere Tools kann dieser Vorgang je nach Unternehmen und Vorhaben sehr passgenau umgesetzt werden. Für den reibungslosen Ablauf und unternehmerische Erfolge ist eine bedarfsgerechter Software-Verteilung essentiell. Abläufe müssen effizient vonstattengehen und die Handhabung von EDV-Lösungen sollte möglichst komfortabel bzw. sicher sein.

Je mehr PCs in einem Unternehmen vorhanden sind, desto dringender wird ein Software Deployment Tool benötigt. Theoretisch kann die Software-Verteilung manuell oder auch automatisiert erfolgen. Ab einer bestimmten PC Anzahl wird die händische Verteilung zum Zeitfresser, da die Softwarelösungen auf jedem einzelnen Gerät verteilt werden müssen. Diese Arbeit kann durch ein leistungsstarkes Tool automatisiert erfolgen.

Welche besonderen Vorteile hat OPSI?

Die Installation und Verteilung von Software innerhalb eines Unternehmens können mit kostenlosen und kostenpflichtigen Tools erfolgen. Eine wesentliche Rolle spielt bei der Auswahl natürlich auch das genutzte Betriebssystem. Für Linux beispielsweise lassen sich Chefe, Puppet und Ansible empfehlen. Wer Windows nutzt, sollte besser auf OPSI, SSCM und PDQ Deploy zugreifen.

Kostenlose Tools sind meistens bei der Anzahl der zu verwaltenden PCs beschränkt. Die optimale Software hängt von der Größe des Unternehmens und der Anzahl der zu nutzenden PCs ab. OPSI ist eine Open Source Software und unabhängig von der Anzahl der PCs kostenlos.

Was sind die Voraussetzungen für OPSI?

Die absolute Grundvoraussetzung ist ein einfacher Linux-Server, da die Software und allen Linux Distributionen funktioniert. Wenn die Software produktiv genutzt werden soll, dann ist viel Speicherplatz einzuplanen (2 CPUs und 3-4 GB RAM).

Die benötigten Größe der Festplatte ist kundenspezifisch, die entscheidenden Parameter sind folgende:

-Anzahl der Endgeräte (MySQL Datenbank)

-die Anzahl der Software-Pakete

Was ist der Unterschied zu SCCM, PDQ-Deploy

Im Gegensatz zu SCCM (Microsoft), PDQ-Deploy und DeskCenter ist OPSI eine Open-Source Software und damit im Kern kostenfrei. SCCM (System Center Configuration Manager) ist ein Software Produkt für die Verwaltung von Soft- und Hardware in einem Unternehmen.

Wie verläuft die Installation bzw. Konfiguration?

Für den Server wird eine statische IP-Adresse benötigt. Der Hostname und die IP müssen im DNS problemlos auflösbar sein. Ein Tutorial für die Durchführung der Installation findet man hier auf Biteno. Dort finden sich auch weitere Ausführungen über die Konfiguration.

OPSI ist als System für die Software-Verteilung in Unternehmen sehr ausgereift. Die Software ist in ihren Kernfunktionen Open Source und das gilt unabhängig von der Anzahl an PCs. Die Anwendung wird in Schulen und Behörden sehr oft verwendet. Für geübte Administratoren mit Grundkenntnissen über Linux sollte es innerhalb von Stunden möglich sein, ein Test-System zu nutzen.

Es hängt vom Unternehmen ab, wie hoch der praktische Nutzen ist. Wer aber auf der Suche nach einen kostenfreien Software Deployment Tool ist, der sollte OPSI allemal testen. Insbesondere bei einem Netzwerk von mehr als 30 PCs lohnt sich ein Test. Es handelt sich um ein sehr praktisches und handliches Tool für die Softwareverteilung.

Bei Microsoft Windows handelt es sich ursprünglich um eine von Microsoft entwickelte Benutzeroberfläche, aus der im Laufe der Jahre eine Reihe eigenständiger Betriebssysteme hervorgegangen ist. Windows-Betriebssysteme kommen in erster Linie auf PCs (Personal Computer) und Servern zum Einsatz. Darüber hinaus existieren auch spezielle Versionen für Embedded Devices wie Kassensysteme, Messgeräte sowie Varianten für Smartgeräte wie Smartphones und Tablets.

Entwicklungsgeschichte

Das US-amerikanische Unternehmen Microsoft entwickelte ursprünglich keine Betriebssysteme, sondern seit Mitte der 1970er-Jahre BASIC-Anwendungen für unterschiedliche Computersysteme. Erst im Jahr 1981 mit dem Marktstart der ersten Version von MS-DOS stieg Microsoft in das Betriebssystemsegment ein. Im Rahmen von MS-DOS wurde das System ausschließlich mit Kommandobefehlen bedient. Die Befehlssyntax war relativ kompliziert und erforderte eine Einarbeitung, sodass ein intuitives Arbeiten dadurch nicht möglich war. Zu den Computern, die bereits damals mit einem Betriebssystem mit grafischer Benutzeroberfläche ausgestattet waren, zählten der 1979 erschienene Xerox Alto sowie Lisa und Macintosh von Apple, die einige Jahre später veröffentlicht wurden.

Diese grafischen Systeme wurden von eingefleischten Microsoft-Fans belächelt und als sinnlos bezeichnet. Der Microsoft-Gründer, Bill Gates, erkannte allerdings schon früh das enorme Potenzial grafischer Benutzeroberflächen und startete ein neues Projekt mit der Bezeichnung „Interface Manager“. Die übrigen Microsoft-Gründer unterstützen dieses Projekt, waren jedoch mit dem Namen unzufrieden, sodass das Projekt schließlich in Windows umbenannt wurde. Mit der Entwicklung von Windows hatten die Microsoft-Gründer Paul Allen, Steve Ballmer und Bill Gates die einflussreichste Zusammenarbeit in der Geschichte moderner Softwareentwicklung gestartet.

 

Im Laufe der Jahre wurde das Betriebssystem kontinuierlich weiterentwickelt und durch neue Funktionen und Features ergänzt. Windows hatte immer starke Konkurrenz, die entweder kostenlos erhältlich war oder ein besseres Gesamtpaket bot. Zahlreiche Linux-Distributionen wie beispielsweise

–       Debian

–       Ubuntu

–       CentOS

kamen im Laufe der Jahre auf den Markt, konnten sich jedoch gegen Windows nie richtig durchsetzen und führen heute noch ein Nischendasein. Im Gegensatz zu Linux, wo das eigentliche Betriebssystem vom graphischen Fenster-Manager getrennt ist, bekommt man von Microsoft das eigentliche Betriebssystem sowie den Fenster-Manager (also die graphische Oberfläche) im Bundle. Kein anderes Betriebssystem konnte eine so große Bekanntheit wie Windows erlangen und ist so vielen Nutzern weltweit bekannt oder besitzt einen derart starken Marktanteil. Microsoft hat sich diese Position als Branchenprimus durch kontinuierliche Veröffentlichungen neuer Versionen gesichert, die die Vorteile moderner Hardware und Technik voll unterstützen und ausnutzen.

Die bedeutendsten Windows-Versionen im Überblick

Windows 1.0

Die erste Windowsversion wurde 1983 in einer Testversion der breiten Öffentlichkeit präsentiert und zwei Jahre später 1985 veröffentlicht. Bei Windows 1.0 handelte es sich grundsätzlich um ein Programm, das auf MS-DOS lief. Das Release war für Microsoft ein Start mit erheblichen Hindernissen, da das Betriebssystem äußerst instabil lief. Durch das innovative „Point-An-Click-Konzept“ war Win 1.0 jedoch auch für Einsteiger leicht nutzbar. Das benutzerfreundliche Konzept des Betriebssystems ermutigte auch neue Anwender, die von der Steuerung per Befehlszeile eventuell überfordert waren, einen Personal Computer zu nutzen.

Windows 95

Im Jahr 1995 brachte Microsoft das Betriebssystem Windows 95 auf den Markt, das sich binnen kürzester Zeit zu einem enormen Verkaufserfolg entwickelte und den endgültigen Durchbruch für Microsoft einläutete. Windows 95 brachte einer großen Menge von Menschen weltweit Computer und das Internet näher. Das Betriebssystem machte den oft komplizierten Prozess der Installation neuer Hardware durch „Plug and Play“ wesentlich einfacher. Des Weiteren brachte Win 95 einen breiteren Farbraum, bessere Multimedia-Möglichkeiten und native Unterstützung für TCP/IP-Netzwerke. Die DirectX-Runtime ermöglichte zudem, dass auch grafisch anspruchsvolle Spiele auf Windows ausgeführt werden konnten.

Windows XP

Mit Windows XP brachte Microsoft im Jahr 2001 die erste auf der NT-Architektur basierte Version auf den Markt, die in erster Linie auf die Anforderungen und Bedürfnisse von Endnutzern ausgerichtet war. Windows XP wird von vielen Nutzern und Kritikern als die beste Windowsversion angesehen und wurde damals dementsprechend hoch bewertet. Das Betriebssystem brachte eine verbesserte Optik und bot eine äußerst stabile Plattform. Mit dem Betriebssystem wurde auch das Ende der DOS-Ära endgültig eingeläutet. Die neue DirectX-Version ermöglichte bei 3D-Spielen Effekte, an die OpenGL nicht heranreichte. Windows XP bot zudem Unterstützung für 64-Bit-Prozessoren. Dieses Feature war jedoch nicht gut umgesetzt und wurde erst mit dem Service Pack 2 verbessert. Darüber hinaus kam mit Windows XP erstmals die hauseigene Antivirensoftware „Windows Defender“ zum Einsatz.

Windows 10

Windows kündigte am 30. September 2014 offiziell Windows 10 an. Microsoft läutete mit der 10er-Version ein neues Veröffentlichungs-Modell an, sodass Windows 10 die letzte Windowsversion nach dem traditionellen Versionsmuster sein sollte. Stattdessen sieht man Windows 10 eher als eine „digitale Dienstleistung“. Nutzer von Win 10, die eine gültige Lizenz besitzen, sollten nicht nur Patches bekommen, sondern auch neue Funktionen, die im Rahmen von großen Feature-Updates ausgeliefert werden.

Plattform

Microsoft verfolgt mit dem Windows-Betriebssystem das Konzept, eine möglichst kompatible Plattform für Anwendungen aller Art zu sein. Dies wird über die Win32-API realisiert und deren zahlreichen Erweiterungen. Das Betriebssystem ist seit seiner ersten Version eine sogenannte „offene Plattform“. Konkret bedeutet das, dass jeder Entwickler ohne Einschränkungen Anwendungen für Windows entwickeln und vertreiben kann. Eine explizite Erlaubnis seitens Microsoft ist nicht nötig. Im Laufe der Jahre hat sich Windows zu einer äußerst stabilen Plattform entwickelt und kommt mittlerweile auf ca. 90 Prozent aller Desktop-PCs zum Einsatz. Microsoft ist im Laufe der Jahre auch deshalb zum Branchenprimus geworden, weil die Abwärtskompatibilität der Windowsplattform jahrelang die höchste Priorität bei der Entwicklung neuer Versionen hatte. Eine solche stabile Plattform bietet Anwendungsentwicklern den entscheidenden Vorteil, dass Programme nicht für jede einzelne Windowsversion angepasst werden müssen, sondern Microsoft für die Kompatibilität verantwortlich ist.

Sicherheit von Windows

Der wesentliche Nachteil eines so weit verbreiteten Betriebssystems spiegelt sich in der Tatsache wider, dass bei Windows regelmäßig Sicherheitslücken entdeckt werden, die von Cyberkriminellen ausgenutzt werden, um Angriffe zu starten. Mit Windows 10 sind die Sicherheitsrisiken jedoch, wegen der intensiven Weiterentwicklung interner Sicherheitsmechanismen deutlich zurückgegangen. Obwohl neue Windowsversionen mit einer hauseigenen Antivirensoftware ausgestattet sind, ist es aus Sicherheitsgründen dennoch empfehlenswert, einen leistungsstarken Virenscanner wie ESET zu nutzen.

Cyberkriminelle weichen inzwischen immer öfter auf Sicherheitslücken in Drittprogrammen aus. Das jüngste Beispiel hierfür ist eine schwere Sicherheitsschwachstelle bei der Videokonferenz-Anwendung Zoom. Durch die Ausnutzung dieser Sicherheitslücke können Hacker an das Admin-Passwort der Opfer gelangen. Theoretisch könnten so Hacker auch Malware und andere Schadsoftware auf den Rechnern ihrer Opfer unbemerkt herunterladen und ausführen, was katastrophale Folgen nach sich ziehen würde.

VOIP Phishing ist nicht neu. Seit dem IP-Telefonie möglich ist, versuchen Betrüger die digitale Technik für ihre Zwecke auszunutzen. Die damit einhergehenden Gefahren werden jedoch immer noch unterschätzt. Da Phishing Mails nur noch selten zum Erfolg führen, nutzen Betrüger Voice-over-IP Phishing im zunehmenden Maße. Was VOIP Phishing ist, wie es funktioniert und wie Sie sich davor schützen können, erfahren Sie im folgenden Beitrag.

Sicherheitsrisiko IP-Telefonie

VOIP Phishing, auch als Vishing bezeichnet, ist eine kriminelle Form des Social Engineering. Dabei nutzen Angreifer die menschliche Interaktion, um an vertrauliche Informationen wie beispielsweise Kontodaten, Kreditkartennummern oder Zugangsdaten zu einem Computersystem zu gelangen. Die Angreifer versuchen, den Eindruck zu erwecken als würde der Anruf von der Bank, dem Kreditkartenunternehmen oder einer Behörde erfolgen. Ziel des Angreifers ist es, die vertraulichen Informationen für kriminelle Machenschaften beispielsweise den Zugriff auf ein Bankkonto, zu verwenden. Im Jahr 2015 wurde laut einer Studie der BBC durch VOIP Phishing Kreditkartenbetrug ein Schaden in Höhe von rund 1 Milliarde US-Dollar verursacht.

Wie funktioniert VOIP Phishing?

VOIP Phishing funktioniert im Prinzip wie das Phishing per E-Mail. Beim Vishing erhalten die potenziellen Opfern eine Nachricht über ihr IP Telefon. Diese Nachrichten werden nicht selten von Sprachassistenten generiert oder die menschliche Stimme wird digital verändert. Die Nachrichten erhalten meist einen Hinweis darauf, dass eine verdächtige Aktivität auf einem Kreditkartenkonto, Bankkonto oder PayPal Account festgestellt wurde. Die Opfer werden vom Angreifer aufgefordert, direkt bestimmte Informationen abzugeben, oder eine in der Nachricht genannte Telefonnummer anzurufen und bestimmte Angaben zu machen. Diese Information werden angeblich benötigt, um „die Identität des Kontoinhabers zu überprüfen“ oder „sicherzustellen, dass kein Betrug stattfindet“.

Wie das Session Initiation Protocol (SIP) VOIP Phishing ermöglicht

Beim VOIP Phishing spielt Hackern das Session Initiation Protocol, abgekürzt SIP, in die Hände. Durch dieses weltweite Standardprotokoll für den Verbindungsaufbau bei der IP Telefonie sind Telefonnummern unabhängig vom Telefonanschluss. Das heißt, egal ob sich der Telefonanschluss in Singapur, Australien oder Mexiko befindet, kann der Anrufer eine deutsche Telefonnummer einrichten und verwenden. Dazu muss nur eine kostenlose Open Source VOIP Plattform wie beispielsweise Asterisk herunterladen, auf einem PC installieren und das System mit dem Internet verbinden. Die SIP Endpunkte können bei diesen Plattformen ohne besondere Programmierkenntnisse einfach konfiguriert und so die Anrufer-ID gefälscht werden. Diese Endpunkte werden von den meisten Systemen als Anrufer-ID weitergegeben. Das heißt, die Empfänger sehen beispielsweise eine deutsche Telefonnummer, obwohl der Anruf aus Singapur erfolgt.

VOIP Phishing – leichtes Spiel für Angreifer

VOIP Phishing hat für Hacker verschiedene Vorteile. Ein Vorteil sind die geringen Kosten für den Angreifer. Die benötigte Hardware wie IP-Telefone und Router sind mittlerweile sehr preiswert und überall erhältlich. Die benötigte Software kann bei verschiedenen Anbietern kostenlos heruntergeladen werden. Die Geräte können ohne große IT-Kenntnisse an einen PC angeschlossen werden, um eine Telefonanlage für die IP Telefonie und das VOIP Phishing einzurichten.

Die gefälschte Anrufer-ID nutzen Betrüger, um die Mitarbeiter eines Unternehmens zu kontaktieren und sensible Informationen wie Kreditkartennummer, Kontonummern oder geheime Information zu neuen Produktentwicklungen zu erfragen. Diese Informationen werden dann innerhalb kurze Zeit von den Angreifen selbst verwendet oder an andere, meist gegen Bezahlung, weitergegeben. Wenn ein Angreifer nicht genügend Informationen von einer Quelle sammeln kann, wird er oft versuchen, eine andere Person zu kontaktieren. Bei diesen Anrufen werden dann die Informationen, die der Angreifer von der ersten Person erhalten hat verwendet, um seine Geschichte und Glaubwürdigkeit zu untermauern.

Mit PC und Telefonanlage ist es Angreifern möglich, viele IP-Telefonate gleichzeitig zu führen, die Gespräche aufzuzeichnen und zu einem späteren Zeitpunkt auszuwerten. Zudem ist es kaum möglich, eine gefälschte Anrufer-ID aufzuspüren und den Angreifer zu ermitteln. Wenn die für das VOIP Phishing gefälschte Nummer vom Angreifer gelöscht wird, ist sie nicht mehr nachverfolgbar. Es gibt jedoch ein paar einfache Maßnahmen, mit denen Sie sich vor VOIP Phishing schützen können.

Maßnahmen zum Schutz

VOIP Phishing ist nicht immer leicht zu erkennen. Eine der wichtigsten Maßnahmen zum Schutz vor Phishing über das Telefon ist die Information und Aufklärung der Mitarbeiter über die möglichen Schäden, die durch verursacht werden. Grundsätzlich sollten Mitarbeiter dazu verpflichtet werden, keine vertraulichen Daten am Telefon preiszugeben. Ein Problem ist, dass die Angreifer oft über persönliche Informationen über das Opfer verfügen, die sie beispielsweise in den sozialen Medien finden.

Auffälligstes Merkmal von Phishinganrufen ist jedoch die vermeintlich hohe Dringlichkeit, mit der Anrufer versuchen, Druck auszuüben. Die vermeintliche Dringlichkeit soll das Opfer zur unüberlegten Preisgabe der geforderten Informationen verleiten. Trotz des Stresses, den solche Anrufe auslösen können, sollten die vom Anrufer gemachten Angaben durch einen Rückruf bei dem vom Anrufer genannten Institut überprüft werden. Beispielsweise steht auf der Rückseite von Kreditkarten eine offizielle Servicenummer des Kreditkartenunternehmens. In den meisten Fällen hat sich der VOIP Phishing Versuch dann bereits erledigt.

Im Bereich der IT wird mit dem Begriff „Monitoring“ die kontinuierliche Überwachung oder Kontrolle von IT-Systemen auf ihre einwandfreie Funktionalität bezeichnet. Um Ergebnisse zu vergleichen oder auszuwerten muss Monitoring systematisch und regelmäßig durchgeführt werden. Im Rahmen moderner Informationssysteme gehören diese Prozesse zu den wichtigsten Aspekten von Netzwerk- und Systemadministratoren.

Allgemeine Informationen zum Monitoring

Für die reibungslose Funktionalität einer IT-Infrastruktur müssen IT-Administratoren sicherstellen, dass sich alle beteiligten Komponenten innerhalb ihrer normalen Parameter bewegen. Diese Parameter werden durch Monitoring ermittelt, also durch die regelmäßige und systematische Überwachung relevanter Indikatoren. Früher wurden oft nur die reinen Performance-Parameter erfasst, wie zum Beispiel:

–       die Auslastung der CPU bei einer Datenbanktransaktion

–       der Speicherverbrauch bei einer Client-Anfrage

–       die Zeit, die der Server braucht, um eine Anfrage zu beantworten

Heutzutage umfasst Monitoring jedoch sämtliche Bereiche der IT, wie beispielsweise:

–       Sicherheit

–       Nutzerverhalten

–       Verfügbarkeit

Ziele

Im obigen Absatz haben wir das Ziel aller Prozesse bereits mit der „reibungslosen Funktionalität“ definiert. Grundsätzlich handelt es sich dabei um die Ermittlung der Ursachen, die direkt oder indirekt dafür verantwortlich sind, System-Parameter außerhalb der erwünschten Grenzen zu erzeugen. Dabei wird Monitoring eingesetzt, um:

–       das Problem möglichst früh zu identifizieren, sodass es beseitigt werden kann, bevor größere Schäden entstehen können

–       die Ursache des Problems ausfindig zu machen und zu lokalisieren

–       durch das Beseitigen auftretender Probleme Früherkennungsmaßnahmen zu optimieren, sodass künftige Probleme besser erkannt und behoben werden können

Falls ein System innerhalb der normalen Parameter funktioniert, können Maßnahmen beispielsweise auch eingesetzt werden, um die zukünftige Nutzung zu planen. Hat eine Webapp beispielsweise über das vergangene Jahr hinweg nur 60 Prozent ihrer CPU genutzt, lässt sich etwa ein physikalischer Server mit weniger Leistung betreiben.

Methoden und Verfahren

In Bezug auf den Betrachtungszeitraum der im Rahmen des Monitorings erfassten Informationen können zwei Vorgehensweisen unterschieden werden, und zwar:

–       Das sogenannte „Historical Monitoring“, das primär bei der automatischen Erzeugung von Langzeitstatistiken zu IT-Diensten eingesetzt wird. Diese Art ermöglicht u. a. die Kapazitätsplanung anhand der Wachstumsraten innerhalb einer bestimmten Zeitperiode, Rechenauslegung oder die Planung des Budgets. Darüber hinaus sind derartige Datensätze oft gute Indikatoren für systematische Verfügbarkeitsprobleme und entsprechende Lösungen solcher Probleme. Bei dieser Vorgehensweise arbeitet der IT-Administrator proaktiv.

–       Das sogenannte „Real-Time Monitoring“ ist eher reaktiv ausgelegt. Durch die kontinuierliche und systematische Überwachung der Funktionalitäten sämtlicher Dienste sollen Ausfälle schnellstmöglich identifiziert werden und die IT-Verantwortlichen in Kenntnis gesetzt werden. Im Idealfall werden auftretende Probleme identifiziert, bevor der Nutzer etwas davon merkt.

Hohe Verfügbarkeit und niedrige Ausfallraten

Im Rahmen des aktiven Monitorings versuchen dedizierte Systeme das Problem vorübergehend zu beseitigen. Dabei wird jedoch nur die Symptomatik und nicht die eigentliche Ursache des Problems eliminiert. Darüber hinaus ist für viele auftretende Probleme eine solche Vorgehensweise gar nicht möglich, wie beispielsweise bei einem Serverausfall. Ein wesentlicher Nachteil des aktiven Monitorings ist, dass in der Regel ein privilegierter Zugriff auf Dienste und Systeme benötigt wird, was einen erhöhten Risikofaktor darstellt.

Bei dem sogenannten „durchgängigen Monitoring“ wird hingegen das gesamte System inklusive aller relevanten Parameter und Dienste kontinuierlich überwacht. Dies benötigt jedoch eine hohe Disziplin aller IT-Mitarbeiter: Wenn beispielsweise ein neues Gerät oder ein neuer Server in das Netzwerk integriert wird, darf man nicht vergessen, diesen in das Monitoring einzubinden. Des Weiteren erzeugt diese Form des Monitorings eine gigantische Datenmenge, deren gezielte Analyse viel Zeit in Anspruch nehmen kann.

Unterschiedliche Anwendungen

Im Rahmen des sogenannten „End-to-End-Monitoring“ beschränkt sich die Messung auf die Funktionalität eines einzelnen Dienstes. Wenn beispielsweise ein Kunde in einem Webshop, wie Amazon, einkaufen möchte, dann wird die vollständige Transaktion eines Dienstes gemessen und ausgewertet. Bei dieser Vorgehensweise steht das sogenannte „Application Response Time Monitoring“ im Fokus. Damit lässt sich die exakte Antwortzeit einer Webanwendung ermitteln und ob diese in einer akzeptablen Zeit erfolgt.

Im Rahmen des externen wird ein dediziertes Gerät an das Netzwerk angeschlossen, während beim internen auf ein solches Gerät verzichtet wird. Weitere Bezeichnungen für diese Vorgehensweise sind aktives und passives Monitoring. Im Rahmen des aktiven Monitorings werden noch zusätzlich Pakete an das Netzwerk gesendet, während beim passiven lediglich „mitgehört“ wird.

Monitoring Tools

Die Prozesse finden in der IT in Form zahlreicher Tools Unterstützung. Es ist sind eine Vielzahl kommerzieller als auch Open Source-Produkt erhältlich, die jeweils auf unterschiedliche Einsatzszenarien in unterschiedlichen Umgebungen ausgerichtet sind. Nicht jedes Werkzeug eignet sich für jede Netzwerkinfrastruktur und jedes Verfahren gleichermaßen. Einige Tools verfügen über zahlreichen Funktionen und Features, während andere auf spezialisierte Aufgaben ausgerichtet sind. Bei der Auswahl eines solchen Werkzeugs sollten also die eigenen Anforderungen und Bedürfnisse beachtet werden. Welche Funktionen und Features benötigt werden, hängt von folgenden Faktoren ab:

–       Anforderungen der Netzwerkinfrastruktur

–       Benötigte Alarmmeldungen

–       Auf welche Art und Weise sollen Alarmmeldungen gesendet werden?

–       Welcher Monitoring-Typ ist erforderlich?

 

Wo Server betrieben werden, ist Virtualisierung heutzutage meist nicht weit. Hyper-V heißt die Lösung von Microsoft in diesem Bereich. Einzelne Server lassen sich darauf bequem erstellen und verwalten. Aber auch ganze Netzwerkstrukturen können virtualisiert werden. Skalierbarkeit und Ausfallsicherheit sind Hauptargumente für einen Betrieb virtueller Server. Zudem kann Hardware besser ausgelastet und Systemlast einfacher verteilt werden.

Allgemeines zu Hyper-V

Im Jahr 2008 stellte Microsoft seine Virtualisierungslösung mit dem Namen Hyper-V vor. Sie war erstmals in den Betriebssystemversionen Windows Server 2008 und Windows 8 enthalten. Ihre Vorgänger waren der Microsoft Virtual Server im Bereich der vServer und der Virtual PC für den Desktop-Bereich.

Wie aus dem Namen schon hervorgeht, ist Hyper-V ein sogenannter Hypervisor. Dieser stellt eine Abstraktionsschicht zwischen der realen Hardware und dem virtualisierten System, Gastsystem genannt, dar. Im Gegensatz zu vollständig virtualisierten Systemen, werden dem Gastsystem auch Ressourcen der physikalischen Hardware zur Verfügung gestellt. Dies aber nur unter Überwachung und Steuerung des Hypervisors. Diese Technik wird Paravirtualisierung genannt.

Hyper-V gibt es als Typ-1- und Typ-2-Hypervisor. Die Ausführung vom Typ 1, die auch als Bare-Metal-Hypervisor bezeichnet wird, stellt nur ein abgespecktes Betriebssystem zur Verfügung. Hauptbestandteil ist der Hypervisor. Die Administration erfolgt über die Kommandozeile oder per Remoteverbindung mit der Software „Hyper-V-Manager“, die ab der Windows-Versionen „Professional“ Bestandteil des Betriebssystems ist. Sie muss lediglich in der Systemsteuerung aktiviert werden.

Die Ausführung des Typ-2-Hypervisors ist in den Server-Betriebssystemen von Windows und den Desktop-Varianten „Professional“ und „Enterprise“ enthalten. Sie lässt sich ebenfalls in der Systemsteuerung zu den Programmen hinzufügen. Die Bedienung erfolgt auch hier mit dem „Hyper-V-Manager“. Die Bedienung ähnelt der von im Desktop-Bereich bekannter Virtualisierungssoftware, etwa Virtual-Box oder VMWare-Player.

Funktionsweise und Vorteile

Durch die Virtualisierungssoftware werden virtuelle Hardwareplattformen erzeugt. Bei der Paravirtualisierung müssen die Gastsysteme kompatibel zur Plattform des Wirtsrechners (Host) sein. Die Erzeugung der virtuellen Maschinen kann auf herkömmliche Weise, mit einem Installationsmedium erfolgen. In der Regel werden aber Vorlagen verwendet, die in Minutenschnelle geladen sind und ein betriebsbereites Gastsystem bieten.

Die virtuellen Maschinen haben jeweils ihren eigenen, abgeschotteten Bereich. Die Hardware stellt der Hypervisor zur Verfügung. Entsprechend besteht dabei große Flexibilität. So kann Arbeitsspeicher einfach angepasst werden und dynamischer Speicherplatz zugeteilt werden. Auf diese Weise können Lastspitzen abgefangen und zu lastärmeren Zeiten die Leistung wieder verringert werden.

Eine weitere große Stärke spielt eine Virtualisierungslösung wie Hyper-V bei der Virtualisierung von Netzwerkstrukturen aus. Es können beliebig Switche und Router erzeugt und damit getrennte Netze oder Subnetze gebildet werden. Letztlich lassen sich ganze Rechenzentren auf diese Weise virtuell verwirklichen.

Der Aufwand für die Einrichtung und Wartung wird dabei minimiert. Anstatt Patchkabel zu stecken, müssen nur Einstellungen im Hyper-V-Manager vorgenommen werden.

Eine recht neue Technologie ist die der Container-Lösungen wie Docker. Diese werden seit der Hyper-V-Version 2016 ebenfalls unterstützt. Hierbei wird keine vollständige virtuelle Maschine erzeugt, sondern nur eine Laufzeitumgebung für einzelne Anwendungen. Diese verwendet Ressourcen zudem nur solange, wie sie auch in Benutzung ist. Die Last, die ein Betriebssystem im Leerlauf erzeugt, fällt bei Nutzung von Container-Anwendungen weg.

 

Bezüglich der Gastbetriebssysteme besteht eine große Auswahl. Virtualisiert werden können:

-Windows-Server-Betriebssysteme,

-Windows-Desktop-Betriebssysteme,

RedHat-Enterprise,

Debian-Linux,

Ubuntu-Linux,

SuSE-Linux,

FreeBSD.

Zu beachten ist, dass das Betreiben virtualisierter Systeme eine gültige Lizenz für das Gastsystem erfordert.

Lizenzen von Hyper-V

Hyper-V ist grundsätzlich kostenlos. Allerdings sind die Betriebssysteme, in denen der Hypervisor eingebettet ist, kostenpflichtig. Ebenso die darin betriebenen Server-Versionen von Windows. Auch für die Anbindung an Speicherlösungen, etwa der Windows-Datacenter-Editionen, fallen Kosten an. Insbesondere verteilte Speicherlösungen von Windows, wie etwa „Direkte Speicherplätze“ (Storage Spaces Direct, abgekürzt: S2D), verursachen nicht unerhebliche Lizenzkosten. Für den Testbetrieb stellt Microsoft zudem kostenlose Evaluierungsversionen von Hyper-V zur Verfügung.

Anwendungsbereiche

Im Firmenbereich kann eine saubere Abschottung von Servern mit unterschiedlichen Aufgabenbereichen erzielt werden, ohne zusätzliche Hardware zu benötigen. Dies können beispielsweise ein Exchange-Server, der Domain-Controller, ein SQL-Server und der Fileserver sein. Weiterhin lassen sich ohne großen Aufwand Subnetze für verschiedene Arbeitsbereiche bilden. Eine physikalische Trennung der Netze ist damit nicht erforderlich. Auch im Bereich von Rechenzentren findet Software wie Hyper-V Anwendung. Mit dieser Technologie ist es Hosting-Anbietern beispielsweise möglich, Kunden kurzfristig virtuelle Server zur Verfügung zu stellen.

Alternativen

Bekanntester kommerzieller Mitbewerber ist der Anbieter VMWare. Dieser bietet mit dem ESXi-Server einen Bare-Metal-Hypervisor vergleichbarer Art. Einen Hypervisor des Typs 2 hat VMWare ebenfalls im Angebot, die VMWare Workstation.

Auch Open-Source-Lösungen sind verfügbar. Auf Basis des etablierten Linux-Hypervisors KVM/QEMU stellt der PROXMOX-Server einen Hypervisor des Typs 1 zur Verfügung.

Zudem steht unter Linux-Systemen der Hypervisor XEN kostenfrei zur Verfügung. Hierbei handelt es sich um ein Projekt der Universität Cambridge.

Bei den freien Versionen ist allerdings zu beachten, dass diese aufgrund ihrer Komplexität oftmals mit einem kostenpflichtigen Support Anwendung finden. So ist beispielsweise der Linux-Distributor RedHat in diesem Bereich tätig und bietet Support für den von ihm mitentwickelten Hypervisor KVM/QEMU.

Als die beiden deutschen Softwareentwickler Martin und Dietmar Maurer im Frühjahr 2008 die Open SourceVirtualisierungssoftware Proxmox VE erstmals der breiten Öffentlichkeit vorstellten, hatte niemand wirklich damit gerechnet, dass sich die Virtualisierungsplattform in den nächsten 12 Jahren zu einer der meistgenutzten Virtualisierungslösungen im Linux-Segment entwickeln würde. Aktuellen Informationen zufolge werden weltweit mehr als 150.000 Server-Hosts in mehr als 150 Ländern mit Proxmox betrieben.

Allgemeine Informationen zu Proxmox

Ein Umstand, der zum Erfolg der Virtualisierungsplattform maßgeblich beigetragen hat, spiegelt sich in der Tatsache wider, dass Proxmox die Option bereitstellt, zwei unterschiedliche Virtualisierungslösungen gleichzeitig zu betreiben, und zwar:

–       virtuelle Linux Container (LXC)

–       kernelbasierte Virtual Machine (KVM)

Der virtuelle Linux Container ist eine performante und ressourcenschonende Container-Virtualisierung. Bei den KVMs handelt es sich um ein Kernel-Modul auf Linux-Basis, das direkt auf der Hardware als Hypervisor ausgeführt wird und bei der Virtualisierung von Hardware eingesetzt wird. Mit den KVMs lässt sich eine Vielzahl verschiedener Vserver (virtueller Server) erstellen, wobei alle aktuellen Betriebssysteme wie Windows, Linux und verschiedene BSD-Derivate unterstützt werden. Der Linux-Kernel wird im Rahmen der Virtualisierung selbst zum Hypervisor befördert, wodurch der Overhead auf einem Minimum gehalten wird. Die kernelbasierte Virtual Machine gehört außerdem zu einem der am besten gewarteten Open Source-Systeme im Linux-Bereich. Bugs und Probleme werden dank der gigantischen Open Source-Community schnell erkannt und behoben.

Einfache und schnelle Verwaltung von Proxmox

LXC und KVM decken unterschiedliche Einsatzbereiche ab. So virtualisiert KVM beispielsweise im Gegensatz zu LXC mit virtuellen Maschinen und nicht auf Betriebssystem-Ebene. Aus diesem Grund ist LXC viel flexibler und bietet die Möglichkeit, Applikationen und Nutzer Stacks in kürzester Zeit in Betreib zu nehmen sowie einzelne Prozesse und gesamte Prozessgruppen voneinander zu isolieren. Auf diese Weise lassen sich mehrere Linux-Systeme parallel auf einem Host-Betriebssystem betreiben, die voneinander getrennt und abgeschottet sind. Dadurch lässt die Hardware des Hostsystems wesentlich besser auslasten. Ähnlich wie die Konkurrenzprodukte Docker, VMware und Hyper-V ist LXC gleichermaßen gut bei der Virtualisierung einzelner Anwendungen einsetzbar.

Proxmox bot bis zu der Version 3.4 ausschließlich Unterstützung für OpenVZ als Container-Technologie. LXC kam erst mit der Version 4.0 hinzu. Gründe hierfür waren u. a. die bessere Unterstützung für Storage-Devices und ein optimiertes Storage-System für Linux-Container. So können Anwender zum Beispiel mit LXC ZFS Sub-Volumes nutzen, was sich mit OpenVZ nicht realisieren lässt. Hinzu kommt noch die Tatsache, dass die Netzwerk-Konfiguration bei Linux-Containern viel flexibler ist.

Ein dedizierter Server für das Management der Cluster, Virtual Machines oder der Container ist nicht notwendig. Jeder Proxmox-Host ist mit einem eigenen Webinterface ausgestattet, mit dem sich der gesamte Cluster von jedem Knoten aus schnell und unkompliziert verwalten lässt. Durch den Einsatz eines verteilten Dateisystems (Proxmox Cluster File System), können die Konfigurationsdateien auf alle Nodes (Hosts) im Cluster automatisch verteilt werden. Auf diese Weise wird für konsistente Verwaltungsinformationen auf mehreren Tausenden virtueller Maschinen gesorgt.

Virtualisierungsplattform für Linux-Enthusiasten

Promox bietet neben dem intuitiven Web-Interface auch eine API für Administratoren und Entwickler, sodass wiederkehrende Tasks ohne großen Aufwand per Skript automatisiert werden können. Clients stehen für folgende Programmier- bzw. Skriptsprachen zur Verfügung:

–       Python

–       Java

–       JavaScript (NodeJS)

–       PHP

–       Perl

Da sich die Virtualisierungsplattform mit den entsprechenden Programmier-Kenntnissen individuell an die eigenen Bedürfnisse der Nutzer anpassen lässt, wird ein äußerst flexibles Agieren ermöglicht.

Proxmox VE nutzt als Basis die Linux-Distribution Debian, sodass Anwender auf alle Funktionalitäten des Betriebssystems zugreifen können. Nutzer können grundsätzlich auch alle Pakete, die für das beliebte Debian entwickelt wurden, unter Proxmox installieren. Die Virtualisierungsplattform ist somit optimal an die Anforderungen von Administratoren zugeschnitten, die bereits über Linux-Erfahrungen verfügen. Proxmox ermöglicht ein ebenso interaktives Arbeiten wie mit Debian. Dank der riesigen Community steht außerdem viel Know-how zur Verfügung, sodass für viele Probleme, mit denen Anwender konfrontiert werden können, bereits eine Lösung existiert.

Hohe Verfügbarkeit von Proxmox

Da Debian als extrem sicher und stabil gilt, trägt es in wesentlichem Maße zu der Zuverlässigkeit der Virtualisierungssoftware bei. Die Proxmox Server Solutions GmbH ist der Verwalter des Projekts und ist direkt dafür zuständig, die Virtualisierungsplattform regelmäßig zu aktualisieren und sie dabei auch an neue Debian-Versionen anzupassen. Die Virtualisierungsplattform kann ebenfalls mit einer hohen Verfügbarkeit punkten. Der Proxmox VE HA Manager ist dafür zuständig, alle Knoten im Cluster kontinuierlich zu überwachen. Sobald einer dieser Knoten ausfällt, wird der Proxmox VE HA Manager aktiviert. Diese Funktionalität ist bereits bei der Standardinstallation von Proxmox VE bereits vorinstalliert, weswegen Anwender die Funktion lediglich an die eigenen Anforderungen und Bedürfnissen anpassen müssen.

Vielseitige Speichertypen für Proxmox

Proxmox VE ist extrem flexibel in Bezug auf den Speicher. Die Virtualisierungsplattform ist mit verschiedenen lokalen Speicher- und Netzwerkspeicher-Modulen versehen, was ebenfalls Debian zu verdanken ist. Alle Speichertypen, die von der Linux-Distribution unterstützt werden, können im Rahmen von Proxmox genutzt werden. Hierzu gehören:

–       Ceph

–       NFS

–       ISCSI

–       FibreChannnel

–       ZFS

Mithilfe der Shared Storage-Funktionalität lassen sich Abbilder der Vserver im lokalen Netzwerk ablegen. Die Virtualisierungsplattform ist außerdem mit einer Funktion zur Live-Migration versehen, sodass sich die erstellten Vserver ohne Ausfallzeit migrieren lassen.