Die im April 2013 erstmals als Beta-Version veröffentliche Software namens Mailbird ist ein E-Mail-Client. Die Nutzung von Mailbird läuft über ein Freemium-Modell. Der E-Mail-Client legt besonderen Fokus auf ein simples Design, auf die Geschwindigkeit der Anwendung und steht zudem auch anderen Entwicklern für eine Verbesserung offen.

Begonnen hatten die beiden dänischen Entwickler Michael Olsen und Michael Bodekaer mit der Arbeit an dieser Alternative zu anderen E-Mail-Clients wie Outlook, Thunderbird oder Postbox. Sie suchten nach einer schnelleren Alternative, fanden keine und so machten sie sich selbst an die Arbeit. Schon im Januar 2012 stand eine Alpha-Version, ab Januar 2013 lief das öffentliche Testen der Beta-Version.

Jeweils zu Jahresbeginn folgte 2014 die Version 1.0 und 2015 die 2.0, die bis heute die aktuelle Version darstellt. Die Version 2.0 enthielt im Unterschied zur Vorgängerversion neue Features wie „E-Mail Snooze“, eine Möglichkeit zu Video Meetings und die Integration von WhatsApp, Facebook und vielem mehr.

Das Lizenz-Modell bei Mailbird

Das Freemium-Prinzip, nach dem Mailbird angeboten wird, bedeutet, dass die ganz grundlegende Version kostenlos zu nutzen ist. Für weitere Funktionen, wie beispielsweise die Verwaltung unbegrenzt vieler E-Mail-Konten oder eben jene recht neue „E-Mail-Snooze“-Funktion, wird dann eine regelmäßige Gebühr fällig. Hier wird zwischen privater und Business-Nutzung unterschieden. Zudem existiert auch die Option, für einen Einmalbetrag die Nutzung aller Zusatzfeatures dauerhaft freizuschalten, was dann natürlich etwas teurer ist, sich aber für langfristige Nutzer rasch auszahlt.

Interaktion mit MX Exchange ist bei Mailbird sehr vorteilhaft

Besonders beliebt macht sich Mailbird auch dadurch, dass die Interaktion mit MS Exchange viele Vorteile ermöglicht. Diese bewirken rasch ein strukturierteres und zügigeres Interagieren mit allem, was rund um den E-Mail-Verkehr anfällt. Besondere Features, die Mailbird bei der Kooperation mit MS Exchange möglich macht umfassen die folgenden:

– gesendete E-Mails zurückzuholen

– Integration von anderen Anwendungen wie Skype, Dropbox, Google Docs und vieles mehr, nicht zuletzt die schon erwähnten WhatsApp und Facebook

– Nutzung der E-Mails von Gmail aus oder von Yahoo sowie weiteren Anbietern aus

Dass Mailbird nicht nur bei Freaks Anerkennung findet, ist übrigens leicht daran abzulesen, dass der E-Mail-Client 2014 und 2015 von der Fachzeitschrift IT-Welt als bestes Software-Programm ausgezeichnet wurde. Bereits 2013 war Mailbird von der Zeitschrift PC World zum besten kostenlosen E-Mail-Client gekürt worden.

Zudem erfreut sich Mailbird großer Popularität in der Entwickler-Szene, da aller Code nach dem Open-Source zur Bearbeitung zur Verfügung steht. Das garantiert eine regelmäßige Weiterentwicklung und so ist man von 2015 bis 2019 schon bis zur Version 2.5.19.0 gekommen. Jede einzelne dieser erneuerten Versionen von Mailbird bedeutet jeweils eine Verbesserung des Nutzerkomforts und der anderen Aspekte wie Sicherheit, Geschwindigkeit und Zuverlässigkeit.

Mailserver und Spamschutz

Um alles rund um die Abwicklung von E-Mails zu verstehen, ist es gut, auch grundlegend zu wissen, was die folgenden vier Begriffe innerhalb dieses Metiers bedeuten.

Mailserver

Der Mailserver ist schlicht jene Software (und somit kein „physischer Server“), die Empfang und Versand von E-Mails sowie deren Verwaltung im Sinne von Verarbeitung und Speicherung erledigt. Der technische Ausdruck für einen solchen Mailserver lautet MTA (Mail Transfer Agent). Verschiedene Protokolle kommen dabei zum Einsatz: POP3 oder IMAP zum Austauschen (im Sinne von auf den E-Mail-Client herunterladen) von E-Mails sowie SMTP, um versendete E-Mails an den richtigen Empfänger zu bringen.

Spamschutz

Absolut unentbehrlich bei der Nutzung von E-Mails ist ein wirksamer Schutz gegen Spam, also unerwünschte Werbung bzw. schädliche E-Mails oder Angriffsversuche auf diesem Einfallsweg. Dabei sind gleich mehrere Komponenten wichtig, die alle zur Wirksamkeit des eingesetzten Spamschutzes beitragen.

Da wäre zunächst die Aktualität in Bezug auf neu geschaffene Formen von Spam, Phishing-Typen oder auch schlicht nervige Werbe-E-Mails. Da die Gegenseite nicht schläft, ist es von enormer Bedeutung, in diesem Punkt immer up-to-date zu sein. Dann muss dieser Spamschutz auch zuverlässig sein und zu jedem beliebigen Zeitpunkt mit einer äußerst geringen Ausfallquote zur Verfügung stehen. Alles andere kostet Zeit und Nerven und in den schlimmeren Fällen Geld.

Antivirus und Office 365

Zwei weitere Aspekte, die bei der Verwendung eines E-Mail-Clients wie es Mailbird einer ist, eine wichtige Rolle spielen:

Antivirus

Besonders gefährlich sind alle Formen von Viren, die gerne via E-Mail in fremde Rechner eingeschleust werden sollen. Zwar gibt es heutzutage auch viele andere Einfallstore bei der Kommunikation mit allem außerhalb des eigenen Netzes. Doch gerade wer viel E-Mail-Verkehr hat, sollte beim Antivirus noch intensiver auf ständige Aktualität achten als beim Spamschutz. Zwar erledigen dies die meisten Virenscanner automatisch, dennoch existieren Unterschiede in ihrer Zuverlässigkeit dabei, potenzielle Gefahren abzuwehren.

Office 365

Im Prinzip wird eine jede und ein jeder einmal bereits mit einer der Komponenten gearbeitet haben, die das Angebot von Office 365 umfasst. Es ist schlicht das klassische MS-Office-Paket, um ein bis zwei Elemente erweitert, welches allerdings in die Cloud ausgelagert ist.

 

Seamonkey ist ein Paket von Programmen für den Zugang zum Internet. Sie können damit Ihre E-Mail lesen und verwalten, im Internet surfen und mit einem IRC Client chatten. Darüber hinaus werden von Seamonkey noch Werkzeuge für Entwickler wie ein DOM Inspektor angeboten.

Im Gegensatz zu den heute am meisten verbreiteten Browsern und E-Mail Programmen bietet Seamonkey diese Programme in einem Paket an. Dieses besteht neben dem Browser und dem Mailclient auch aus einem Client für IRC und für Newsgroups. Ein technischer Vorteil besteht darin, dass die verschiedenen Teile des Pakets Programme gemeinsam benützen. Dadurch ergibt sich ein geringerer Speicherbedarf und eine schnellere Verarbeitung. Die Software ist quelloffen und gratis, wird aber von einer Entwicklergruppe ständig betreut und regelmäßig in neuen Versionen herausgebracht. Obwohl das Seamonkey Paket ein eigenes Projekt ist, verwendet es viele Programmteile des Webbrowsers Firefox und des Mailclients Thunderbird. Wie diese Programme ist auch Seamonkey für Windows, MacOS und Linux verfügbar.

Wie wird Seamonkey weiterentwickelt?

Diese Entwicklung erfolgt durch freiwillige Programmierer. Es gibt auch eine große Gemeinschaft von Testern, die neue Versionen ausprobieren und die Entwickler mit Berichten über Probleme und Fehler unterstützen. Das Paket Seamonkey ist in 22 Sprachen verfügbar und auch dieser Aufwand an Übersetzungen und Anpassungen wird von interessierten Nutzern geleistet.

Was sind Grenzen und Alternativen zu Seamonkey?

Seamonkey bietet einen Mailclient, aber keinen Mailserver. Der Mailclient bietet Funktionen zu Schreiben, Lesen und Verwalten von E-Mails, benötigt aber eine Verbindung zu einem Mailserver für die Übermittlung. Als Alternative können statt dem Paket auch die separaten Programme Firefox, Thunderbird oder auch Outlook eingesetzt werden. Die für Seamonkey verfügbaren Add-ons zeigen die enge Verbindung zu diesen Programmen, da sie auch für Seamonkey direkt von der Thunderbird Webseite herunterzuladen sind. Eine weitere Alternative zumindest für den Mail Client ist Microsoft Office365.

Gibt es Support für Seamonkey?

Da das Programmpaket von Freiwilligen betreut wird, ist auch der Support von diesen abhängig. Das bedeutet aber keinesfalls, dass er nicht gut erledigt wird. Neben einer Dokumentation in den verschiedenen Sprachen werden ein Forum und auch ein Blog mit Besprechungen neuer Funktionen und Versionen angeboten. Da man mit der quelloffenen Software sehr gut experimentieren kann, ist Seamonkey besonders für fortgeschrittene Benutzer, Entwickler und gewerbliche Nutzer interessant. Das soll andere mögliche Nutzer aber keineswegs abschrecken. Einen Eindruck von den erwarteten Computerkenntnissen vermittelt die Aufforderung, kein Update durchzuführen, sondern eine volle Version neu zu installieren. Fühlen Sie sich unwohl mit solchen Arbeitsschritten, empfiehlt sich eine Unterstützung durch erfahrenere Nutzer.

Was kann der Webbrowser ?

Er bietet einen mit vielen Browsern vergleichbaren Funktionsumfang. Insbesondere können Sie in einem Fenster mit verschiedenen Tabs mehrere Seiten gleichzeitig offenhalten und benutzen. Die Lesezeichen, der Browserverlauf und die Einstellungen können über mehrere Geräte synchronisiert werden, sodass diese Daten Ihnen überall in der neuesten Version zur Verfügung stehen. Ein Data Manager übernimmt die Verwaltung von Cookies und von Zugangsbeschränkungen. Popup Fenster können Sie blockieren, was irritierende Werbung wesentlich reduziert. Der Browser bietet auch die Möglichkeit zum Lesen von RSS Feeds.

Wie sieht der Mailclient aus?

Er unterstützt die Verwendung von mehreren E-Mail-Konten und bietet Tabs und Tags zur übersichtlichen Verwaltung Ihrer Nachrichten. Für die Abwehr von Junk und Spam werden eigene Filter verwendet, die selbständig lernen können und sich an ihre Nutzergewohnheiten anpassen. Damit werden diese Filter nach einiger Zeit immer besser im Herausfiltern der von Ihnen unerwünschten Mails. Antivirus Anwendungen können zur Filterung ebenfalls eingesetzt werden, allerdings stellen E-Mails in dieser Hinsicht kein großes Problem mehr dar.

Welche anderen Funktionen bietet Seamonkey?

Seamonkey bietet auch einen IRC Chat Klienten, der konfigurierbar ist und auch einen eigenen Kanal für Informationen über das Seamonkey Projekt anbietet. An Werkzeugen für Entwickler stehen als Add-ons ein DOM Inspektor und auch ein HTML Editor zur Verfügung. Der DOM Inspektor erlaubt einen strukturierten Zugriff auf HTML- und XML-Daten, die im Browserfenster dargestellt werden.

Bei Postfix handelt es sich um einen sogenannten „Mail Transfer Agent“ für Unix und Linux-Distributionen, der im Jahr 1998 entwickelt und veröffentlicht wurde. Die Entwickler wollten mit der Software eine kompatible Alternative zu Sendmail bieten. Dabei fokussierten sich die Programmierer in erster Linie auf Sicherheitsaspekte, um die Software möglichst sicher zu gestalten. Der Quellcode von Postfix wird unter der IBM Public Lizenz zur Verfügung gestellt, womit Postfix eine freie Software ist.

Entwicklungsgeschichte von Postfix

Postfix ist ein Mail Transfer Agent der als Open Source-Software frei für Betriebssysteme auf Basis von Unix, wie beispielsweise Solaris, BSD und Linux zur Verfügung gestellt wird und ist im Gegensatz zu Office 365 und Exchange nicht für Windows-Systeme erhältlich. Postfix wurde ursprünglich von dem niederländischen Softwareentwickler Wietse Venema bei dem US-amerikanischen IT-Unternehmen IBM entwickelt und im Jahr 1998 auf den Markt gebracht. IBM hat Postfix jedoch einige Jahre nach dem offiziellen Marktstart der Open Source-Community zur freien Weiterentwicklung zur Verfügung gestellt und hat mittlerweile keine Kontrolle über das Projekt. Die Software ist in erster Linie als eine sichere und leicht zu bedienende Alternative für Sendmail entworfen worden. Sendmail war zu jener Zeit der am meisten genutzte Mailserver im Internet, die Software hatte jedoch 2 erhebliche Schwachstellen, und war:

–          Sendmail hatte in der Vergangenheit immer wieder mit gravierenden Sicherheitslücken zu kämpfen.

–          Die Software ist äußerst kompliziert zu bedienen und zu administrieren. Früher galt unter IT-Experten der Spruch, dass man kein echter Unix-Administrator ist, wenn man Sendmail nicht konfiguriert hat.

Obwohl die Sicherheitslücken in Sendmail relativ schnell geschlossen wurden, war die Architektur der Software nicht auf Sicherheit ausgelegt. Postfix ist hingegen von Anfang an auf hohe Sicherheit ausgelegt. Der Postfix-Entwickler Wietse Venema war ein anerkannter IT-Sicherheitsexperte, der sich in erster Linie mit IT-Sicherheitsforschung beschäftigt hatte. Im Gegensatz zu Sendmail ist Postfix kein monolithischer Block, sondern setzt sich vielmehr aus einer Vielzahl einzelner Programmteile zusammen. Dank dieser Microservice-Architektur ist es möglich, jeden einzelnen Teil von Postfix nur mit so vielen Rechten zu versehen, wie es unbedingt nötig ist. Kein Programmteil von Postfix, der einen direkten Zugriff auf Netzwerkkommunikation hat, läuft mit Root-Rechten.

Eigenschaften

Postfix setzt sich aus unterschiedlichen Teilen zusammen, die jeweils verschiedene Rollen im Gesamtsystem ausüben. Dadurch wird nicht nur ein performanter Antiviren– und Spamschutz, sondern auch eine ausgezeichnete Performance gewährleistet, weswegen die Software in erster Linie in großen Rechenzentren und Mainframes zum Einsatz kommt. Postfix ist ein performantes und im Verhältnis zu den beiden Konkurrenten qmail und Sendmail ein einfach zu administrierendes System. Wie jeder Mail Transfer Agent setzt auch Postfix ein gewisses Maß an Kenntnissen in den Bereichen Mailserver, Netzwerkprotokolle sowie Betriebssysteme voraus, da sich die Konfiguration der Software je nach vorgesehenem Einsatzbereich sehr komplex gestalten kann.

Entwickler haben bei Postfix ein besonderes Augenmerk auf eine simple Administration und hohe Sicherheit gelegt. Es ist mit Sendmail kompatibel und kann mit Software genutzt werden, die Sendmail anstatt Postfix als Mailserver erwarten würde. Darüber hinaus ist der Mail Transfer Agent modular aufgebaut und führt sämtliche Befehle ohne Root-Rechte aus. Änderungen in der Konfiguration können zur Laufzeit realisiert werden, sodass ein Neustart nicht nötig ist.

Konfiguration

Auf den meisten Systemen wird das Verzeichnis mit den Konfigurationsdateien als „/etc/postfix“ angelegt. In diesem Verzeichnis finden Sie die master.cf und auch die Hauptkonfigurationsdatei main.cf. Sämtliche Funktionalitäten und Einstellungen aller Postfix-Teile werden über die Hauptkonfigurationsdatei main.cf realisiert. Die main.cf setzt sich aus Name-/Werte-Paaren zusammen. Dabei wird der Name eines des Konfigurationsparameters als erster Begriff auf einer Zeile auf der linken Seite eingefügt. Danach folgt die explizite Zuweisung eines Wertes. Manche Parameter können sich aus mehreren Werten zusammensetzen. Die multiplen Werte können sowohl durch Leerzeichen als auch durch Kommas getrennt werden.

VOIP Phishing ist nicht neu. Seit dem IP-Telefonie möglich ist, versuchen Betrüger die digitale Technik für ihre Zwecke auszunutzen. Die damit einhergehenden Gefahren werden jedoch immer noch unterschätzt. Da Phishing Mails nur noch selten zum Erfolg führen, nutzen Betrüger Voice-over-IP Phishing im zunehmenden Maße. Was VOIP Phishing ist, wie es funktioniert und wie Sie sich davor schützen können, erfahren Sie im folgenden Beitrag.

Sicherheitsrisiko IP-Telefonie

VOIP Phishing, auch als Vishing bezeichnet, ist eine kriminelle Form des Social Engineering. Dabei nutzen Angreifer die menschliche Interaktion, um an vertrauliche Informationen wie beispielsweise Kontodaten, Kreditkartennummern oder Zugangsdaten zu einem Computersystem zu gelangen. Die Angreifer versuchen, den Eindruck zu erwecken als würde der Anruf von der Bank, dem Kreditkartenunternehmen oder einer Behörde erfolgen. Ziel des Angreifers ist es, die vertraulichen Informationen für kriminelle Machenschaften beispielsweise den Zugriff auf ein Bankkonto, zu verwenden. Im Jahr 2015 wurde laut einer Studie der BBC durch VOIP Phishing Kreditkartenbetrug ein Schaden in Höhe von rund 1 Milliarde US-Dollar verursacht.

Wie funktioniert VOIP Phishing?

VOIP Phishing funktioniert im Prinzip wie das Phishing per E-Mail. Beim Vishing erhalten die potenziellen Opfern eine Nachricht über ihr IP Telefon. Diese Nachrichten werden nicht selten von Sprachassistenten generiert oder die menschliche Stimme wird digital verändert. Die Nachrichten erhalten meist einen Hinweis darauf, dass eine verdächtige Aktivität auf einem Kreditkartenkonto, Bankkonto oder PayPal Account festgestellt wurde. Die Opfer werden vom Angreifer aufgefordert, direkt bestimmte Informationen abzugeben, oder eine in der Nachricht genannte Telefonnummer anzurufen und bestimmte Angaben zu machen. Diese Information werden angeblich benötigt, um „die Identität des Kontoinhabers zu überprüfen“ oder „sicherzustellen, dass kein Betrug stattfindet“.

Wie das Session Initiation Protocol (SIP) VOIP Phishing ermöglicht

Beim VOIP Phishing spielt Hackern das Session Initiation Protocol, abgekürzt SIP, in die Hände. Durch dieses weltweite Standardprotokoll für den Verbindungsaufbau bei der IP Telefonie sind Telefonnummern unabhängig vom Telefonanschluss. Das heißt, egal ob sich der Telefonanschluss in Singapur, Australien oder Mexiko befindet, kann der Anrufer eine deutsche Telefonnummer einrichten und verwenden. Dazu muss nur eine kostenlose Open Source VOIP Plattform wie beispielsweise Asterisk herunterladen, auf einem PC installieren und das System mit dem Internet verbinden. Die SIP Endpunkte können bei diesen Plattformen ohne besondere Programmierkenntnisse einfach konfiguriert und so die Anrufer-ID gefälscht werden. Diese Endpunkte werden von den meisten Systemen als Anrufer-ID weitergegeben. Das heißt, die Empfänger sehen beispielsweise eine deutsche Telefonnummer, obwohl der Anruf aus Singapur erfolgt.

VOIP Phishing – leichtes Spiel für Angreifer

VOIP Phishing hat für Hacker verschiedene Vorteile. Ein Vorteil sind die geringen Kosten für den Angreifer. Die benötigte Hardware wie IP-Telefone und Router sind mittlerweile sehr preiswert und überall erhältlich. Die benötigte Software kann bei verschiedenen Anbietern kostenlos heruntergeladen werden. Die Geräte können ohne große IT-Kenntnisse an einen PC angeschlossen werden, um eine Telefonanlage für die IP Telefonie und das VOIP Phishing einzurichten.

Die gefälschte Anrufer-ID nutzen Betrüger, um die Mitarbeiter eines Unternehmens zu kontaktieren und sensible Informationen wie Kreditkartennummer, Kontonummern oder geheime Information zu neuen Produktentwicklungen zu erfragen. Diese Informationen werden dann innerhalb kurze Zeit von den Angreifen selbst verwendet oder an andere, meist gegen Bezahlung, weitergegeben. Wenn ein Angreifer nicht genügend Informationen von einer Quelle sammeln kann, wird er oft versuchen, eine andere Person zu kontaktieren. Bei diesen Anrufen werden dann die Informationen, die der Angreifer von der ersten Person erhalten hat verwendet, um seine Geschichte und Glaubwürdigkeit zu untermauern.

Mit PC und Telefonanlage ist es Angreifern möglich, viele IP-Telefonate gleichzeitig zu führen, die Gespräche aufzuzeichnen und zu einem späteren Zeitpunkt auszuwerten. Zudem ist es kaum möglich, eine gefälschte Anrufer-ID aufzuspüren und den Angreifer zu ermitteln. Wenn die für das VOIP Phishing gefälschte Nummer vom Angreifer gelöscht wird, ist sie nicht mehr nachverfolgbar. Es gibt jedoch ein paar einfache Maßnahmen, mit denen Sie sich vor VOIP Phishing schützen können.

Maßnahmen zum Schutz

VOIP Phishing ist nicht immer leicht zu erkennen. Eine der wichtigsten Maßnahmen zum Schutz vor Phishing über das Telefon ist die Information und Aufklärung der Mitarbeiter über die möglichen Schäden, die durch verursacht werden. Grundsätzlich sollten Mitarbeiter dazu verpflichtet werden, keine vertraulichen Daten am Telefon preiszugeben. Ein Problem ist, dass die Angreifer oft über persönliche Informationen über das Opfer verfügen, die sie beispielsweise in den sozialen Medien finden.

Auffälligstes Merkmal von Phishinganrufen ist jedoch die vermeintlich hohe Dringlichkeit, mit der Anrufer versuchen, Druck auszuüben. Die vermeintliche Dringlichkeit soll das Opfer zur unüberlegten Preisgabe der geforderten Informationen verleiten. Trotz des Stresses, den solche Anrufe auslösen können, sollten die vom Anrufer gemachten Angaben durch einen Rückruf bei dem vom Anrufer genannten Institut überprüft werden. Beispielsweise steht auf der Rückseite von Kreditkarten eine offizielle Servicenummer des Kreditkartenunternehmens. In den meisten Fällen hat sich der VOIP Phishing Versuch dann bereits erledigt.

Im Bereich der IT wird mit dem Begriff „Monitoring“ die kontinuierliche Überwachung oder Kontrolle von IT-Systemen auf ihre einwandfreie Funktionalität bezeichnet. Um Ergebnisse zu vergleichen oder auszuwerten muss Monitoring systematisch und regelmäßig durchgeführt werden. Im Rahmen moderner Informationssysteme gehören diese Prozesse zu den wichtigsten Aspekten von Netzwerk- und Systemadministratoren.

Allgemeine Informationen zum Monitoring

Für die reibungslose Funktionalität einer IT-Infrastruktur müssen IT-Administratoren sicherstellen, dass sich alle beteiligten Komponenten innerhalb ihrer normalen Parameter bewegen. Diese Parameter werden durch Monitoring ermittelt, also durch die regelmäßige und systematische Überwachung relevanter Indikatoren. Früher wurden oft nur die reinen Performance-Parameter erfasst, wie zum Beispiel:

–       die Auslastung der CPU bei einer Datenbanktransaktion

–       der Speicherverbrauch bei einer Client-Anfrage

–       die Zeit, die der Server braucht, um eine Anfrage zu beantworten

Heutzutage umfasst Monitoring jedoch sämtliche Bereiche der IT, wie beispielsweise:

–       Sicherheit

–       Nutzerverhalten

–       Verfügbarkeit

Ziele

Im obigen Absatz haben wir das Ziel aller Prozesse bereits mit der „reibungslosen Funktionalität“ definiert. Grundsätzlich handelt es sich dabei um die Ermittlung der Ursachen, die direkt oder indirekt dafür verantwortlich sind, System-Parameter außerhalb der erwünschten Grenzen zu erzeugen. Dabei wird Monitoring eingesetzt, um:

–       das Problem möglichst früh zu identifizieren, sodass es beseitigt werden kann, bevor größere Schäden entstehen können

–       die Ursache des Problems ausfindig zu machen und zu lokalisieren

–       durch das Beseitigen auftretender Probleme Früherkennungsmaßnahmen zu optimieren, sodass künftige Probleme besser erkannt und behoben werden können

Falls ein System innerhalb der normalen Parameter funktioniert, können Maßnahmen beispielsweise auch eingesetzt werden, um die zukünftige Nutzung zu planen. Hat eine Webapp beispielsweise über das vergangene Jahr hinweg nur 60 Prozent ihrer CPU genutzt, lässt sich etwa ein physikalischer Server mit weniger Leistung betreiben.

Methoden und Verfahren

In Bezug auf den Betrachtungszeitraum der im Rahmen des Monitorings erfassten Informationen können zwei Vorgehensweisen unterschieden werden, und zwar:

–       Das sogenannte „Historical Monitoring“, das primär bei der automatischen Erzeugung von Langzeitstatistiken zu IT-Diensten eingesetzt wird. Diese Art ermöglicht u. a. die Kapazitätsplanung anhand der Wachstumsraten innerhalb einer bestimmten Zeitperiode, Rechenauslegung oder die Planung des Budgets. Darüber hinaus sind derartige Datensätze oft gute Indikatoren für systematische Verfügbarkeitsprobleme und entsprechende Lösungen solcher Probleme. Bei dieser Vorgehensweise arbeitet der IT-Administrator proaktiv.

–       Das sogenannte „Real-Time Monitoring“ ist eher reaktiv ausgelegt. Durch die kontinuierliche und systematische Überwachung der Funktionalitäten sämtlicher Dienste sollen Ausfälle schnellstmöglich identifiziert werden und die IT-Verantwortlichen in Kenntnis gesetzt werden. Im Idealfall werden auftretende Probleme identifiziert, bevor der Nutzer etwas davon merkt.

Hohe Verfügbarkeit und niedrige Ausfallraten

Im Rahmen des aktiven Monitorings versuchen dedizierte Systeme das Problem vorübergehend zu beseitigen. Dabei wird jedoch nur die Symptomatik und nicht die eigentliche Ursache des Problems eliminiert. Darüber hinaus ist für viele auftretende Probleme eine solche Vorgehensweise gar nicht möglich, wie beispielsweise bei einem Serverausfall. Ein wesentlicher Nachteil des aktiven Monitorings ist, dass in der Regel ein privilegierter Zugriff auf Dienste und Systeme benötigt wird, was einen erhöhten Risikofaktor darstellt.

Bei dem sogenannten „durchgängigen Monitoring“ wird hingegen das gesamte System inklusive aller relevanten Parameter und Dienste kontinuierlich überwacht. Dies benötigt jedoch eine hohe Disziplin aller IT-Mitarbeiter: Wenn beispielsweise ein neues Gerät oder ein neuer Server in das Netzwerk integriert wird, darf man nicht vergessen, diesen in das Monitoring einzubinden. Des Weiteren erzeugt diese Form des Monitorings eine gigantische Datenmenge, deren gezielte Analyse viel Zeit in Anspruch nehmen kann.

Unterschiedliche Anwendungen

Im Rahmen des sogenannten „End-to-End-Monitoring“ beschränkt sich die Messung auf die Funktionalität eines einzelnen Dienstes. Wenn beispielsweise ein Kunde in einem Webshop, wie Amazon, einkaufen möchte, dann wird die vollständige Transaktion eines Dienstes gemessen und ausgewertet. Bei dieser Vorgehensweise steht das sogenannte „Application Response Time Monitoring“ im Fokus. Damit lässt sich die exakte Antwortzeit einer Webanwendung ermitteln und ob diese in einer akzeptablen Zeit erfolgt.

Im Rahmen des externen wird ein dediziertes Gerät an das Netzwerk angeschlossen, während beim internen auf ein solches Gerät verzichtet wird. Weitere Bezeichnungen für diese Vorgehensweise sind aktives und passives Monitoring. Im Rahmen des aktiven Monitorings werden noch zusätzlich Pakete an das Netzwerk gesendet, während beim passiven lediglich „mitgehört“ wird.

Monitoring Tools

Die Prozesse finden in der IT in Form zahlreicher Tools Unterstützung. Es ist sind eine Vielzahl kommerzieller als auch Open Source-Produkt erhältlich, die jeweils auf unterschiedliche Einsatzszenarien in unterschiedlichen Umgebungen ausgerichtet sind. Nicht jedes Werkzeug eignet sich für jede Netzwerkinfrastruktur und jedes Verfahren gleichermaßen. Einige Tools verfügen über zahlreichen Funktionen und Features, während andere auf spezialisierte Aufgaben ausgerichtet sind. Bei der Auswahl eines solchen Werkzeugs sollten also die eigenen Anforderungen und Bedürfnisse beachtet werden. Welche Funktionen und Features benötigt werden, hängt von folgenden Faktoren ab:

–       Anforderungen der Netzwerkinfrastruktur

–       Benötigte Alarmmeldungen

–       Auf welche Art und Weise sollen Alarmmeldungen gesendet werden?

–       Welcher Monitoring-Typ ist erforderlich?

 

Als die beiden deutschen Softwareentwickler Martin und Dietmar Maurer im Frühjahr 2008 die Open SourceVirtualisierungssoftware Proxmox VE erstmals der breiten Öffentlichkeit vorstellten, hatte niemand wirklich damit gerechnet, dass sich die Virtualisierungsplattform in den nächsten 12 Jahren zu einer der meistgenutzten Virtualisierungslösungen im Linux-Segment entwickeln würde. Aktuellen Informationen zufolge werden weltweit mehr als 150.000 Server-Hosts in mehr als 150 Ländern mit Proxmox betrieben.

Allgemeine Informationen zu Proxmox

Ein Umstand, der zum Erfolg der Virtualisierungsplattform maßgeblich beigetragen hat, spiegelt sich in der Tatsache wider, dass Proxmox die Option bereitstellt, zwei unterschiedliche Virtualisierungslösungen gleichzeitig zu betreiben, und zwar:

–       virtuelle Linux Container (LXC)

–       kernelbasierte Virtual Machine (KVM)

Der virtuelle Linux Container ist eine performante und ressourcenschonende Container-Virtualisierung. Bei den KVMs handelt es sich um ein Kernel-Modul auf Linux-Basis, das direkt auf der Hardware als Hypervisor ausgeführt wird und bei der Virtualisierung von Hardware eingesetzt wird. Mit den KVMs lässt sich eine Vielzahl verschiedener Vserver (virtueller Server) erstellen, wobei alle aktuellen Betriebssysteme wie Windows, Linux und verschiedene BSD-Derivate unterstützt werden. Der Linux-Kernel wird im Rahmen der Virtualisierung selbst zum Hypervisor befördert, wodurch der Overhead auf einem Minimum gehalten wird. Die kernelbasierte Virtual Machine gehört außerdem zu einem der am besten gewarteten Open Source-Systeme im Linux-Bereich. Bugs und Probleme werden dank der gigantischen Open Source-Community schnell erkannt und behoben.

Einfache und schnelle Verwaltung von Proxmox

LXC und KVM decken unterschiedliche Einsatzbereiche ab. So virtualisiert KVM beispielsweise im Gegensatz zu LXC mit virtuellen Maschinen und nicht auf Betriebssystem-Ebene. Aus diesem Grund ist LXC viel flexibler und bietet die Möglichkeit, Applikationen und Nutzer Stacks in kürzester Zeit in Betreib zu nehmen sowie einzelne Prozesse und gesamte Prozessgruppen voneinander zu isolieren. Auf diese Weise lassen sich mehrere Linux-Systeme parallel auf einem Host-Betriebssystem betreiben, die voneinander getrennt und abgeschottet sind. Dadurch lässt die Hardware des Hostsystems wesentlich besser auslasten. Ähnlich wie die Konkurrenzprodukte Docker, VMware und Hyper-V ist LXC gleichermaßen gut bei der Virtualisierung einzelner Anwendungen einsetzbar.

Proxmox bot bis zu der Version 3.4 ausschließlich Unterstützung für OpenVZ als Container-Technologie. LXC kam erst mit der Version 4.0 hinzu. Gründe hierfür waren u. a. die bessere Unterstützung für Storage-Devices und ein optimiertes Storage-System für Linux-Container. So können Anwender zum Beispiel mit LXC ZFS Sub-Volumes nutzen, was sich mit OpenVZ nicht realisieren lässt. Hinzu kommt noch die Tatsache, dass die Netzwerk-Konfiguration bei Linux-Containern viel flexibler ist.

Ein dedizierter Server für das Management der Cluster, Virtual Machines oder der Container ist nicht notwendig. Jeder Proxmox-Host ist mit einem eigenen Webinterface ausgestattet, mit dem sich der gesamte Cluster von jedem Knoten aus schnell und unkompliziert verwalten lässt. Durch den Einsatz eines verteilten Dateisystems (Proxmox Cluster File System), können die Konfigurationsdateien auf alle Nodes (Hosts) im Cluster automatisch verteilt werden. Auf diese Weise wird für konsistente Verwaltungsinformationen auf mehreren Tausenden virtueller Maschinen gesorgt.

Virtualisierungsplattform für Linux-Enthusiasten

Promox bietet neben dem intuitiven Web-Interface auch eine API für Administratoren und Entwickler, sodass wiederkehrende Tasks ohne großen Aufwand per Skript automatisiert werden können. Clients stehen für folgende Programmier- bzw. Skriptsprachen zur Verfügung:

–       Python

–       Java

–       JavaScript (NodeJS)

–       PHP

–       Perl

Da sich die Virtualisierungsplattform mit den entsprechenden Programmier-Kenntnissen individuell an die eigenen Bedürfnisse der Nutzer anpassen lässt, wird ein äußerst flexibles Agieren ermöglicht.

Proxmox VE nutzt als Basis die Linux-Distribution Debian, sodass Anwender auf alle Funktionalitäten des Betriebssystems zugreifen können. Nutzer können grundsätzlich auch alle Pakete, die für das beliebte Debian entwickelt wurden, unter Proxmox installieren. Die Virtualisierungsplattform ist somit optimal an die Anforderungen von Administratoren zugeschnitten, die bereits über Linux-Erfahrungen verfügen. Proxmox ermöglicht ein ebenso interaktives Arbeiten wie mit Debian. Dank der riesigen Community steht außerdem viel Know-how zur Verfügung, sodass für viele Probleme, mit denen Anwender konfrontiert werden können, bereits eine Lösung existiert.

Hohe Verfügbarkeit von Proxmox

Da Debian als extrem sicher und stabil gilt, trägt es in wesentlichem Maße zu der Zuverlässigkeit der Virtualisierungssoftware bei. Die Proxmox Server Solutions GmbH ist der Verwalter des Projekts und ist direkt dafür zuständig, die Virtualisierungsplattform regelmäßig zu aktualisieren und sie dabei auch an neue Debian-Versionen anzupassen. Die Virtualisierungsplattform kann ebenfalls mit einer hohen Verfügbarkeit punkten. Der Proxmox VE HA Manager ist dafür zuständig, alle Knoten im Cluster kontinuierlich zu überwachen. Sobald einer dieser Knoten ausfällt, wird der Proxmox VE HA Manager aktiviert. Diese Funktionalität ist bereits bei der Standardinstallation von Proxmox VE bereits vorinstalliert, weswegen Anwender die Funktion lediglich an die eigenen Anforderungen und Bedürfnissen anpassen müssen.

Vielseitige Speichertypen für Proxmox

Proxmox VE ist extrem flexibel in Bezug auf den Speicher. Die Virtualisierungsplattform ist mit verschiedenen lokalen Speicher- und Netzwerkspeicher-Modulen versehen, was ebenfalls Debian zu verdanken ist. Alle Speichertypen, die von der Linux-Distribution unterstützt werden, können im Rahmen von Proxmox genutzt werden. Hierzu gehören:

–       Ceph

–       NFS

–       ISCSI

–       FibreChannnel

–       ZFS

Mithilfe der Shared Storage-Funktionalität lassen sich Abbilder der Vserver im lokalen Netzwerk ablegen. Die Virtualisierungsplattform ist außerdem mit einer Funktion zur Live-Migration versehen, sodass sich die erstellten Vserver ohne Ausfallzeit migrieren lassen.