Beiträge

Mindestens 9 von 10 weltweit verschickten E-Mails sind Spam. Spam-Mails sind für die Empfänger ärgerlich und ein Problem für seriöses E-Mail-Marketing. E-Mail Provider und Webhoster sind sehr darauf bedacht, ihre Kunden vor unerwünschten Mails zu schützen. Nicht selten werden dabei auch seriöse Versender in eine sogenannte Blacklist eingetragen. Alles, was Sie über Blacklisting wissen sollten, erfahren Sie im folgenden Beitrag.

Im Allgemeinen ist eine Blacklist – auf Deutsch „schwarze Liste“ – eine Liste mit Wörtern, Webseiten, Medien, IP-Adressen oder E-Mail-Adressen. Diese Daten werden anhand bestimmter Kriterien ermittelt und in die Liste eingetragen. E-Mail Blacklists werden von Internet-Service-Providern (ISP), E-Mail-Providern, Unternehmen, Universitäten oder öffentlichen Organisationen geführt. Sie sollen verhindern, dass die Kunden eines Mail-Providers oder die Mitarbeiter eines Unternehmens unerwünschte E-Mails erhalten. Wenn eine eingehende E-Mail in bestimmten Punkten mit den in der Blacklist gespeicherten Daten übereinstimmt, wird sie in der Regel sofort gelöscht und nicht zugestellt. Andere Bezeichnungen für eine Blacklist sind Sperrliste oder Negativliste.

E-Mail Blacklist Arten

E-Mail Blacklists werden entweder öffentlich oder nicht öffentlich geführt. Sie enthalten die IP-Adressen oder die Domains, von denen Spam oder Mails mit Schadsoftware versendet werden.

IP-basierte Blacklist

Eine IP-basierte Liste enthält die für den Versand von Spam-Mails häufig verwendeten IP-Adressen. Steht eine in einer Blacklist, bedeutet dies, dass die von dieser Adresse versendeten E-Mails nicht an die Empfänger zugestellt werden. Provider blockieren oft ganze Gruppen von IP-Adressen. Beispielsweise aus China oder Russland.

Domain-basierte Blacklist

Eine Domain-basierte Liste enthält die Domains von Spamversendern. Diese Blacklists filtern E-Mails unabhängig von der IP-Adresse des Versenders heraus. Das heißt, selbst wenn der Versender den Server wechselt, um die IP zu ändern, werden die von dieser Domain versendeten E-Mails nicht zugestellt.

Öffentliche E-Mail Blacklists

Öffentliche E-Mail Blacklists werden von zahlreichen Providern und anderen Organisationen geführt. Die genaue Zahl der weltweit geführten öffentlichen Blacklists ist nicht bekannt. Es dürften jedoch einige tausend sein. Bekannte Betreiber von E-Mail Blacklists sind:

Spamhaus

NiX Spam

SpamCop

SORBS

Five Ten SG

Hierbei handelt es sich meist um sogenannte Echtzeitdatenbanken, die fortlaufend aktualisiert werden. Diese Blacklists werden auch von den meisten Internet-Service-Providern genutzt.

Nicht öffentliche Blacklists

Nicht öffentliche oder interne Blacklists werden ebenfalls von den meisten ISP geführt. Unternehmen und Universitäten nutzen interne Listen oft als Ergänzung einer Firewall, um Hackerangriffe per E-Mail abzuwehren. Die Spamfilter des E-Mail Empfängers sind ebenfalls eine Art Blacklist. Sie können in den E-Mail-Clients der großen Anbieter wie beispielsweise T-Online oder GMX individuell konfiguriert werden. Mails, die vom Provider zugestellt werden, können durch einen Spamfilter den Empfänger dennoch abgelehnt, gelöscht oder in den Spam-Ordner verschoben werden.

Gründe für den Eintrag in eine E-Mail Blacklist

Die häufigsten Gründe für einen Eintrag in eine E-Mail Blacklist sind

  • Kennzeichnung der Mails als Spam durch Empfänger
  • hohe Bounce Rate wegen qualitativ schlechter Adressen
  • geringe Öffnungsrate wegen fehlender Relevanz
  • sprunghaft steigendes Versandvolumen durch gekaufte oder gemietete Adresslisten
  • kein Link für zum Löschen der Adresse aus dem Verteiler

Im Internet finden Sie zahlreiche kostenlose Tools, mit denen sie überprüfen können, ob ein Eintrag in einer E-Mail Blacklist erfolgt ist.

Wie kann ein Eintrag gelöscht werden?

Verschiedene Betreiber dieser Listen verlangen, dass Ihr Provider die Löschung beantragt und ausführlich begründet. Anbieter wie Spamhaus bieten auf der eigenen Webseite die Möglichkeit, einen Antrag auf Löschung zu stellen. In den meisten Fällen kann Ihnen Ihr Provider weiterhelfen. Bei nicht öffentlich geführten Listen ist eine Löschung fast nicht möglich, da sie kaum herausfinden können, in welcher dieser Listen ein Eintrag erfolgt ist.

Whitelisting, Greylisting und Throttling

In Zusammenhang mit E-Mail Blacklisting werden häufig die Begriffe Whitelisting, Greylisting und Throttling genannt. Eine Whitelist ist das Gegenteil einer Blacklist. Sie enthält vertrauenswürdige IP-Adressen oder Domains. E-Mails von Versendern, die in einer Whitelist des Empfängers stehen, werden nicht blockiert und dem Empfänger direkt zugestellt.

Greylisting ist eine Vorstufe des Blacklisting. Greylisting wird angewendet, wenn eine E-Mail eingeht, die weder in einer Whitelist noch in einer Blacklist steht. Diese Mails werden zunächst abgelehnt. Eine Zustellung erfolgt erst beim zweiten Versuch. Der Grund hierfür ist, dass automatisierte Programme, sogenannte Spam-Bots, in den meisten Fällen nur einmal versuchen, eine Mail zuzustellen.

Eine vom Provider des Versenders durchgeführte Maßnahme zum Schutz vor massenhaft versendeten Spam-Mails ist Throttling, auf Deutsch „Drosselung“. Die meisten Provider geben ein Limit für die in einem bestimmten Zeitraum verschickbaren E-Mails vor. Wenn Sie als Versender dieses Limit überschreiten, wird der weitere Versand blockiert oder verzögert.

Wie kann ein Eintrag vermieden werden?

Eine der wichtigsten Voraussetzungen dafür, dass die eigene E-Mail-Adresse oder IP nicht in eine Blacklist eingetragen wird, ist eine hohe Reputation. Basis für diese Reputation sind gepflegte Adresslisten mit validen E-Mail-Adressen und der Versand von relevanten Inhalten nur an Adressaten, die dem Empfang explizit zugestimmt haben (Double-Opt-In). Die Einhaltung aller rechtlichen Vorgaben für den E-Mail-Inhalt und keine Verwendung gekaufter oder gemieteter Adressen sind ebenfalls wichtig.

Was sich hinter dem Begriff Whitelist – auch Positivliste genannt – verbirgt, und wo solche Listen Verwendung finden, wird im folgenden Artikel erläutert.

Eine Whitelist ist eine Auflistung von Objekten, die als erlaubt definiert wurden. So haben zum Beispiel Banken Listen von Korrespondenzinstituten, mit denen sie im internationalen Zahlungsverkehr zusammenarbeiten. Viele Unternehmen führen Berechtigungslisten, zum Beispiel für den Zutritt zu besonders geschützten Räumlichkeiten oder den Zugang zu vertraulichen Informationen. Nur jene Personen, die auf einer solchen Whitelist stehen, haben Zutritt oder Zugang. Oder es werden Aufstellungen geführt, die Produkte enthalten, die in einem Unternehmen verwendet werden dürfen, z.B. bestimmte Hard- oder Software.

Eine Whitelist ist also ein Hilfsmittel, das exklusiv definiert, was erwünscht bzw. erlaubt ist. Was nicht in der Liste enthalten ist, ist verboten bzw. unerwünscht. Die Whitelist gibt somit klare Regeln vor und findet daher oft in Organisationen Anwendung, wo Standardisierung erforderlich ist. Eine Whitelist ist üblicherweise verbindlich. Wer dagegen verstößt, hat mit Konsequenzen zu rechnen.

Vorteile der Whitelist

Eine Whitelist schafft Klarheit und Verbindlichkeit, ohne Spielraum zuzulassen. Dadurch ermöglicht sie eine sehr genaue Steuerung. Da exakt angeführt ist, was erlaubt ist, z.B. welche Software verwendet werden darf, ist gewährleistet, dass genau die festgelegten Qualitätskriterien ohne Abweichung eingehalten werden.

Wie jedes Mittel zur Standardisierung unterstützt die Whitelist die Geschwindigkeit von Entscheidungen, weil die Optionen bereits durch eine Vorauswahl eingegrenzt wurden.

Nachteile der Whitelist

Der Prozess, jene Elemente zu definieren, die es auf die Whitelist schaffen, das sogenannte Whitelisting, ist aufwändig und muss in relativ kurzen Abständen immer aufs Neue wiederholt werden. Dies deshalb, weil sich in der schnelllebigen Zeit Rahmenbedingungen, Umfeld, Produkte, Anforderungen etc. rasch ändern. Vernachlässigt man diesen Aspekt, wird die Whitelist schnell veraltet. Diese Gefahr ist hoch, denn wenn man  immer auf dem letzten Stand sein will, ist die Aktualisierung fast permanent erforderlich. Und das kostet Zeit und Mühe.

 

Durch den Ansatz, nur das zuzulassen, was auf der Liste angeführt ist, ist die Whitelist eher statisch und lässt es nicht zu, flexibel etwas Neues auszuprobieren, das noch keiner Prüfung unterzogen wurde. Sie ist daher bis zu einem gewissen Grad innovationsfeindlich. Das kann dazu führen, dass gar nicht mehr nach Neuem gesucht wird und sich bei Mitarbeitern in einer Organisation Frustration einstellt. Im schlimmsten Fall wird die Liste subtil umgangen.

Unterschiede zur Black List

Oft wird gesagt, die Whitelist sei  das Gegenteil der Blacklist, die auch Negativliste genannt wird. Das greift aber zu kurz, weil die Zugänge grundsätzlich andere sind.

Die Blacklist ist eine Aufstellung von Objekten, die nicht erwünscht sind, sie ist also eine Verbotsliste. Der Grundsatz hier ist: Alles ist erlaubt, was nicht ausdrücklich (durch Aufnahme in die Blacklist) verboten ist. Durch diesen Ansatz ist die Blacklist weniger rigide und weniger punktgenau in der Steuerung als die Whitelist.

Die Negativliste bietet somit mehr Freiheit als die Positivliste. Bei der Blacklist ist es aber erforderlich, genau zu wissen, welche Objekte es gibt (zum Beispiel Hardware), um diese bewerten zu können. Wenn man etwas übersieht und es deswegen nicht in die Liste aufnimmt, ist es nicht verboten. Also ist auch hier eine regelmäßige Sondierung des Umfelds erforderlich.

Die Whitelist in der IT

In der IT gibt es viele Einsatzgebiete für Whitelists. Sie dienen dort im Wesentlichen dazu, Geräte und Systeme vor Bedrohungen zu schützen.

Hier finden Sie einige Beispiele:

In einer Positivliste kann definiert werden, dass nur bestimmte, vom Unternehmen angekaufte und ordentlich lizenzierte Software eingesetzt werden darf. Ebenso kann dies für Hardware erfolgen, die mit dem Unternehmensnetzwerk verbunden werden darf.

Spamfilter arbeiten oft mit Whitelists, in die zur Kommunikation zugelassene IP- oder E-Mail-Adressen eingetragen werden. Nicht zugelassene E-Mails werden dann nicht zugestellt oder in Spam-Ordner geleitet. Werbeblocker verwenden Positivlisten, um Werbung von bestimmten Erstellern zuzulassen.

Oft wird auch der Zugang zu bestimmten Internetinhalten mit Whitelists verwaltet, z.B. bei Kindern und Jugendlichen, die dann nur die definierten Adressen aufrufen können.

Ein besonders wichtiger Anwendungsbereich von Whitelists ist die Konfiguration von Firewalls. Firewalls haben die Aufgabe, Netzwerke, einzelne Bereiche davon oder Geräte vor Bedrohungen zu schützen. Um das zu gewährleisten, prüft eine Firewall ständig den Datenverkehr und erlaubt diesen nur mit jenen Zielen, die in der Whitelist angeführt sind.

Teamviewer ist eine Software, die bei der Fernwartung von Computersystemen zum Einsatz kommt. Wenn Sie diese Software privat nutzen, können Sie die Datei als Freeware auf Ihren Rechner laden. Für Unternehmen gibt es eine kostenpflichtige Version. Die Software kam im Jahre 2005 auf dem Markt. Dank der ständigen Weiterentwicklung und Anpassung auf neue Lösungen und Systeme ist Teamviewer stets aktuell.

Fernwartungslösung für verschiedene Betriebssysteme

Mit der Nutzung von Teamviewer entscheiden Sie sich für eine Lösung, die eine Fernwartung von Rechnern erlaubt, die mit verschiedenen Betriebssystemen arbeiten. So ist es möglich, eine Version für die Betriebssysteme Windows von Microsoft, macOS von Apple und Linux zu nutzen. Darüber hinaus ist die Software für die Fernwartung mobiler Betriebssysteme geeignet. Hier erfolgt eine Unterstützung von Android, iOS und Windows Phone. Es ist möglich, die Lösung betriebssystemübergreifend zu nutzen. So gelingt beispielsweise die Fernwartung eines PCs von einem mobilen Gerät aus.

Kostenpflichtige und kostenfreie Versionen

Grundsätzlich ist Teamviewer für private User kostenlos. Es handelt sich um eine Freeware, die Sie ohne Zahlung einer Gebühr auf den heimischen Rechner oder auf ein mobiles Gerät laden können. In den Bewertungen der Software häufen sich jedoch Kommentare, die über kostenpflichtige Funktionen berichten. Außerdem gibt es zeitliche Beschränkungen, die sich auf eine einzige Sitzung beziehen.

Möchten Sie Teamviewer in einem Unternehmen nutzen, müssen Sie die Software kaufen. Eine kommerzielle Nutzung der Freeware ist nicht gestattet. Nach dem Kauf erfolgt eine Freischaltung aller Funktionen. Sie kommen in den Genuss kostenfreier Updates und vieler Funktionen, die Ihnen die Fernwartung der verschiedenen Systeme erleichtern. Selbstverständlich haben Sie auch als Privatanwender die Option, die Software zu kaufen.

Viele Optionen für die Fernwartung

Teamviewer bietet Ihnen zahlreiche Optionen für die Fernwartung verschiedener Computersysteme. Dies bedeutet, dass Sie auf die Funktionen eines Computers zugreifen und diesen steuern können.

Screensharing

Besonders häufig kommt Teamviewer im Bereich des Screensharings zum Einsatz. Dabei handelt es sich um die Übertragung eines Bildschirminhaltes auf einen oder mehrere Computer, die sich in einem anderen Netzwerk oder an einem anderen Ort befinden. Wenn Sie den Bildschirm eines entfernten Computers mithilfe des Screensharings aufrufen, stellen sich die Inhalte Ihnen so dar, als würden Sie direkt vor dem anderen Rechner sitzen. Auf diese Weise bietet sich Ihnen die Möglichkeit, zeitlich und örtlich unabhängig an Projekten oder Dateien zu arbeiten.

Videokonferenzen

Auch bei der Einrichtung und Abhaltung von Videokonferenzen kann eine Fernwartung des Computers durch eine Software wie Teamviewer notwendig sein. Videokonferenzen haben im Zeitalter der Globalisierung stark zugenommen. Immer mehr Unternehmen arbeiten international. Die Verständigung der Mitarbeiter an den verschiedenen Standorten erfolgt mittels Videokonferenz. Die Fernwartung sorgt für einen störungsfreien Ablauf der oftmals wichtigen Konferenzen. Darüber hinaus arbeiten immer mehr Menschen im Homeoffice. Die Anzahl der Mitarbeiter, die von Zuhause aus auf die firmeninternen Daten zugreifen, ist seit dem Beginn der Coronapandemie stark angestiegen. In Zeiten, in denen Menschen auf Distanz miteinander leben müssen, ermöglichen Videokonferenzen eine individuelle Kommunikation. Die Nutzung hat nicht nur im geschäftlichen, sondern auch im privaten Bereich zugenommen.

Dateitransfer

Der Transfer von Dateien gestaltet sich über das Internet sehr einfach. Wichtig ist jedoch, dass die Sicherheit gewahrt ist. Wenn Sie eine Datei an eine andere Person oder an einen anderen Computer senden, sollte diese verschlüsselt oder mit einem Kennwort geschützt sein. Dies ist vor allem dann ein wesentlicher Aspekt, wenn es sich um sensible Dateien handelt, die vor dem Zugriff Dritter geschützt sein sollen.

VPN

VPN ist die Abkürzung für den englischen Begriff Virtual Private Netzwerk. In vielen Fällen handelt es sich um Kommunikationsnetze, die in sich geschlossen sind. Teamviewer ermöglicht dennoch eine Fernwartung, da die Software in der Lage ist, durch Proxy-Server, Firewalls und andere Schutzmechanismen hindurch zu arbeiten. Dies ist für Kommunikationsnetze ein wichtiger Aspekt, da Probleme in den meisten Fällen durch eine Fernwartung analysiert und behoben werden.

New Work – modernes Arbeiten im Netzwerk

Der Begriff New Work ist deutlich älter als die modernen Arbeitsstrukturen im Internet und in den betriebsinternen Netzwerken. Die Prägung des Begriffs erfolgte durch den Sozialphilosophen Frithjof Bergmann bereits in den 1970er Jahren. Damals entwickelte er eine Strategie, die Arbeitsprozesse, die noch aus dem Zeitalter der Industrialisierung stammen, umkehren. So soll der Mensch nicht mehr nur als Mittel zum Zweck arbeiten, sondern seine eigenen Ziele verwirklichen können. Dies galt in den 1970er Jahren in vielen Arbeitsbereichen noch als Utopie. Heute sind wir mitten in der Verwirklichung der Prozesse, die Bergmann vorhergesagt hat. Dazu zählen unter anderem Lösungen wie Teamviewer, die eine Analyse von Systemen aus der Ferne erlauben und Ihnen somit ermöglichen, zeitlich und örtlich unabhängig Ihre Arbeit zu erledigen.

Moderne Arbeitswelt mit BYOD

In den letzten Jahren ist es zu beobachten, dass immer mehr Prozesse in die Digitalisierung einbezogen werden. Dazu gehört auch BYOD. Dabei handelt es sich um die Abkürzung für den englischen Begriff Bring Your Own Device. Konkret bedeutet dies, dass Sie Dateien herunterladen, die auf dem Server eines Unternehmens oder einer öffentlichen Einrichtung liegen. Diese Dateien können Sie zeitlich unbegrenzt oder Nut für einen bestimmten Zeitraum nutzen. BYOD ist ein wesentlicher Teil der New Work. Aber auch im Privaten gewinnt die Nutzung digitaler Dateien zunehmend an Bedeutung. Die Systeme, über die derartige Dateien bereitgestellt werden, müssen in regelmäßigen Abständen gewartet werden, um die Funktionalität zu erhalten. Auch hier ist eine Fernwartungssoftware wie Teamviewer unverzichtbar.

Der Begriff Disaster Recovery (DR) bezieht sich auf unterschiedliche Maßnahmen, mit denen die Wiederaufnahme des IT-Betriebs nach einem Katastrophen- oder Störungsfall sichergestellt wird. Die Disaster Recovery beinhaltet unterschiedliche Maßnahmen und Prozesse, um beispielsweise geschäftskritische Daten oder IT-Infrastrukturen schnellstens wiederherzustellen.

Allgemeine Informationen

Dsaster Recovery ist ein wichtiger Bestandteil der Sicherheitsplanung und beschäftigt sich in erster Linie mit der Wiederherstellung wichtiger IT-Dienstleistungen und Daten nach einem Störungsfall. Die Störungen können durch diverse Ausfälle und Ereignisse verursacht werden, wie beispielsweise Hardware-Ausfälle, Naturkatastrophen, Hackerangriffe oder Bedienungsfehler. Das Ziel solcher Wiederherstellungs-Maßnahmen ist es, die negativen Auswirkungen für eine Organisation oder ein Unternehmen zu minimieren. Im Rahmen der Disaster Recovery-Maßnahmen werden zum Beispiel, Server oder Netzwerke wiederhergestellt.

Der Begriff Disaster Recovery ist englischen Ursprungs und bedeutet in die deutsche Sprache übersetzt so viel wie Notfallwiederherstellung oder Notfallplan. In vielen Fällen werden die beiden Begriffe Business Continuity und Disaster Recovery synonym verwendet. Business Continuity ist jedoch umfassender, da es hier nicht nur um die Wiederherstellung von IT-Infrastrukturen geht, sondern auch um die Aufrechterhaltung wichtiger Geschäftsprozesse. Der Fokus von Business Continuity liegt also primär auf der Sicherstellung der geschäftlichen Prozesse. Technische Maßnahmen, die im Rahmen der Disaster Recovery zum Einsatz kommen, sind:

–       Datensicherung

–       Redundanzen

–       Zurverfügungstellung von Ersatzhardware

Durch den Einsatz dieser Maßnahmen sollen sogenannte „Single Point of Failures“ möglichst gut vermieden werden.

Der Disaster Recovery Plan

Der Disaster Recovery Plan (DRP) umfasst alle Verfahren, Vorgaben und Maßnahmen, wie man in einem Störungsfall reagieren sollte, um die Auswirkungen des Ausfalls auf das Unternehmen zu minimieren. Die in dem DRP enthaltenen Maßnahmen sind so konzipiert, dass sie schrittweise durch die Verantwortlichen abgearbeitet werden müssen. Des Weiteren sind im DRP Eskalationsstufen, Meldewege und Definitionen der Verantwortlichkeiten zusammengefasst, die im Notfall umgesetzt werden müssen.

Der Disaster Recovery Test

Mit einem Disaster Recovery Test lässt sich die Effizienz überprüfen und genau analysieren. Damit kann man sicherstellen, dass im Fall einer Störung die unterschiedlichen Maßnahmen und Prozesse des DRPs die Wiederherstellung der IT-Infrastruktur ermöglichen. Die Ergebnisse aus den Tests können bei Bedarf in bestehende Verfahren und Prozesse eingebunden werden, um diese zu optimieren. Mit regelmäßigen Tests können Unternehmen die Pläne auf dem aktuellsten Stand halten und schulen zudem auf diese Weise die Mitarbeiter, wie sie im Notfall reagieren sollten.

Recovery Time Objective und Recovery Point Objective

Bei Recovery Time Objective (RTO) und Recovery Point Objective (RPO) handelt es sich um wichtige Kennwerte, die im Rahmen der Notfallwiederherstellung eine äußerst bedeutende Rolle spielen. Recovery Time Objective gibt beispielsweise Auskunft darüber, wie lange ein IT-System oder ein IT-Service ausfallen darf, ohne einen größeren Einfluss auf die Geschäftsprozesse zu haben. Konkret handelt es sich dabei um den Zeitraum zwischen dem ersten Auftreten der Störung und der Wiederherstellung des IT-Systems oder der IT-Services. Die Zeiträume können dabei zwischen einigen Sekunden und mehreren Tagen oder sogar Wochen betragen. Recovery Point Objective gibt hingegen die Antwort auf die Frage, wie viel Datenverlust man hinnehmen kann. Dabei handelt es sich um die zeitliche Periode, die zwischen zwei Datensicherungen vergehen darf. Je niedriger die Recovery Point Objective ist, umso besser ist es.

Disaster Recovery as a Service (DRaaS)

DRaaS baut auf der Cloud-Infrastruktur auf und nutzt Funktionalitäten aus der Cloud, mit denen sich im Notfall wichtige IT-Systeme wiederherstellen lassen. Bei diesem Angebot stellt ein Provider einen Backup von Daten, Cloud-Speicherplatz für einen Online Backup, virtualisierte IT-Strukturen oder virtuelle Server als Cloud-Angebot zur Verfügung. Damit kann man das Unternehmen vor Notfällen absichern, ohne zusätzliche Hardware- und Software-Lösungen in einem eigenen Rechenzentrum betreiben zu müssen. DRaaS ist in erster Linie auf die Anforderungen von kleineren und mittleren Unternehmen ausgerichtet, die in vielen Fällen nicht über das nötige Fachwissen und die Ressourcen verfügen, um eigene Notfallmaßnahmen optimal umzusetzen.

Bei dem Simple Network Management Protocol (SNMP) handelt es sich um ein sogenanntes Netzwerkverwaltungsprotokoll, das von der Internet Engineering Task Force (IETF) entwickelt wird. Das Protokoll wird zur Konfiguration und Steuerung sowie zum IT-Monitoring von netzwerkfähigen Geräten eingesetzt. Das können beispielsweise Switches, Firewalls, Router aber auch Drucker, Computer oder Server sein.

Allgemeine Informationen zu SNMP

Das Simple Network Management Protocol (SNMP) basiert auf dem Grundkonzept, der den Informationsaustausch zwischen Clients und einer zentralen Instanz über Netzwerkpakete vorsieht. Solche Informationen können sowohl die Form von Status- oder Statistikdaten übernehmen als auch als Konfigurations- und Steuerungsdaten übermittelt werden. Das Simple Network Management Protocol (SNMP) beschreibt dabei die exakte Zusammensetzung der Datenpakete und den genauen Ablauf der gesamten Kommunikation. Vergleichbare Konkurrenztechnologien sind Zabbix, Nagios, PRTG und Solarwinds. Im Laufe der Jahre wurde SNMP kontinuierlich weiterentwickelt und zahlreichen Verbesserungen und Optimierungen unterzogen, sodass heutzutage viele verschiedene Versionen existieren. Aktuelle Versionen bieten Unterschätzung für performante Sicherheitsmechanismen wie Verschlüsselung, Authentifizierung und Validierung.

Mögliche Einsatzbereiche von SNMP sind beispielsweise:

–       die kontinuierliche Überwachung von netzwerkfähigen Komponenten

–       die Steuerung und die Konfiguration von netzwerkfähigen Geräten aus der Ferne

–       die Übermittlung von Fehlern

Die Vorteile des Simple Network Management Protocol spiegeln sich in der Einfachheit und der Modularität wider. Dank dieser Charakteristiken hat sich SNMP im Laufe der Jahre als Standard etabliert und wird von einer Vielzahl an netzwerkfähigen Geräten und Netzwerkmanagement-Anwendungen unterstützt.

Kommunikation zwischen Clients und Manager

Im Rahmen des Netzwerkverwaltungsprotokolls kommunizieren die Agenten der einzelnen Geräte mit einem oder mehreren zentralen Instanzen, die auch als Manager bezeichnet werden. Die Agenten werden als Software-Programme realisiert, die direkt auf den Endgeräten laufen. Die Software ist in der Lage, den Status und die Konfiguration in Echtzeit zu erfassen und bestimmte Aktionen auszuführen oder Einstellungen am Gerät vorzunehmen.

Bei dem Manager hingegen handelt es sich um eine Software, die auf einem Server installiert ist und von dort aus mit den Agenten kommuniziert und deren Statusmeldungen entgegennimmt. Die gesamte Kommunikation zwischen Agenten und Manager wird über SNMP realisiert. Die typische Kommunikation wird auf folgende Weise umgesetzt: Der Manager schickt einen Request an den Agenten. Dieser führt den Request aus und beantwortet dann die Anfrage mit einem Response-Paket. Des Weiteren ist der Agent in der Lage, unaufgeforderte Informationen über sogenannte „Traps“ zu versenden. Diese kommen in der Regel bei kritischen oder unvorhergesehenen Vorfällen zum Einsatz.

 

Die verschiedenen Nachrichtentypen im Überblick

Um eine möglichst große Bandbreite an unterschiedlichen Funktionalitäten zu bieten, sind im Rahmen des SNMP-Standards unterschiedliche Pakettypen definiert. Die wichtigsten sind:

–       GET-REQUEST: Diese Request dient zum Anfordern von Informationen

–       GETNEXT-REQUEST: Diese Request kommt zum Einsatz, um weitere Daten der Management Information Base (MIB) zu beantragen

–       GETBULK: Mit dieser Request ruft der Manager mehrere Datensätze gleichzeitig an

–       SET-REQUEST: Hiermit werden Daten zum Verändern oder Konfigurationsinformationen eines Netzwerkelements angefordert

–       GET-RESPONSE: Mit dieser Request wird die Antwort auf eine Anfrage bestätigt

Alle GET-Pakete sendet der Manager explizit an den Agenten. Mit den Response-Paketen werden die Request beantwortet oder bestätigt und beinhalten in der Regel die angeforderten Informationen. Eine Besonderheit stellen die sogenannten „TRAP-Pakete“ dar. Diese können von dem Manager nicht bestätigt werden, sodass der Agent nicht feststellen kann, ob diese auch tatsächlich angekommen sind. Die Datenübertragung im Rahmen von SNMP nutzt die darunterliegenden TCP/IP und UDP-Protokolle sowie die Ports 161 und 162.

Management Information Base (MIB)

Bei der Überwachung und Steuerung der Netzwerkgeräte durch SNMP kommt der Management Information Base (MIB) eine zentrale Rolle zu. Bei der MIB handelt es sich um eine Art Datenbank, in der alle relevanten Daten abgelegt sind und über die Bereitstellung von Informationen läuft. Konkret bedeutet das, dass die MIB die Datenbasis repräsentiert, die in einem Netzwerkgerät vorhanden ist und sich per SNMP abfragen lässt. In der Regel kommt die Standard-MIB zum Einsatz. Es existieren jedoch auch zahlreiche Erweiterungen und herstellerspezifische Anpassungen.

Auch die nachfolgende Version SNMPv2 brachte keine wesentlichen Sicherheitsmechanismen. Die V2-Version ist mit zusätzlichen Funktionen ausgestattet. Die wichtigste davon ist GETBULK, mit der gleichzeitig mehrere Informationen abgefragt werden. Des Weiteren bietet SNMPv2 neben TCP/IP und UDP auch Unterstützung für weitere Netzwerkprotokolle, wie beispielsweise Appletalk oder IPX.

 

SNMP-Versionen im Detail

Die erste Version des Netzwerkverwaltungsprotokolls zum Monitoring netzwerkfähiger Geräte wurde bereits im Jahr 1988 erarbeitet. Diese Version hatte jedoch mit einigen Problemen zu kämpfen. So war eines der größten Probleme der ersten Version die fehlende Implementierung von Sicherheitsmechanismen. Aufgrund der fehlenden Sicherheit könnten Cyberkriminelle die Kommunikation zwischen dem Manager und dem Agenten abhören. Auch das Passwort konnte man leicht herausfinden, da es unverschlüsselt über das Netzwerk übertragen wurde.

Bedeutende Sicherheitsmechanismen wurden erst im Rahmen von SNMPv3eingebunden. Diese Version kam mit einer Username- und Passwort-Verschlüsselung sowie mit einer leistungsstarken Verschlüsselung der übertragenen Daten. Zusätzlich kamen noch mehr Konfigurationsoptionen hinzu.

Bei Power over Ethernet (PoE) handelt es sich um ein Verfahren, das die elektrische Stromversorgung von netzwerkfähigen Geräten wie WLAN-Controller oder Hardware-Firewall über ein gewöhnliches Ethernet Kabel ermöglicht. Durch den Einsatz dieses Standards können Sie auf separate Verkabelungen zur Energieversorgung einzelner Geräte komplett verzichten. Im Rahmen des PoE-Standards existieren verschiedene Spezifikationen, die unterschiedliche Maximalleistungen zulassen.

Allgemeine Informationen

PoE steht für Power over Ethernet. Damit wird ein komplexes Verfahren aus dem Bereich der Netzwerktechnik beschrieben, mit dem sich der für den Betrieb von Netzwerkgeräten benötigte Strom über ein Netzwerkkabel zur Verfügung stellen lässt. Im Rahmen des PoE-Standards überträgt das Ethernet-Kabel nicht nur den gesamten Datenverkehr, sondern auch den elektrischen Strom. Für Power over Ethernet gibt es unterschiedliche Standards. Je nach definiertem Standard werden unterschiedliche maximale Leistungen ermöglicht. Durch den Einsatz von PoE können Sie auf den Einsatz eines separaten Stromanschlusses verzichten, sodass der Aufwand für die Installation deutlich geringer ausfällt als bei netzwerkfähigen Geräten mit herkömmlichen Netzwerkkabel. Diese Technik wird häufig für die Versorgung von abgesetzten Geräten eingesetzt, wie beispielsweise Webcams, WLAN-Access Points oder Überwachungskameras, die in vielen Fällen an unzugänglichen Stellen installiert werden. Die zwei wichtigsten Standards, die innerhalb von PoE zum Einsatz kommen, sind:

–       IEEE 802.3af

–       IEEE 802.3at

Bei IEEE 802.3at handelt es sich um einen PoE-Standard, bei dem die beiden freien Adernpaare in 10Base-T- und 100Base-TX-Ethernet-Kabeln für die Stromübertragung genutzt werden. Die Spannung auf den beiden Kabeln ist begrenzt und beträgt im Normalfall bis zu 48 Volt bei einer Maximalleistung von 15,4 Watt. Durch den Einsatz einer relativ hohen Spannung ist es möglich, die Verlustleistung und die Wärmeentwicklung in den Kabeln auf einem geringen Niveau zu halten.

Im direkten Vergleich zu IEEE 802.3af ermöglicht der IEEE 802.3at-Standard den Einsatz höherer Leistungen. Hier kommen die sogenannten „Endspan-“ und „Midspan- Versorgungsmethoden“ zum Einsatz. Im Rahmen der Endspan-Methode kümmert sich der PoE-Switch um die direkte Versorgung, während bei der Midspan-Methode zwischengeschaltete Quellen, wie zum Beispiel PoE-Injektoren, für die Stromversorgung genutzt werden.

Um Strom über Ethernet zu übertragen, kommen zwei unterschiedliche Varianten zum Einsatz. Bei der ersten Variante handelt es sich um die sogenannte „Fernspeisung“. Diese Variante überträgt den Strom über die Adernpaare, die auch für die Übertragung von Daten genutzt werden. Die andere Variante wird als „Spare-Pair-Speisung“ bezeichnet und benutzt ausschließlich ungenutzte Adernpaare.

Welche Vorteile bietet PoE?

Da mittels Power over Ethernet sowohl die Daten- als auch die Stromübertragung über ein einziges Ethernet-Kabel möglich sind, lassen sich auf diese Weise Kosten für die Anschaffung und den Betrieb mehrerer Kabel einsparen. Hinzu kommt noch, dass die Installation neuer oder die Erweiterung bestehender Netzwerke, wesentlich günstiger ist, da Sie keine zusätzlichen Stromleitungen installieren müssen. Netzwerkgeräte lassen sich so auch an unzugänglichen Stellen installieren, an denen es sonst sehr umständlich wäre, zusätzliche Stromkabel zu verlegen. Dank der zentralen Stromverteilung über Switches können Sie auf externe Netzteile und Netzadapter verzichten. Alle modernen Power over Ethernet-Switches lassen sich mit redundanten Netzteilen ausrüsten, was sich äußerst positiv auf die Verfügbarkeit des Netzwerks und der angeschlossenen Netzwerkgeräte auswirkt.

Netzwerkgeräte mit Unterstützung für Power over Ethernet

Um Schäden an Netzwerkgeräten zu vermeiden, sollten Sie alle angeschlossenen Netzwerkgeräte auf Kompatibilität zu PoE untersuchen. Falls Sie PoE beispielsweise mit IP-Telefonie einsetzen möchten, können Spannungen auf den Adernpaaren nicht kompatible Geräte schwer beschädigen und unter Umständen auch zerstören. Aus diesem Grund sollten Sie die Spannung nur dann einschalten, wenn alle Netzwerkgeräte Power over Ethernet unterstützen.

 

Geräte, die über Power over Ethernet mit Strom versorgt werden, sind in bestimmte Klassen eingeteilt. Die gängigen Klassen für PoE-Geräte sind die Klassen von 0 bis 4. In direkter Relation dazu, wie viel Strom ein Netzwerkgerät voraussetzt, ist es einer bestimmten Klasse zugeordnet. Durch den Einsatz definierter Spezifikationen und Verfahren wird die exakte Menge an Strom über das Ethernet-Kabel übermittelt. Dadurch wird stets die richtige Menge an Strom bereitgestellt. Die gängigsten Geräte, die über PoE betrieben werden, sind:

–       VOIP-Geräte (Voice Over IP)

–       WLAN-Access Points

–       WLAN-Controller

–       WLAN-Extender

Herausforderungen bei Power over Ethernet

Obwohl das PoE-Verfahren zahlreiche Vorteile mit sich bringt, gibt es auch einige Herausforderungen, mit denen Sie rechnen müssen. Je mehr Strom über ein Ethernet-Kabel übertragen wird, umso mehr Wärme wird im Kabel generiert. Bei einem stark erwärmten Kabel kann es dazu kommen, dass die zusätzliche Dämpfung auf die Übertragung der Daten beeinträchtigt. Aus diesem Grund sollten Sie nicht immer mit den maximalen Datenübertragungsraten rechnen, sondern die maximale Übertragungsleistung an die jeweiligen Temperaturbedingungen anpassen. Die Spezifikationen der jeweiligen PoE-Klassen geben genau an, mit welchem Temperaturanstieg Sie beispielsweise bei dem Einsatz von PoE++ (4PPoE) rechnen müssen. Bei einem gewöhnlichen U/UTP-Netzwerkkabel sollten Sie beispielsweise mit einer Erwärmung bis zum fünffachen Faktor des Kabels rechnen. Ein Kabel, das gut geschirmt ist, weist eine Erwärmung von einem dreifachen Faktor auf. Dies ist darauf zurückzuführen, da die Metallschirmung im Inneren hilft, die Wärme nach außen zu transportieren.

Ein weiterer Nachteil von PoE spiegelt sich im Spannungsabfall bei längeren Ethernet-Kabeln wider. Je länger das Kabel ist, desto höher ist der Spannungsabfall und umso weniger Leistung kommt am Endgerät an.