Beiträge

Für alle Unternehmen mit mehr als einem Standort ist die Verbindung zwischen den einzelnen Niederlassungen ein grundlegendes Problem. Diese Verbindungen können technisch auf verschiedene Weise realisiert werden. Die einzelnen Methoden haben ihre Vor- und Nachteile, auf deren Basis eine Lösung für jeden Einzelfall gefunden werden muss. Das Ziel ist immer, die technisch optimale Realisierung einer Standortvernetzung für die bestehenden Anforderungen zu finden.

Die Problemstellung bei Standortvernetzung

Die Zusammenarbeit zwischen Mitarbeitern an verschiedenen Standorten kann nur dann wirtschaftlich sinnvoll und effizient erfolgen, wenn die notwendigen Verbindungsmittel zur Verfügung stehen. Neben der Standortvernetzung ist es auch notwendig, dass reisende Mitarbeiter Zugriff zur IT Ihres Unternehmens besitzen. Eine andere und immer wichtigere Anwendung stellt das Arbeiten im Homeoffice dar, sei es als neue Form der Arbeit oder als Lösung für Krisen wie die Covid-Situation im Jahr 2020.

Für die Implementierung einer Standortvernetzung müssen eine Reihe von Kriterien berücksichtigt und nach Wichtigkeit geordnet werden.

– Sicherheit. Die übertragenen Daten dürfen Unbefugten nicht in die Hände fallen.

– Übertragungskapazität. Das betrifft nicht nur die reine Übertragungsrate über Leitungen, sondern auch eine Priorisierung von zeitkritischen Anwendungen wie der Internettelefonie über VoIP.

– Aufwand für Management und Organisation.

– Zuverlässigkeit und Redundanz im System.

Integrierter Internetzugang als Beispiel für eine Anwendung

Sind die verschiedenen Standorte mittels welcher Technologie auch immer stabil miteinander vernetzt, ist ein einziger Internetzugang für Ihre ganze Firma realisierbar. Der Vorteil besteht darin, dass dann ein einziger Firewall ausreicht und die notwendigen Konfigurationen und Zugangsregeln an nur einem Ort festgelegt werden müssen.

Standortvernetzung mit VPN über Internet

Ein virtuelles privates Netzwerk oder VPN wird als logisches Netzwerk auf das Internet aufgesetzt. OpenVPN ist eins der möglichen Protokolle zur Umsetzung. Auf der Anwendungsschicht erfolgen Authentifizierung und die end-to-end Verschlüsselung. Im Wesentlichen werden zwei Typen dieser Technologie unterschieden.

– Ein side-to-side VPN verbindet zwei Standorte und ist damit eine klassische Realisierung einer Standortvernetzung. An jedem dieser Standorte übernimmt ein Router den Aufbau einer stehenden VPN-Verbindung.

– Ein user-to-side VPN wird von einzelnen Mitarbeitern zur Herstellung einer Verbindung zur IT-Infrastruktur des Unternehmens genutzt. Ein Clientprogamm auf beispielsweise einem Laptop stellt die VPN-Verbindung zu einem Standort des Unternehmens her. Technisch ist das die gleiche Lösung wie das Angebot von VPN-Dienstleistern, die den Internet-Zugang über ihre eigenen Server in verschiedenen Ländern ermöglichen.

Für Standortvernetzung kommt diese Lösung nur noch dann zur Anwendung, wenn eine andere Technologie zu hohe Kosten verursachen würde. Ein Beispiel für eine solche Situation ist ein entlegener Standort. Ein problematischer Aspekt der Standortvernetzung mittels eines VPNs ist die Abhängigkeit vom öffentlichen Internet.

MPLS

Die Abkürzung steht für Multiprotocol Label Switching und bezeichnet eine Technologie, in der die Standortvernetzung in einem großen Ausmaß vom Anbieter verwaltet wird. Der Umfang der Übertragungsleistungen wird mit Ihnen als Kunden vereinbart. Üblicherweise werden auch die Router vom Anbieter zur Verfügung gestellt. Der Vorteil von MPLS besteht darin, dass mit dieser Lösung wenig Aufwand für Ihre firmeneigene IT-Abteilung anfällt. Dafür ist auch der Preis im Vergleich zu einer Ethernet-Lösung höher.

Ein besonderer Vorteil ist die Herstellung einer Redundanz. Sie ist für zeitkritische und mit der Bedingung der Hochverfügbarkeit belegte Anwendungen notwendig. Ein Anbieter von MPLS kann diese verhältnismäßig einfach bereitstellen, da er als professioneller Kommunikationsdienstleister ohnehin über wesentlich mehr Kapazitäten verfügt als für einen Kunden notwendig ist. Hier zeigt sich ein deutlicher Gegensatz zu einer unternehmensinternen Lösung, für die eine Redundanz eigens vorzusehen und technisch bereitzustellen ist. Damit müssen Sie Reserven ständig bereithalten und auch bezahlen, die im Fall der Notwendigkeit aber immer noch geringer sein werden als die Reserven, die ein MPLS-Anbieter kurzfristig zuschalten kann.

Standortvernetzung über Ethernet

Ethernet ist bekannt als die Standardtechnologie zur Realisierung von lokalen Netzwerken. Sie lässt sich seit einiger Zeit über sogenannte Ethernet Private Networks oder EPNs auf Übertragungen über lange Strecken erweitern. Sie erhalten von einem Anbieter ein eigenes Netzwerk, das logisch nicht über das Internet erreichbar ist und deshalb auch nicht Angriffen aus dem Internet ausgesetzt ist. In der Verwendung stellt sich ein solches Netzwerk wie eine Erweiterung eines LAN dar.

Zu den Vorteilen dieser Realisierung einer Standortvernetzung gehört eine hohe Übertragungskapazität. Sie sollten sich aber auch darüber im Klaren sein, dass der Aufwand für Ihre IT-Abteilung für eine Ethernet-Lösung verhältnismäßig hoch sein wird. Üblicherweise bleibt die Zuteilung der IP-Adressen in der Hand von Ihnen als Kunden. Das wird für verschiedene Anwendungen durchaus geschätzt, bedeutet aber auch einen entsprechenden Aufwand an Management.

SD WAN

Die Technologie des Software Defined Wide Area Networks oder SD WAN existiert noch nicht lange und bietet Ihnen eine Kombination verschiedener bereits erwähnter Systeme. Für regulären Datenverkehr wird das öffentliche Internet verwendet. Auf der anderen Seite kommt für Daten mit hoher Priorität eine MPLS-Lösung zum Einsatz. Das Management erfolgt durch die IT-Abteilung von Ihnen als Kunden, ist aber so gestaltet, dass es mit wenig Aufwand zu handhaben ist. Je nach Bedarf kann ein SD WAN auch auf andere Technologien wie  Richtfunk zurückgreifen. Ein SD WAN ist eine hybride Lösung für eine Standortvernetzung, die die Vorteile der verschiedenen Technologien zu verbinden sucht.

Mindestens 9 von 10 weltweit verschickten E-Mails sind Spam. Spam-Mails sind für die Empfänger ärgerlich und ein Problem für seriöses E-Mail-Marketing. E-Mail Provider und Webhoster sind sehr darauf bedacht, ihre Kunden vor unerwünschten Mails zu schützen. Nicht selten werden dabei auch seriöse Versender in eine sogenannte Blacklist eingetragen. Alles, was Sie über Blacklisting wissen sollten, erfahren Sie im folgenden Beitrag.

Im Allgemeinen ist eine Blacklist – auf Deutsch „schwarze Liste“ – eine Liste mit Wörtern, Webseiten, Medien, IP-Adressen oder E-Mail-Adressen. Diese Daten werden anhand bestimmter Kriterien ermittelt und in die Liste eingetragen. E-Mail Blacklists werden von Internet-Service-Providern (ISP), E-Mail-Providern, Unternehmen, Universitäten oder öffentlichen Organisationen geführt. Sie sollen verhindern, dass die Kunden eines Mail-Providers oder die Mitarbeiter eines Unternehmens unerwünschte E-Mails erhalten. Wenn eine eingehende E-Mail in bestimmten Punkten mit den in der Blacklist gespeicherten Daten übereinstimmt, wird sie in der Regel sofort gelöscht und nicht zugestellt. Andere Bezeichnungen für eine Blacklist sind Sperrliste oder Negativliste.

E-Mail Blacklist Arten

E-Mail Blacklists werden entweder öffentlich oder nicht öffentlich geführt. Sie enthalten die IP-Adressen oder die Domains, von denen Spam oder Mails mit Schadsoftware versendet werden.

IP-basierte Blacklist

Eine IP-basierte Liste enthält die für den Versand von Spam-Mails häufig verwendeten IP-Adressen. Steht eine in einer Blacklist, bedeutet dies, dass die von dieser Adresse versendeten E-Mails nicht an die Empfänger zugestellt werden. Provider blockieren oft ganze Gruppen von IP-Adressen. Beispielsweise aus China oder Russland.

Domain-basierte Blacklist

Eine Domain-basierte Liste enthält die Domains von Spamversendern. Diese Blacklists filtern E-Mails unabhängig von der IP-Adresse des Versenders heraus. Das heißt, selbst wenn der Versender den Server wechselt, um die IP zu ändern, werden die von dieser Domain versendeten E-Mails nicht zugestellt.

Öffentliche E-Mail Blacklists

Öffentliche E-Mail Blacklists werden von zahlreichen Providern und anderen Organisationen geführt. Die genaue Zahl der weltweit geführten öffentlichen Blacklists ist nicht bekannt. Es dürften jedoch einige tausend sein. Bekannte Betreiber von E-Mail Blacklists sind:

Spamhaus

NiX Spam

SpamCop

SORBS

Five Ten SG

Hierbei handelt es sich meist um sogenannte Echtzeitdatenbanken, die fortlaufend aktualisiert werden. Diese Blacklists werden auch von den meisten Internet-Service-Providern genutzt.

Nicht öffentliche Blacklists

Nicht öffentliche oder interne Blacklists werden ebenfalls von den meisten ISP geführt. Unternehmen und Universitäten nutzen interne Listen oft als Ergänzung einer Firewall, um Hackerangriffe per E-Mail abzuwehren. Die Spamfilter des E-Mail Empfängers sind ebenfalls eine Art Blacklist. Sie können in den E-Mail-Clients der großen Anbieter wie beispielsweise T-Online oder GMX individuell konfiguriert werden. Mails, die vom Provider zugestellt werden, können durch einen Spamfilter den Empfänger dennoch abgelehnt, gelöscht oder in den Spam-Ordner verschoben werden.

Gründe für den Eintrag in eine E-Mail Blacklist

Die häufigsten Gründe für einen Eintrag in eine E-Mail Blacklist sind

  • Kennzeichnung der Mails als Spam durch Empfänger
  • hohe Bounce Rate wegen qualitativ schlechter Adressen
  • geringe Öffnungsrate wegen fehlender Relevanz
  • sprunghaft steigendes Versandvolumen durch gekaufte oder gemietete Adresslisten
  • kein Link für zum Löschen der Adresse aus dem Verteiler

Im Internet finden Sie zahlreiche kostenlose Tools, mit denen sie überprüfen können, ob ein Eintrag in einer E-Mail Blacklist erfolgt ist.

Wie kann ein Eintrag gelöscht werden?

Verschiedene Betreiber dieser Listen verlangen, dass Ihr Provider die Löschung beantragt und ausführlich begründet. Anbieter wie Spamhaus bieten auf der eigenen Webseite die Möglichkeit, einen Antrag auf Löschung zu stellen. In den meisten Fällen kann Ihnen Ihr Provider weiterhelfen. Bei nicht öffentlich geführten Listen ist eine Löschung fast nicht möglich, da sie kaum herausfinden können, in welcher dieser Listen ein Eintrag erfolgt ist.

Whitelisting, Greylisting und Throttling

In Zusammenhang mit E-Mail Blacklisting werden häufig die Begriffe Whitelisting, Greylisting und Throttling genannt. Eine Whitelist ist das Gegenteil einer Blacklist. Sie enthält vertrauenswürdige IP-Adressen oder Domains. E-Mails von Versendern, die in einer Whitelist des Empfängers stehen, werden nicht blockiert und dem Empfänger direkt zugestellt.

Greylisting ist eine Vorstufe des Blacklisting. Greylisting wird angewendet, wenn eine E-Mail eingeht, die weder in einer Whitelist noch in einer Blacklist steht. Diese Mails werden zunächst abgelehnt. Eine Zustellung erfolgt erst beim zweiten Versuch. Der Grund hierfür ist, dass automatisierte Programme, sogenannte Spam-Bots, in den meisten Fällen nur einmal versuchen, eine Mail zuzustellen.

Eine vom Provider des Versenders durchgeführte Maßnahme zum Schutz vor massenhaft versendeten Spam-Mails ist Throttling, auf Deutsch „Drosselung“. Die meisten Provider geben ein Limit für die in einem bestimmten Zeitraum verschickbaren E-Mails vor. Wenn Sie als Versender dieses Limit überschreiten, wird der weitere Versand blockiert oder verzögert.

Wie kann ein Eintrag vermieden werden?

Eine der wichtigsten Voraussetzungen dafür, dass die eigene E-Mail-Adresse oder IP nicht in eine Blacklist eingetragen wird, ist eine hohe Reputation. Basis für diese Reputation sind gepflegte Adresslisten mit validen E-Mail-Adressen und der Versand von relevanten Inhalten nur an Adressaten, die dem Empfang explizit zugestimmt haben (Double-Opt-In). Die Einhaltung aller rechtlichen Vorgaben für den E-Mail-Inhalt und keine Verwendung gekaufter oder gemieteter Adressen sind ebenfalls wichtig.

Was sich hinter dem Begriff Whitelist – auch Positivliste genannt – verbirgt, und wo solche Listen Verwendung finden, wird im folgenden Artikel erläutert.

Eine Whitelist ist eine Auflistung von Objekten, die als erlaubt definiert wurden. So haben zum Beispiel Banken Listen von Korrespondenzinstituten, mit denen sie im internationalen Zahlungsverkehr zusammenarbeiten. Viele Unternehmen führen Berechtigungslisten, zum Beispiel für den Zutritt zu besonders geschützten Räumlichkeiten oder den Zugang zu vertraulichen Informationen. Nur jene Personen, die auf einer solchen Whitelist stehen, haben Zutritt oder Zugang. Oder es werden Aufstellungen geführt, die Produkte enthalten, die in einem Unternehmen verwendet werden dürfen, z.B. bestimmte Hard- oder Software.

Eine Whitelist ist also ein Hilfsmittel, das exklusiv definiert, was erwünscht bzw. erlaubt ist. Was nicht in der Liste enthalten ist, ist verboten bzw. unerwünscht. Die Whitelist gibt somit klare Regeln vor und findet daher oft in Organisationen Anwendung, wo Standardisierung erforderlich ist. Eine Whitelist ist üblicherweise verbindlich. Wer dagegen verstößt, hat mit Konsequenzen zu rechnen.

Vorteile der Whitelist

Eine Whitelist schafft Klarheit und Verbindlichkeit, ohne Spielraum zuzulassen. Dadurch ermöglicht sie eine sehr genaue Steuerung. Da exakt angeführt ist, was erlaubt ist, z.B. welche Software verwendet werden darf, ist gewährleistet, dass genau die festgelegten Qualitätskriterien ohne Abweichung eingehalten werden.

Wie jedes Mittel zur Standardisierung unterstützt die Whitelist die Geschwindigkeit von Entscheidungen, weil die Optionen bereits durch eine Vorauswahl eingegrenzt wurden.

Nachteile der Whitelist

Der Prozess, jene Elemente zu definieren, die es auf die Whitelist schaffen, das sogenannte Whitelisting, ist aufwändig und muss in relativ kurzen Abständen immer aufs Neue wiederholt werden. Dies deshalb, weil sich in der schnelllebigen Zeit Rahmenbedingungen, Umfeld, Produkte, Anforderungen etc. rasch ändern. Vernachlässigt man diesen Aspekt, wird die Whitelist schnell veraltet. Diese Gefahr ist hoch, denn wenn man  immer auf dem letzten Stand sein will, ist die Aktualisierung fast permanent erforderlich. Und das kostet Zeit und Mühe.

 

Durch den Ansatz, nur das zuzulassen, was auf der Liste angeführt ist, ist die Whitelist eher statisch und lässt es nicht zu, flexibel etwas Neues auszuprobieren, das noch keiner Prüfung unterzogen wurde. Sie ist daher bis zu einem gewissen Grad innovationsfeindlich. Das kann dazu führen, dass gar nicht mehr nach Neuem gesucht wird und sich bei Mitarbeitern in einer Organisation Frustration einstellt. Im schlimmsten Fall wird die Liste subtil umgangen.

Unterschiede zur Black List

Oft wird gesagt, die Whitelist sei  das Gegenteil der Blacklist, die auch Negativliste genannt wird. Das greift aber zu kurz, weil die Zugänge grundsätzlich andere sind.

Die Blacklist ist eine Aufstellung von Objekten, die nicht erwünscht sind, sie ist also eine Verbotsliste. Der Grundsatz hier ist: Alles ist erlaubt, was nicht ausdrücklich (durch Aufnahme in die Blacklist) verboten ist. Durch diesen Ansatz ist die Blacklist weniger rigide und weniger punktgenau in der Steuerung als die Whitelist.

Die Negativliste bietet somit mehr Freiheit als die Positivliste. Bei der Blacklist ist es aber erforderlich, genau zu wissen, welche Objekte es gibt (zum Beispiel Hardware), um diese bewerten zu können. Wenn man etwas übersieht und es deswegen nicht in die Liste aufnimmt, ist es nicht verboten. Also ist auch hier eine regelmäßige Sondierung des Umfelds erforderlich.

Die Whitelist in der IT

In der IT gibt es viele Einsatzgebiete für Whitelists. Sie dienen dort im Wesentlichen dazu, Geräte und Systeme vor Bedrohungen zu schützen.

Hier finden Sie einige Beispiele:

In einer Positivliste kann definiert werden, dass nur bestimmte, vom Unternehmen angekaufte und ordentlich lizenzierte Software eingesetzt werden darf. Ebenso kann dies für Hardware erfolgen, die mit dem Unternehmensnetzwerk verbunden werden darf.

Spamfilter arbeiten oft mit Whitelists, in die zur Kommunikation zugelassene IP- oder E-Mail-Adressen eingetragen werden. Nicht zugelassene E-Mails werden dann nicht zugestellt oder in Spam-Ordner geleitet. Werbeblocker verwenden Positivlisten, um Werbung von bestimmten Erstellern zuzulassen.

Oft wird auch der Zugang zu bestimmten Internetinhalten mit Whitelists verwaltet, z.B. bei Kindern und Jugendlichen, die dann nur die definierten Adressen aufrufen können.

Ein besonders wichtiger Anwendungsbereich von Whitelists ist die Konfiguration von Firewalls. Firewalls haben die Aufgabe, Netzwerke, einzelne Bereiche davon oder Geräte vor Bedrohungen zu schützen. Um das zu gewährleisten, prüft eine Firewall ständig den Datenverkehr und erlaubt diesen nur mit jenen Zielen, die in der Whitelist angeführt sind.

Teamviewer ist eine Software, die bei der Fernwartung von Computersystemen zum Einsatz kommt. Wenn Sie diese Software privat nutzen, können Sie die Datei als Freeware auf Ihren Rechner laden. Für Unternehmen gibt es eine kostenpflichtige Version. Die Software kam im Jahre 2005 auf dem Markt. Dank der ständigen Weiterentwicklung und Anpassung auf neue Lösungen und Systeme ist Teamviewer stets aktuell.

Fernwartungslösung für verschiedene Betriebssysteme

Mit der Nutzung von Teamviewer entscheiden Sie sich für eine Lösung, die eine Fernwartung von Rechnern erlaubt, die mit verschiedenen Betriebssystemen arbeiten. So ist es möglich, eine Version für die Betriebssysteme Windows von Microsoft, macOS von Apple und Linux zu nutzen. Darüber hinaus ist die Software für die Fernwartung mobiler Betriebssysteme geeignet. Hier erfolgt eine Unterstützung von Android, iOS und Windows Phone. Es ist möglich, die Lösung betriebssystemübergreifend zu nutzen. So gelingt beispielsweise die Fernwartung eines PCs von einem mobilen Gerät aus.

Kostenpflichtige und kostenfreie Versionen

Grundsätzlich ist Teamviewer für private User kostenlos. Es handelt sich um eine Freeware, die Sie ohne Zahlung einer Gebühr auf den heimischen Rechner oder auf ein mobiles Gerät laden können. In den Bewertungen der Software häufen sich jedoch Kommentare, die über kostenpflichtige Funktionen berichten. Außerdem gibt es zeitliche Beschränkungen, die sich auf eine einzige Sitzung beziehen.

Möchten Sie Teamviewer in einem Unternehmen nutzen, müssen Sie die Software kaufen. Eine kommerzielle Nutzung der Freeware ist nicht gestattet. Nach dem Kauf erfolgt eine Freischaltung aller Funktionen. Sie kommen in den Genuss kostenfreier Updates und vieler Funktionen, die Ihnen die Fernwartung der verschiedenen Systeme erleichtern. Selbstverständlich haben Sie auch als Privatanwender die Option, die Software zu kaufen.

Viele Optionen für die Fernwartung

Teamviewer bietet Ihnen zahlreiche Optionen für die Fernwartung verschiedener Computersysteme. Dies bedeutet, dass Sie auf die Funktionen eines Computers zugreifen und diesen steuern können.

Screensharing

Besonders häufig kommt Teamviewer im Bereich des Screensharings zum Einsatz. Dabei handelt es sich um die Übertragung eines Bildschirminhaltes auf einen oder mehrere Computer, die sich in einem anderen Netzwerk oder an einem anderen Ort befinden. Wenn Sie den Bildschirm eines entfernten Computers mithilfe des Screensharings aufrufen, stellen sich die Inhalte Ihnen so dar, als würden Sie direkt vor dem anderen Rechner sitzen. Auf diese Weise bietet sich Ihnen die Möglichkeit, zeitlich und örtlich unabhängig an Projekten oder Dateien zu arbeiten.

Videokonferenzen

Auch bei der Einrichtung und Abhaltung von Videokonferenzen kann eine Fernwartung des Computers durch eine Software wie Teamviewer notwendig sein. Videokonferenzen haben im Zeitalter der Globalisierung stark zugenommen. Immer mehr Unternehmen arbeiten international. Die Verständigung der Mitarbeiter an den verschiedenen Standorten erfolgt mittels Videokonferenz. Die Fernwartung sorgt für einen störungsfreien Ablauf der oftmals wichtigen Konferenzen. Darüber hinaus arbeiten immer mehr Menschen im Homeoffice. Die Anzahl der Mitarbeiter, die von Zuhause aus auf die firmeninternen Daten zugreifen, ist seit dem Beginn der Coronapandemie stark angestiegen. In Zeiten, in denen Menschen auf Distanz miteinander leben müssen, ermöglichen Videokonferenzen eine individuelle Kommunikation. Die Nutzung hat nicht nur im geschäftlichen, sondern auch im privaten Bereich zugenommen.

Dateitransfer

Der Transfer von Dateien gestaltet sich über das Internet sehr einfach. Wichtig ist jedoch, dass die Sicherheit gewahrt ist. Wenn Sie eine Datei an eine andere Person oder an einen anderen Computer senden, sollte diese verschlüsselt oder mit einem Kennwort geschützt sein. Dies ist vor allem dann ein wesentlicher Aspekt, wenn es sich um sensible Dateien handelt, die vor dem Zugriff Dritter geschützt sein sollen.

VPN

VPN ist die Abkürzung für den englischen Begriff Virtual Private Netzwerk. In vielen Fällen handelt es sich um Kommunikationsnetze, die in sich geschlossen sind. Teamviewer ermöglicht dennoch eine Fernwartung, da die Software in der Lage ist, durch Proxy-Server, Firewalls und andere Schutzmechanismen hindurch zu arbeiten. Dies ist für Kommunikationsnetze ein wichtiger Aspekt, da Probleme in den meisten Fällen durch eine Fernwartung analysiert und behoben werden.

New Work – modernes Arbeiten im Netzwerk

Der Begriff New Work ist deutlich älter als die modernen Arbeitsstrukturen im Internet und in den betriebsinternen Netzwerken. Die Prägung des Begriffs erfolgte durch den Sozialphilosophen Frithjof Bergmann bereits in den 1970er Jahren. Damals entwickelte er eine Strategie, die Arbeitsprozesse, die noch aus dem Zeitalter der Industrialisierung stammen, umkehren. So soll der Mensch nicht mehr nur als Mittel zum Zweck arbeiten, sondern seine eigenen Ziele verwirklichen können. Dies galt in den 1970er Jahren in vielen Arbeitsbereichen noch als Utopie. Heute sind wir mitten in der Verwirklichung der Prozesse, die Bergmann vorhergesagt hat. Dazu zählen unter anderem Lösungen wie Teamviewer, die eine Analyse von Systemen aus der Ferne erlauben und Ihnen somit ermöglichen, zeitlich und örtlich unabhängig Ihre Arbeit zu erledigen.

Moderne Arbeitswelt mit BYOD

In den letzten Jahren ist es zu beobachten, dass immer mehr Prozesse in die Digitalisierung einbezogen werden. Dazu gehört auch BYOD. Dabei handelt es sich um die Abkürzung für den englischen Begriff Bring Your Own Device. Konkret bedeutet dies, dass Sie Dateien herunterladen, die auf dem Server eines Unternehmens oder einer öffentlichen Einrichtung liegen. Diese Dateien können Sie zeitlich unbegrenzt oder Nut für einen bestimmten Zeitraum nutzen. BYOD ist ein wesentlicher Teil der New Work. Aber auch im Privaten gewinnt die Nutzung digitaler Dateien zunehmend an Bedeutung. Die Systeme, über die derartige Dateien bereitgestellt werden, müssen in regelmäßigen Abständen gewartet werden, um die Funktionalität zu erhalten. Auch hier ist eine Fernwartungssoftware wie Teamviewer unverzichtbar.

Der Begriff Disaster Recovery (DR) bezieht sich auf unterschiedliche Maßnahmen, mit denen die Wiederaufnahme des IT-Betriebs nach einem Katastrophen- oder Störungsfall sichergestellt wird. Die Disaster Recovery beinhaltet unterschiedliche Maßnahmen und Prozesse, um beispielsweise geschäftskritische Daten oder IT-Infrastrukturen schnellstens wiederherzustellen.

Allgemeine Informationen

Dsaster Recovery ist ein wichtiger Bestandteil der Sicherheitsplanung und beschäftigt sich in erster Linie mit der Wiederherstellung wichtiger IT-Dienstleistungen und Daten nach einem Störungsfall. Die Störungen können durch diverse Ausfälle und Ereignisse verursacht werden, wie beispielsweise Hardware-Ausfälle, Naturkatastrophen, Hackerangriffe oder Bedienungsfehler. Das Ziel solcher Wiederherstellungs-Maßnahmen ist es, die negativen Auswirkungen für eine Organisation oder ein Unternehmen zu minimieren. Im Rahmen der Disaster Recovery-Maßnahmen werden zum Beispiel, Server oder Netzwerke wiederhergestellt.

Der Begriff Disaster Recovery ist englischen Ursprungs und bedeutet in die deutsche Sprache übersetzt so viel wie Notfallwiederherstellung oder Notfallplan. In vielen Fällen werden die beiden Begriffe Business Continuity und Disaster Recovery synonym verwendet. Business Continuity ist jedoch umfassender, da es hier nicht nur um die Wiederherstellung von IT-Infrastrukturen geht, sondern auch um die Aufrechterhaltung wichtiger Geschäftsprozesse. Der Fokus von Business Continuity liegt also primär auf der Sicherstellung der geschäftlichen Prozesse. Technische Maßnahmen, die im Rahmen der Disaster Recovery zum Einsatz kommen, sind:

–       Datensicherung

–       Redundanzen

–       Zurverfügungstellung von Ersatzhardware

Durch den Einsatz dieser Maßnahmen sollen sogenannte „Single Point of Failures“ möglichst gut vermieden werden.

Der Disaster Recovery Plan

Der Disaster Recovery Plan (DRP) umfasst alle Verfahren, Vorgaben und Maßnahmen, wie man in einem Störungsfall reagieren sollte, um die Auswirkungen des Ausfalls auf das Unternehmen zu minimieren. Die in dem DRP enthaltenen Maßnahmen sind so konzipiert, dass sie schrittweise durch die Verantwortlichen abgearbeitet werden müssen. Des Weiteren sind im DRP Eskalationsstufen, Meldewege und Definitionen der Verantwortlichkeiten zusammengefasst, die im Notfall umgesetzt werden müssen.

Der Disaster Recovery Test

Mit einem Disaster Recovery Test lässt sich die Effizienz überprüfen und genau analysieren. Damit kann man sicherstellen, dass im Fall einer Störung die unterschiedlichen Maßnahmen und Prozesse des DRPs die Wiederherstellung der IT-Infrastruktur ermöglichen. Die Ergebnisse aus den Tests können bei Bedarf in bestehende Verfahren und Prozesse eingebunden werden, um diese zu optimieren. Mit regelmäßigen Tests können Unternehmen die Pläne auf dem aktuellsten Stand halten und schulen zudem auf diese Weise die Mitarbeiter, wie sie im Notfall reagieren sollten.

Recovery Time Objective und Recovery Point Objective

Bei Recovery Time Objective (RTO) und Recovery Point Objective (RPO) handelt es sich um wichtige Kennwerte, die im Rahmen der Notfallwiederherstellung eine äußerst bedeutende Rolle spielen. Recovery Time Objective gibt beispielsweise Auskunft darüber, wie lange ein IT-System oder ein IT-Service ausfallen darf, ohne einen größeren Einfluss auf die Geschäftsprozesse zu haben. Konkret handelt es sich dabei um den Zeitraum zwischen dem ersten Auftreten der Störung und der Wiederherstellung des IT-Systems oder der IT-Services. Die Zeiträume können dabei zwischen einigen Sekunden und mehreren Tagen oder sogar Wochen betragen. Recovery Point Objective gibt hingegen die Antwort auf die Frage, wie viel Datenverlust man hinnehmen kann. Dabei handelt es sich um die zeitliche Periode, die zwischen zwei Datensicherungen vergehen darf. Je niedriger die Recovery Point Objective ist, umso besser ist es.

Disaster Recovery as a Service (DRaaS)

DRaaS baut auf der Cloud-Infrastruktur auf und nutzt Funktionalitäten aus der Cloud, mit denen sich im Notfall wichtige IT-Systeme wiederherstellen lassen. Bei diesem Angebot stellt ein Provider einen Backup von Daten, Cloud-Speicherplatz für einen Online Backup, virtualisierte IT-Strukturen oder virtuelle Server als Cloud-Angebot zur Verfügung. Damit kann man das Unternehmen vor Notfällen absichern, ohne zusätzliche Hardware- und Software-Lösungen in einem eigenen Rechenzentrum betreiben zu müssen. DRaaS ist in erster Linie auf die Anforderungen von kleineren und mittleren Unternehmen ausgerichtet, die in vielen Fällen nicht über das nötige Fachwissen und die Ressourcen verfügen, um eigene Notfallmaßnahmen optimal umzusetzen.

Bei dem Simple Network Management Protocol (SNMP) handelt es sich um ein sogenanntes Netzwerkverwaltungsprotokoll, das von der Internet Engineering Task Force (IETF) entwickelt wird. Das Protokoll wird zur Konfiguration und Steuerung sowie zum IT-Monitoring von netzwerkfähigen Geräten eingesetzt. Das können beispielsweise Switches, Firewalls, Router aber auch Drucker, Computer oder Server sein.

Allgemeine Informationen zu SNMP

Das Simple Network Management Protocol (SNMP) basiert auf dem Grundkonzept, der den Informationsaustausch zwischen Clients und einer zentralen Instanz über Netzwerkpakete vorsieht. Solche Informationen können sowohl die Form von Status- oder Statistikdaten übernehmen als auch als Konfigurations- und Steuerungsdaten übermittelt werden. Das Simple Network Management Protocol (SNMP) beschreibt dabei die exakte Zusammensetzung der Datenpakete und den genauen Ablauf der gesamten Kommunikation. Vergleichbare Konkurrenztechnologien sind Zabbix, Nagios, PRTG und Solarwinds. Im Laufe der Jahre wurde SNMP kontinuierlich weiterentwickelt und zahlreichen Verbesserungen und Optimierungen unterzogen, sodass heutzutage viele verschiedene Versionen existieren. Aktuelle Versionen bieten Unterschätzung für performante Sicherheitsmechanismen wie Verschlüsselung, Authentifizierung und Validierung.

Mögliche Einsatzbereiche von SNMP sind beispielsweise:

–       die kontinuierliche Überwachung von netzwerkfähigen Komponenten

–       die Steuerung und die Konfiguration von netzwerkfähigen Geräten aus der Ferne

–       die Übermittlung von Fehlern

Die Vorteile des Simple Network Management Protocol spiegeln sich in der Einfachheit und der Modularität wider. Dank dieser Charakteristiken hat sich SNMP im Laufe der Jahre als Standard etabliert und wird von einer Vielzahl an netzwerkfähigen Geräten und Netzwerkmanagement-Anwendungen unterstützt.

Kommunikation zwischen Clients und Manager

Im Rahmen des Netzwerkverwaltungsprotokolls kommunizieren die Agenten der einzelnen Geräte mit einem oder mehreren zentralen Instanzen, die auch als Manager bezeichnet werden. Die Agenten werden als Software-Programme realisiert, die direkt auf den Endgeräten laufen. Die Software ist in der Lage, den Status und die Konfiguration in Echtzeit zu erfassen und bestimmte Aktionen auszuführen oder Einstellungen am Gerät vorzunehmen.

Bei dem Manager hingegen handelt es sich um eine Software, die auf einem Server installiert ist und von dort aus mit den Agenten kommuniziert und deren Statusmeldungen entgegennimmt. Die gesamte Kommunikation zwischen Agenten und Manager wird über SNMP realisiert. Die typische Kommunikation wird auf folgende Weise umgesetzt: Der Manager schickt einen Request an den Agenten. Dieser führt den Request aus und beantwortet dann die Anfrage mit einem Response-Paket. Des Weiteren ist der Agent in der Lage, unaufgeforderte Informationen über sogenannte „Traps“ zu versenden. Diese kommen in der Regel bei kritischen oder unvorhergesehenen Vorfällen zum Einsatz.

 

Die verschiedenen Nachrichtentypen im Überblick

Um eine möglichst große Bandbreite an unterschiedlichen Funktionalitäten zu bieten, sind im Rahmen des SNMP-Standards unterschiedliche Pakettypen definiert. Die wichtigsten sind:

–       GET-REQUEST: Diese Request dient zum Anfordern von Informationen

–       GETNEXT-REQUEST: Diese Request kommt zum Einsatz, um weitere Daten der Management Information Base (MIB) zu beantragen

–       GETBULK: Mit dieser Request ruft der Manager mehrere Datensätze gleichzeitig an

–       SET-REQUEST: Hiermit werden Daten zum Verändern oder Konfigurationsinformationen eines Netzwerkelements angefordert

–       GET-RESPONSE: Mit dieser Request wird die Antwort auf eine Anfrage bestätigt

Alle GET-Pakete sendet der Manager explizit an den Agenten. Mit den Response-Paketen werden die Request beantwortet oder bestätigt und beinhalten in der Regel die angeforderten Informationen. Eine Besonderheit stellen die sogenannten „TRAP-Pakete“ dar. Diese können von dem Manager nicht bestätigt werden, sodass der Agent nicht feststellen kann, ob diese auch tatsächlich angekommen sind. Die Datenübertragung im Rahmen von SNMP nutzt die darunterliegenden TCP/IP und UDP-Protokolle sowie die Ports 161 und 162.

Management Information Base (MIB)

Bei der Überwachung und Steuerung der Netzwerkgeräte durch SNMP kommt der Management Information Base (MIB) eine zentrale Rolle zu. Bei der MIB handelt es sich um eine Art Datenbank, in der alle relevanten Daten abgelegt sind und über die Bereitstellung von Informationen läuft. Konkret bedeutet das, dass die MIB die Datenbasis repräsentiert, die in einem Netzwerkgerät vorhanden ist und sich per SNMP abfragen lässt. In der Regel kommt die Standard-MIB zum Einsatz. Es existieren jedoch auch zahlreiche Erweiterungen und herstellerspezifische Anpassungen.

Auch die nachfolgende Version SNMPv2 brachte keine wesentlichen Sicherheitsmechanismen. Die V2-Version ist mit zusätzlichen Funktionen ausgestattet. Die wichtigste davon ist GETBULK, mit der gleichzeitig mehrere Informationen abgefragt werden. Des Weiteren bietet SNMPv2 neben TCP/IP und UDP auch Unterstützung für weitere Netzwerkprotokolle, wie beispielsweise Appletalk oder IPX.

 

SNMP-Versionen im Detail

Die erste Version des Netzwerkverwaltungsprotokolls zum Monitoring netzwerkfähiger Geräte wurde bereits im Jahr 1988 erarbeitet. Diese Version hatte jedoch mit einigen Problemen zu kämpfen. So war eines der größten Probleme der ersten Version die fehlende Implementierung von Sicherheitsmechanismen. Aufgrund der fehlenden Sicherheit könnten Cyberkriminelle die Kommunikation zwischen dem Manager und dem Agenten abhören. Auch das Passwort konnte man leicht herausfinden, da es unverschlüsselt über das Netzwerk übertragen wurde.

Bedeutende Sicherheitsmechanismen wurden erst im Rahmen von SNMPv3eingebunden. Diese Version kam mit einer Username- und Passwort-Verschlüsselung sowie mit einer leistungsstarken Verschlüsselung der übertragenen Daten. Zusätzlich kamen noch mehr Konfigurationsoptionen hinzu.