Beiträge

IT-Resilienz ist eine der größten Herausforderungen unserer vernetzten Gesellschaft. Noch nie waren IT-Systeme – ungeachtet ihrer Größe und Komplexität – so vielen Bedrohungen und Angriffen ausgesetzt wie heute. Durch unterschiedliche Maßnahmen können IT-Systeme möglichst resistent gegen Störungen gemacht werden.

Definition

Der Begriff der Resilienz bezeichnet die Fähigkeit von Individuen oder Systemen, Bedrohungen und Beeinträchtigungen zu überstehen, ohne dauerhaft Schaden zu nehmen. Unter IT-Resilienz versteht man die Fähigkeit von IT-Systemen, bei Störungen einzelner Teile das Gesamtsystem am Laufen zu halten und zumindest die wichtigsten Prozesse weiterhin verfügbar zu halten.

IT-Systeme sind vielfältigen Bedrohungen ausgesetzt. So können etwa Hardware-Probleme zu Ausfällen führen, Softwarefehler können Prozesse zum Stillstand bringen. Weiters kann es zu Netzwerkunterbrechungen infolge von Stromausfällen oder Naturkatastrophen wie Erdbeben oder Überschwemmungen kommen. Eine hohe Bedeutung für die IT-Resilienz hat menschliches Verhalten, das allzu oft die Sicherheit von IT-Systemen gefährdet. In besonderem Maße entwickeln sich Cyberangriffe zum Sicherheitsproblem.

Warum IT-Resilienz so wichtig ist

IT-Systeme sind aus unserem Alltag nicht mehr wegzudenken. Unternehmen, private Haushalte und die öffentliche Verwaltung bis hin zur kritischen Infrastruktur sind vom Funktionieren leistungsfähiger IT abhängig.

Besonders problematisch ist es, wenn Betriebsgeheimnisse oder geschützte Daten an die Öffentlichkeit gelangen. Dann können Schadenersatzforderungen und empfindliche Strafen nach den datenschutzrechtlichen Bestimmungen die Folge sein. Bei Kunden können Verärgerung und Vertrauensverlust eintreten, die Kosten für die Reparatur beschädigter Systeme sind regelmäßig hoch.

Welche Eigenschaften haben resiliente Systeme?

Resiliente Systeme zeichnen sich durch hohe Flexibilität bei veränderten Umständen aus, sie sind also besonders anpassungsfähig. Dies gilt auch im Hinblick auf zukünftige Entwicklungen. Resiliente Systeme sind robust und so ausgerichtet, dass sie möglichst lange ihre Funktionen aufrecht halten können.

Wenn Daten verloren gegangen sind, ist eine schnelle Wiederherstellung des Status vor dem Zwischenfall möglich. Gleiches gilt für Teilprozesse und Teilfunktionalitäten – auch diese sind in resilienten Systemen rasch wieder herstellbar.

Maßnahmen, die die IT-Resilienz erhöhen

Unerlässlich für eine wirksame Systemabsicherung sind eine funktionierende Datensicherung und regelmäßige Backups. Wichtig ist es weiters, IT-System so redundant wie möglich aufzusetzen. Bei Ausfall einer Komponente übernehmen andere die Prozesse und Funktionen, wodurch ein totaler Stillstand verhindert werden kann.

Weil in vielen Fällen menschliches Verhalten für IT-Probleme verantwortlich ist, empfiehlt es sich, in Organisationen Richtlinien für den Normalbetrieb und für Zwischenfälle einzuführen, in denen klare Verantwortlichkeiten festgelegt sind. Notfallpläne und Ablaufdarstellungen geben Anleitung bei der Bewältigung kritischer Ereignisse und helfen bei einer schnellen Wiederinbetriebnahme des Systems.

Hard- und Software können zur wechselseitigen Absicherung eingesetzt werden. So kann zum Beispiel eine Datenablage in der Cloud nach Serverausfällen, die zu Datenverlust geführt haben, bei der Wiederherstellung helfen.

  • Betriebssysteme sollten regelmäßig upgedatet werden, um Sicherheitslücken zu schließen.
  • Weiters sollten Sie über leistungsfähige Recovery-Tools verfügen, die Systeme nach einem Störfall in den Zustand davor versetzen können.

Die besondere Bedeutung der Cyber-Resilienz

IT-Resilienz ist die Widerstandsfähigkeit von IT-Systemen gegen Gefahren aus dem Internet oder internen Netzwerken. Erster Ansatzpunkt ist natürlich, zu verhindern, dass es zu konkreten Bedrohungen oder Angriffen kommt. Dazu werden Maßnahmen in der Organisation und in der Infrastruktur getroffen (leistungsfähige Firewall, Virenschutz, Softwareaktualisierungen, etc.).

Wenn es zu Angriffen gekommen ist, steht die Schadensbegrenzung im Vordergrund, sowie die Wiederherstellung der Datenintegrität und der Service-Verfügbarkeit.

Mitentscheidend für eine möglichst hohe Cyber-Resilienz ist, dass beim Eintritt von Zwischenfällen schnellstmöglich Meldungen an die zuständigen Stellen vorgenommen werden. Mitarbeiter müssen dazu entsprechend geschult sein. Unverzügliche Meldungen sind wichtig, damit die Ausbreitung von Bedrohungen im Netzwerk möglichst früh und vollständig verhindert werden kann. Um für die Zukunft zu lernen, ist es sinnvoll, Schadensberichte anzufertigen.

Die Bedeutung von Exploits, Hackern und Malware

Exploits, die Aktivitäten von Hackern, sowie der Einsatz von Malware stehen mit der IT-Sicherheit in engem Zusammenhang.

Exploits sind Programme, die Sicherheitslücken in IT-Systemen aufspüren und dort ein Eindringen ermöglichen. Sie werden von Kriminellen genutzt, aber auch in den Dienst der IT-Sicherheit gestellt. Dies ist der Fall, wenn sie gezielt dazu eingesetzt werden, Schwachstellen zu finden, um diese zu beseitigen. Gegen unerwünschte Exploits schützen Sie sich mit Patches und Updates, sowie durch Firewalls, Virenscanner und Intrusion Detection.

Mit hacken ist eigentlich das Lösen von Problemen gemeint. Wer gemeinhin als Hacker bezeichnet wird, ist eigentlich ein Cracker, denn so wird jemand genannt, der Cyberkriminalität ausübt. Hacker spielen eine wichtige Rolle für die IT-Resilienz, denn sie suchen oftmals im Auftrag von Unternehmen gezielt Sicherheitslücken und helfen so, diese zu beseitigen, bevor es zu einem Angriff kommt. Der Hacker schützt sozusagen vor dem Cracker.

Malware kann die IT-Resilienz gehörig auf die Probe stellen. Darunter werden Programme verstanden, die es zum Ziel haben, Systeme zu befallen und dort Schaden anzurichten. Meist geschieht dies durch das Ausspähen von Daten, verbunden mit Erpressungsversuchen. Malware findet den Weg in IT-Systeme zumeist über Downloads. Zur Gruppe der Malware gehören Würmer, Trojaner, Viren und Spyware. Zum Schutz dagegen sollten Sie regelmäßige Updates vornehmen und aktuelle Schutzprogramme installiert haben, sowie Firewalls einsetzen.

Der Begriff „Hybrid Cloud“ bezieht sich auf die Kombination mindestens zweier Teile. Im Cloud Computing handelt es sich dabei um eine Public und eine Private Cloud. Diese Teile werden zu einer Hybrid Cloud verbunden.

Was ist Cloud Computing?

Der Begriff bedeutet die Bereitstellung von IT-Ressourcen, die über das Internet oder seine Protokolle nutzbar sind. Zu diesen Ressourcen gehören Hardware und APIs bis zu Anwenderprogrammen, die online verfügbar sind. Wer diese Ressourcen besitzt und wo sie sich befinden, verschwimmt in der Unterscheidung immer mehr.

Was ist eine Public Cloud?

In einer Public Cloud werden Ressourcen öffentlich verfügbar gemacht. Ein einfaches Beispiel sind Angebote wie Gmail oder andere Anbieter von E-Mail Adressen und deren Hosting. Ob dafür eine Bezahlung verlangt wird, spielt für die Einstufung als Cloud Computing keine Rolle. Es sollte Ihnen aber klar sein, dass Sie im Fall von Gratisangeboten mit Ihren Daten bezahlen.

Der Vorteil von Public Clouds ist der, dass Ressourcen nur dann bezahlt werden müssen, wenn sie tatsächlich gebraucht werden. Dann aber sind diese Ressourcen in praktisch unbegrenztem Umfang verfügbar. Dazu kommt die Möglichkeit für Experimente, die in der Cloud möglich sind. Die Anschaffung und Inbetriebnahme eigener Geräte ist dafür nicht erforderlich.

Was ist ein Private Cloud?

Dabei handelt es sich um eine Cloud, die nur für Sie als einzigem Kunden zugänglich ist. Die Hardware kann bei Ihnen stehen oder auch in einem externen Rechenzentrum. Der wesentliche Punkt ist, dass nur Sie Zugriff auf das System haben.

Der Vorteil dieser Version einer Cloud ist die maximale Sicherheit. Nachdem der Zugang am stärksten eingeschränkt ist, lassen sich Anforderungen wie Vertraulichkeit und Konformität mit gesetzlichen Vorgaben am besten umsetzen. Außerdem können Sie ein solches System genau nach Ihren Vorstellungen konfigurieren.

Die Nachteile sind im Wesentlichen identisch mit denen eines Verzichts auf Cloud Computing. Als Unterschied zum völligen Verzicht bleibt bestehen, dass Sie eine Private Cloud von einem externen Anbieter erwerben und so gewisse Leistungen auslagern können.

Die Zuverlässigkeit ist aber weniger hoch, weil Ihre Daten nur auf den Rechnern Ihrer privaten Cloud liegen. Eine private Cloud ist auch nicht im selben Ausmaß skalierbar wie eine Public Cloud. Das betrifft sowohl die Auslastung der privaten Cloud als auch die Möglichkeit zu einer Erweiterung bei Belastungsspitzen.

Wie verbinden sich Private und Public zu einer Hybrid Cloud?

Wie die Bezeichnung nahelegt, werden in einer Hybrid Cloud eine private und eine öffentliche Lösung zusammen genutzt. Der springende Punkt ist, dass diese beiden Teile durch eine eigene Software verbunden sind und so miteinander kommunizieren können. Es ist klar, dass sich dabei ganz von selbst Probleme mit der Kompatibilität ergeben. Deren Bewältigung gehört zu den Hauptproblemen mit Hybrid Clouds.

Wie sehen die technische Umsetzung und Benutzung aus?

Im privaten Teil, also in der privaten Cloud werden die vertraulichen Daten gespeichert. Die restlichen Daten können in der Public Cloud gehalten und verarbeitet werden. Dort sind auch die Ressourcen verfügbar, auf die im Fall erhöhten Bedarfs zurückgegriffen werden kann.

Im Gegensatz zu einer Hybrid Cloud werden in einer Multi-Cloud-Lösung mehrere Public Clouds unabhängig nebeneinander genutzt. Die Hybrid Cloud erfordert einiges mehr an Organisation und Aufwand, weil beispielsweise jeder Mitarbeiter zu genau den Daten Zugang erhalten muss, die er für seine Arbeit braucht. Dazu sind entsprechende Autorisierungslösungen notwendig.

Wie setze ich eine Hybrid Cloud um?

Eine solche Lösung wird gerade deshalb gewählt, weil sie sich individuell auf die Anforderungen des Kunden anpassen lässt. Eine Möglichkeit ist deshalb eine Maßanfertigung durch entsprechende Entwickler.

Es gibt aber auch Anbieter für Komplettlösungen für Hybrid Clouds. Dazu gehören AWS Outposts, Microsoft mit Azure Stack und Google Anthos.

Anwendungen

Eine typische Situation ist die Verarbeitung von Daten mit unterschiedlichen Sicherheitsstandards. Für diese Notwendigkeit ist die unterschiedliche Gesetzeslage in den USA und in Europa ein Beispiel. Vielleicht bietet ein amerikanischer Anbieter wie Google eine Public Cloud, die Sie gerne verwenden möchten. Diese unterliegt aber den Gesetzen der USA und insbesondere dem Patriot Act, der den Betreiber zur Herausgabe Ihrer Daten an US-Behörden verpflichtet. Eine mögliche Lösung ist die Verwendung einer Hybrid Cloud mit dem privaten Bereich in Europa.

Eine andere Situation ist ein Projekt zur Verlagerung von IT-Leistungen in eine Public Cloud. Oft müssen einzelne Anwendungen aus den verschiedensten Gründen von diesem Prozess ausgeschlossen werden. Für diese kann der private Teil einer Hybrid Cloud eine Lösung sein.

Eine weitere Anwendung ist eine Datenverarbeitung mit saisonaler und vorhersehbarer Spitze. Auch wenn die Daten nicht vertraulich sind, kann es Sinn machen, die reguläre Verarbeitung im Haus zu halten und nur die Spitzen mit einer Public Cloud abzudecken. Eine tragfähige Verbindung zwischen diesen zwei Teilen kann dann mit einer Hybrid Cloud sichergestellt werden.

Schließlich ist das Konzept der Hybrid Cloud auch die Grundlage für das Edge Computing. Bestimmte Daten müssen aus verschiedenen Gründen geografisch näher am Nutzer verarbeitet werden. Die nutzernahen Teile können dann den privaten Teil einer Hybrid Cloud bilden.

Bei einer sogenannten Greylist (brit.), Graylist (USA) oder auch „Greylisting“ handelt es sich um eine äußerst effektive Methode, um den Versand von Spam-E-Mails zu unterdrücken. Im Gegensatz zu einer oder einer Blacklist wird eine Graylist auf dem Mailserver des E-Mail-Empfängers implementiert und erfordert keine Konfiguration seitens des Absenders oder Empfängers. Bei dem Einsatz einer Graylist sollten theoretisch keine legitimen E-Mails verloren gehen. Aus diesem Grund handelt es sich hierbei um eine der am weitesten verbreiteten Methoden zur globalen Bekämpfung von Spam-Email.

Wo kommt eine Graylist zum Einsatz?

Bei einer Firewall oder einem Spam-Filter handelt es sich um ein komplexes Software-System, das mithilfe von Heuristiken und künstlicher Intelligenz versucht, Spam-E-Mails zu identifizieren. Im Gegensatz zu diesen aufwendigen und komplizierten Methoden, wird durch den Einsatz einer Greylist in erster Linie versucht, die Zustellung offensichtlicher Spam-E-Mails zu unterbinden. Da das Graylist-Verfahren auf einer relativ einfachen technologischen Basis aufgebaut ist, ist es in der Ausführung unkompliziert und äußerst ressourcenschonend.

Das Graylist-Verfahren kommt insbesondere bei der Bekämpfung des illegalen Massenversands von Spam zum Einsatz. Im Rahmen des nichtpersonalisierten und massenhaften Versenden von E-Mails kommen in vielen Fällen gestohlene E-Mail-Adressen zum Einsatz. In der Regel erfolgt der Versand von gehackten Computern ahnungsloser Nutzer. Diese gekaperten Rechner werden in ferngesteuerte Bot-Netze eingebunden und werden dazu missbraucht, um massenhaft Spam-Mail zu verschicken.

Obwohl beim massenhaften Spam-Versand die Graylist-Methode oft sehr gute Ergebnisse liefert, ist diese Methode weniger gut für die Bekämpfung von „Unsolicited Commercial E-Mail“ (UCE) geeignet. Hierbei handelt es sich um unerwünschte E-Mails, die einzeln von Unternehmen oder Personen versendet werden. Bei der effektiven Bekämpfung dieser Art von Spam-E-Mails kommen andere Methoden, wie beispielsweise inhaltsbasierte Filter, Firewalls oder sogenannte „Blacklists“, zum Einsatz.

Wie funktioniert eine Greylist?

Greylisting basiert auf der Idee, potenzielle Spam-E-Mails zu identifizieren und auszusortieren, noch bevor sie zugestellt werden. Um Greylisting besser zu verstehen, schauen wir uns im Folgenden an, wie das Verfahren genau funktioniert.

Beim Versenden von E-Mails im World Wide Web kommt das Simple Mail Transfer Protocol (SMTP) zum Einsatz. Das Verfahren läuft nach folgendem Schema ab:

  1. Der Absender verfasst eine E-Mail in einem sogenannten „Mail User Agent“. Dabei kann es sich um ein lokales Programm wie Microsoft Outlook oder um eine Webanwendung wie Gmail handeln.
  2. Der Mail User Agent stellt eine SMTP-Verbindung zum Mail Transfer Agent (MTA) des Absenders her.
  3. Die E-Mail wird von dem Mail Transfer Agent des Absenders zum Mail Transfer Agent des Empfängers weitergeleitet. Falls dieser MTA die E-Mail annimmt, wird sie in das Postfach des Empfängers verlagert.

Graylisting kommt im dritten Schritt zum Einsatz. Folgende Informationen sind dem empfangenden Mail Transfer Agent vor der Annahme der E-Mail bekannt, und zwar:

– E-Mail-Adresse des Absenders

IP-Adresse des Mailservers

– E-Mail-Adresse des Empfängers

Diese Daten sind auch unter dem Namen „Umschlagdaten“ bekannt. Der zuständige Mail Transfer Agent zeichnet die Umschlagdaten jeder eingehenden E-Mail in einer Datei auf, der sogenannten Graylist.

 

Falls eine Kombination von Umschlagsdaten zum ersten Mal auftaucht, dann wird bei Greylistings das Zustellverfahren automatisch mit der Fehlermeldung unterbrochen, dass ein Fehler aufgetreten sei und dass die Zustellung noch einmal initialisiert werden soll. Ein legitimer Mail Transfer Agent wird später einen erneuten Zustellversuch unternehmen, so dass die E-Mail nach einem Zeitintervall akzeptiert wird. Demgegenüber meldet sich ein Mail Transfer Agent, der Spam-Mail verbreitet, nicht ein zweites Mal. Und genau an dieser Stelle kommt die Schutzfunktion einer Greylist zum Einsatz. Da ein zweiter Zustellversuch nicht initialisiert wird, kann die Spam-Mail nicht zugestellt werden.

Welche Risiken gibt es?

Obwohl die Vorteile des Greylist-Verfahrens vielfältig sind, birgt diese Technik zur Spam-Bekämpfung auch einige Risiken:

– Die IP-Adresse des absenden SMTP-Servers darf sich nicht ändern. Falls sich die IP-Adresse des SMTP-Servers während des Zustellvorgangs ändert, werden die zuzustellenden E-Mails fälschlicherweise als Spam gekennzeichnet und automatisch in die Graylist eingetragen.

– Bei falscher Konfiguration oder fehlerhafter Implementation des sendenden SMTP-Servers kann die Zustellung unter Umständen fehlschlagen. Falls der Mail Transfer Agent des Absenders die Aufforderung zur erneuten Zustellung der E-Mail nicht erfüllt, wird die Zustellung der E-Mail automatisch geblockt.

– Spammer können den Greylist-Schutz durch den Einsatz zusätzlicher Ressourcen überwinden. So können Spammer beispielsweise ihre Spam-E-Mails mehrfach verschicken, um das Greylisting auszutricksen. Damit ist jedoch ein viel größerer Aufwand verbunden, sodass sich die Mühe in den meisten Fällen nicht lohnt.

– Der Zeitverzug, der durch die erneute Auslieferung der E-Mail entsteht, kann zu diversen Problemen führen. So können beispielsweise zeitlich begrenzte Inhalte ungültig werden. Zu diesem Problem kommt es oft bei der Zwei-Faktor-Authentifizierung oder der Wiederherstellung eines Passwortes. Da die Bestätigungs-E-Mail von einem unbekannten Absender kommt, wird sie zunächst in die Greylist eingetragen. Bis der Absender die E-Mail erneut versendet, vergeht ein gewisser Zeitraum, sodass der Login-Code oder der Password-Wiederherstellungs-Link eventuell abgelaufen ist.

Moderne Smartphones und Tablet-PCs werden immer öfter als mobiler Arbeitsplatz genutzt und benötigen eine schnelle und zuverlässige Anbindung an das World Wide Web. Mit der Einführung von 5G soll bis 2025 schnelles Internet deutschlandweit verfügbar sein. Mit 5G wird die fünfte Mobilfunkgeneration bezeichnet, die seit 2019 europaweit an Verbreitung gewinnt. Im Folgenden beleuchten wir das Thema 5G von allen Seiten und gehen auf die besonderen Merkmale dieser neuen Mobilfunkgenration im Detail ein.

Die Definition von 5G

Bei 5G handelt es sich um einen Mobilfunkstandard, der seit 2019 in Deutschland an Verbreitung gewinnt. Der wesentliche Unterschied der fünften Generation zu den früheren Standards LTE (4G) und UMTS (3G) spiegelt sich in der Tatsache wider, dass die Anzahl der sendenden Mobilfunkstationen nicht mehr direkt von der Besiedlungsdichte des jeweiligen Gebiets abhängig ist. Konkret bedeutet das, dass der Aufbau des Mobilfunknetzes der 5. Generation sich in erster Linie nach den Anforderungen der Anwender vor Ort richtet. Ob ein Wohngebiet ein sehr breitbandiges Netz mit hohen Datentransferraten bekommt oder ob auf einer Autobahn ein schnelles Netz mit Fokus auf hohe Zuverlässigkeit und niedrige Latenzen implementiert wird, hängt in erster Linie von den Wünschen der Nutzer vor Ort ab.

Parallel zum Ausbau des neuen Netzes müssen auch die Versorgungsauflagen der Frequenzvergabe berücksichtigt werden. Aus diesem Grund weiten sich flächendeckend zunächst vorrangig Teilverbesserungen der 5. Mobilfunkgeneration aus, sodass 4G und 5G-Netze bis auf Weiteres parallel betrieben werden. Dies bietet den Vorteil, dass der Ausbau stufenweise realisiert werden kann. Falls Probleme bei der Implementation des neuen Netzes aufkommen, kann jederzeit auf 4G umgeschaltet werden. Die 5. Mobilfunkgeneration ist kein geschlossener Standard, sondern besteht aus einer Vielzahl unterschiedlicher Technologien, die bereits bei LTE-Advanced zum Einsatz kommen. Insofern wird es also zu keinem technologischen Bruch kommen.

Zahlreiche Neuerungen und Verbesserungen bei 5G

Die aktuellen Mobilfunknetze setzen sich aus klassischen Dachstandorten und freistehenden Masten zusammen. Diese stellen sowohl die nötige Flächenabdeckung als auch die Netzwerkkapazität für das jeweilige Gebiet bereit. Mit der 5. Mobilfunkgeneration wird es nicht nur größere Unterschiede in der Standortdichte geben, sondern die Standorte werden sich von der Leistungsfähigkeit und den erzielbaren Datenübertragungsraten noch stärker unterscheiden als bisher. Neben den Dachstandorten, die auch weiterhin benötigt werden, wird insbesondere die kleinzellige Netzwerkarchitektur zum Einsatz kommen. Die gigantische Anzahl an teils konkurrierenden Anforderungen führt dazu, dass es kein einheitliches 5G-Netz für alle geben wird.

Vielmehr kommen viele individuell Teilnetze zum Einsatz, die auf die jeweiligen Anforderungen ihrer Nutzer optimal zugeschnitten sind. Diese kleineren Teilnetze werden auf Basis einer gemeinsamen physischen Netzwerkinfrastruktur betrieben, dem „5G-Dachnetz“. Obwohl die 5. Mobilfunkgeneration zahlreiche Neuerungen und Verbesserungen mit sich bringt, bilden die bestehenden Standorte die Basis des neuen Netzes. Die bestehenden Standorte werden graduell mit neuer Technologie ausgestattet, dazu gehört auch der Anschluss an das Glasfasernetz. Im direkten Vergleich zu dem aktuellen Mobilfunkstandard LTE-Advanced zeichnet sich 5G durch folgende Eigenschaften aus:

– datentransferraten bis zu 10 Gbit/s

– bessere Nutzung bestehender und höherer Frequenzbereiche

kurze Latenzzeiten von wenigen Millisekunden, was insbesondere für Internet of Things (IoT) interessant ist

Personalisierte Netze

Beim 5G-Netz werden in der Regel drei unterschiedliche Anwendungsbereiche unterschieden, und zwar:

– ein hochperformantes mobiles Breitbandnetz

– die Kommunikation zwischen Software und Maschine

– ein zuverlässiges Netz mit extrem kurzen Latenzzeiten

Für all diese Bereiche gibt es verschiedene technische Herausforderungen und Rahmenbedingungen, die gelöst werden müssen. Das mobile Netz der Zukunft muss möglichst flexibel gestaltet sein, damit es alle Herausforderungen möglichst gut erfüllt. Die 5. Mobilfunkgeneration verspricht eine höhere Kapazität, einen höheren Durchsatz sowie kürzere Antwortzeiten bei gleichzeitig sinkenden Betriebskosten. Durch die Anbindung der Mobilfunkstationen an das Glasfasernetz, wird die 5. Mobilfunkgeneration immer wichtiger. Neben dem Ausbau der bestehenden mobilen Funknetze, muss auch das Glasfasernetz stark ausgebaut werden, damit die 5G-Technologie ihr volles Potenzial entfalten kann.

Small Cells und andere Systeme

Bei einer 5G-Kleinzelle handelt es sich um eine Mobilfunkzelle mit geringer Sendeleistung und einem kleinen Versorgungsbereich. Die sogenannten „Kleinzellen“ (Small Cells) kommen heute schon an Orten mit hoher Nutzerdichte, wie beispielsweise in Fußgängerzonen in Innenstädten oder Fußballstadien zum Einsatz. Dank dieser Technologie lassen sich Engpässe im bestehenden Mobilfunknetz schnell und effektiv beheben. Die Kleinzellen sind jedoch nicht als Ersatz für traditionelle Mobilfunk-Dachstandorte gedacht, sondern sie sollen diese vor allem ergänzen und das Netz an Orten mit hoher Nutzerzahl verdichten.

An Orten, an denen eine große Kapazität benötigt wird, kommen Mehrantennen-Systeme zum Einsatz. Die Implementierung solcher Systeme ermöglicht die Nutzung mehrere unterschiedlicher Empfangs- und Sendeantennen zur drahtlosen Datenübertragung, wodurch die zur Verfügung stehende Bandbreite um ein Vielfaches erhöht wird. Ein spezielles Codierungsverfahren biete den Vorteil, dass sich die Qualität der bereitgestellten Datendienste verbessern lässt, ohne dass mehr Frequenzen genutzt werden. Da Frequenzen im Bereich der mobilen Datenübertragung das wichtigste Gut darstellen, ist dies ein enormer Vorteil. Die Nutzer profitieren von einer höheren Zuverlässigkeit und schnelleren Datenraten.

Beim Cloaking handelt es sich um ein Verfahren, bei dem Besuchern und Suchmaschinen-Crawlern unterschiedliche Inhalte auf derselben Website präsentiert werden. Diese Verschleierung kann entweder bewusst realisiert sein oder auch unbeabsichtigt passieren. Im folgenden Artikel beleuchten wir das Thema Cloaking von allen Seiten und gehen auf die Besonderheiten im Detail ein.

Im Rahmen der Suchmaschinenoptimierung geht es beim Cloaking in erster Linie darum, Suchmaschinen-Bots einen anderen Inhalt auf einer URL anzuzeigen als einem normalen Besucher. Eine solche Verschleierung kann vielfältige Gründe haben, so kann sie beispielsweise bewusst oder unbeabsichtigt geschehen. Für Google und andere Suchmaschinenbetreiber stellt Cloaking einen Verstoß gegen die Qualitätsrichtlinien dar und wird in vielen Fällen mit einem schlechteren Ranking bestraft. Einer der Hauptgründe, weshalb Google Cloaking-Maßnahmen nicht zulassen möchte, lässt sich sehr gut verstehen, wenn man sich anschaut, womit Google primär Geld verdient und was sonst noch im Rahmen der Google-Suche passiert.

Alphabet, der Mutterkonzern von Google, finanziert sich größtenteils (mehr als 85 Prozent) aus Werbeeinnahmen aus Googles Werbenetzwerken, wie beispielsweise das bekannte und in Deutschland äußerst beliebte AdWords-Netzwerk. Die aus diesen Netzwerken resultierenden Werbeeinnahmen sind zwar gigantisch, sind jedoch auf nur ungefähr 7 Prozent aller Klicks der AdWords anzeigen zurückzuführen. Konkret bedeutet das, dass es sehr viele Suchanfragen gibt, bei denen der Suchmaschinengigant keine Webeeinnahmen generiert. Den Nutzern muss jedoch weiterhin ein optimales Ergebnis geliefert werden, damit diese auch weiterhin Google nutzen und nicht zur Konkurrenz wechseln.

Warum kommt Cloaking zum Einsatz?

Die Gründe für den Einsatz von Cloaking-Maßnahmen sind vielfältiger Natur. Sie bewegen sich vom bewussten Verschleiern von Spam und anderen illegalen Aktivitäten bis hin zu versehentlichem Cloaking durch Programmierfehler an der Website.

Widmen wir uns zunächst dem unangenehmsten Fall: Nehmen wir an, dass es einem Hacker gelungen ist, Zugriff auf das Content-Management-System Ihrer Website zu bekommen.

Der Cyberkriminelle erstellt im CMS zunächst Seiten für bestimmte Keywords, die in vielen Fällen aus den Themenbereichen der Erwachsenenunterhaltung, Pharmazeutika oder Glücksspiel stammen. Auf diese Seiten werden dann Links eingebunden, die auf die eigentlichen Websites des Hackers verlinken oder an Drittpersonen verkauft werden. Diese Webseiten werden dann so implementiert, dass sie nicht jedem Besucher im Browser angezeigt werden. Sie sind weder direkt über das CMS aufrufbar, noch werden sie normalen Besucher ausgespielt. Nur wenn ein Google-Crawler vom System automatisch erkannt wird, dann werden die Seiten angezeigt. Besonders problematisch ist, dass die eigentlichen Seitenbetreiber und Webmaster von den Vorfällen in vielen Fällen nichts mitbekommen und an diesen illegalen Aktivitäten überhaupt nicht beteiligt sind.

Die nächste Stufe nach Hackerangriffen stellen Cloaking-Maßnahmen dar, die von dem Seitenbetreiber selbst ausgeführt werden, um Google und Co. auszutricksen. Diese Maßnahmen werden eingesetzt, um ein besseres Ranking in den Suchergebnissen zu erzielen. Hierzu gehören alle Maßnahmen, die primär für eine Optimierung des Google-Rankings implementiert werden und sich nicht an die normalen Besucher richten. Eine besonders beliebte Cloaking-Technik ist es, textuelle Inhalte zu integrieren, um auf diese Weise verkaufte Links zu verstecken.

Es kommt immer wieder vor, dass die eigene Website an Google andere Inhalte ausliefert als an normale Besucher, ohne dass dies vom Seitenbetreiber beabsichtigt ist. Zufälliges Cloaking kann vorkommen, wenn beispielsweise im Livebetrieb der Webpräsenz neue Features implementiert werden.

Cloaking bei Paywalls

Wenn eine Webpräsenz, wie zum Beispiel ein Newsportal, Informationen oder Services kostenpflichtig anbietet, dann stehen die Betreiber in der Regel vor einer schweren Entscheidung. Wie soll Google die kostenpflichtigen Inhalte indexieren und im Rahmen der Websuche bereitstellen? Zum einen sollen die Informationen in der Google-Suche auffindbar sein, zum anderen sollen die Nutzer jedoch für den Zugang bezahlen. In solchen Fällen könnte man auf den Gedanken kommen, die IP-Adresse des Google-Crawlers auf eine sogenannte „Whitelist“ zu setzen und dem Google-Bot einfach die Inhalte zu zeigen, während Nutzer auf eine andere URL weitergeleitet werden. Wenn Sie als normaler Besucher, aus den Suchergebnissen die URL aufrufen, wird Ihnen der Login-Bereich angezeigt. Dem Google-Crawler wird jedoch der volle Zugang zu allen Inhalten gewährt, sodass Google der Domain mehr Sichtbarkeit in den Suchergebnisse attribuiert.

Geotargeting und Cloaking

Mit Geotargeting werden Maßnahmen bezeichnet, die ein standortbezogenes Targeting ermöglichen und einen wichtigen Teil des Online-Marketings darstellen. Geotargeting wird beispielsweise in der Form realisiert, dass Online-Anzeigen und Inhalte nur an bestimmte Nutzer abhängig von ihrem Standort ausgeliefert werden. Obwohl abhängig von der IP-Adresse des Besuchers unterschiedliche Inhalte präsentiert werden, fällt Geotargeting an sich nicht unter Cloaking. Ein prominentes Beispiel für Geotargeting wäre ein kurzer Text mit einem rechtlichen Hinweis. Dieser ist in einem EU-Land gesetzlich vorgeschrieben, während er in den USA nicht vorkommen muss.

JavaScript und Single Page Application (SPAs)

Dank JavaScript werden Websites immer interaktiver und attraktiver. Hinzu kommt noch, dass Webpräsenzen immer mehr als Single Page Applications realisiert werden, in denen es nur eine Seite gibt und sämtliche Inhalte dynamisch über AJAX (Asynchronous JavaScript and XML) per Bedarf nachgeladen werden. Auch hier muss die Frage gestellt werden, ob es sich um Cloaking handelt, wenn Google die Website nicht rendern kann? Wenn der Google-Crawler andere Inhalte als der Besucher sieht, weil der benötigte JavaScript-Code nicht ausgeführt werden kann, dann handelt es sich nicht um Cloaking. Dies kann jedoch zu Ranking-Problemen führen, da eine Website, die als Single Page Application realisiert ist, nicht indexiert werden kann.

Ein Cloud Access Security Broker (CASB) ist ein Service, der als Überwachungsinstanz zwischen dem Cloud-Dienst und dem Anwender fungiert. Seine primäre Aufgabe besteht darin, einen sicheren Zugriff auf die verschiedenen Cloud-Services bereitzustellen. Ein Cloud Access Security Broker kann als eine dedizierte Anwendung oder auch selbst als ein Cloud-Dienst realisiert sein.

Cloud Access Security Broker im Detail

Ein Cloud Access Security Broker (CASB) ist für eine Reihe unterschiedlicher Aufgaben zuständig. Die zentrale Aufgabe eines solchen Brokers besteht darin, Anwendungen abzusichern, die eine Organisation oder ein Unternehmen in eine Cloud verlagert haben. Der CASB kann entweder als eine eigenständige Anwendung oder auch als ein Cloud-Service realisiert sein, der die Authentisierung und den Zugriff von Anwendern auf die Cloud-Applikationen kontinuierlich analysiert und orchestriert. Er kann Zugriffe auf einzelne Cloud-Ressourcen erlauben oder verwehren. Gleichzeitig zeichnet er alle erfolgten Zugriffe im Detail auf und sorgt für eine lückenlose Protokollierung der kompletten Kommunikation zwischen Anwender und Cloud-Dienst und aller ausgeführten Aktionen. Auf diese Weise lassen sich unerwünschte Aktionen zeitnah identifizieren und unterbinden. Der Broker ist in der Lage, verdächtige Aktionen automatisch zu erkennen und Administratoren darüber zu benachrichtigen.

In Cloud-Umgebungen, wie beispielsweise IaaS oder PaaS werden Cloud Access Security Broker in vielen Fällen eingesetzt, um die durch eine Organisation oder durch ein Unternehmen zu erfüllenden Sicherheitsstandards zu implementieren. Dadurch können unternehmensinterne Sicherheitskonzepte auf externe Services und Dienstleister erweitert werden. Dies kann beispielsweise dann notwendig sein, wenn strenge Vorlagen zum Datenschutz oder hohe Compliance-Richtlinien eingehalten werden müssen wie in bestimmten Bereichen des Gesundheits- oder des Finanzwesens. Der Cloud Access Security Broker ermöglicht die Implementierung einheitlicher und sicherer Zugangsvoraussetzungen, bei denen sich alle Anwender gegenüber der Cloud-Anwendung authentisieren müssen.

Gleichzeitig wird auch die Verschlüsselung aller übertragenen Daten vom CASB vorausgesetzt, sodass eine unerwünschte Nutzung der Cloud-Anwendungen und das Entstehen einer sogenannten „Schatten-IT“ durch offene Zugänge zur Cloud effektiv verhindert werden. Um einen wirksamen Schutz gewährleisten zu können, müssen im Vorfeld klar definierte Security-Policies implementiert werden. Der Cloud Access Security Broker ist für die Umsetzung dieser Security-Policies in der Cloud-Umgebung verantwortlich. Ein weiterer bedeutender Einsatzbereich des CASB sind die Verifizierung und Quantifizierung der Cloud-Nutzung zu Zwecken der Abrechnung. Dadurch wird die Nutzung der verschiedenen Ressourcen und Dienste gegenüber dem Cloud-Dienstleister nachweisbar.

Wie lässt sich ein Cloud Access Security Broker implementieren?

Moderne Cloud Access Security Broker sind in unterschiedlichen Versionen und Ausführungen erhältlich. Grundsätzlich lassen sich abhängig von der Implementierung zwei verschiedene Architekturen unterscheiden, und zwar:

– Gateway-basierte CASB-Lösungen

– API-basierte CASB-Lösungen

Bei dem API-basierten CASB ist die kontrollierende Instanz außerhalb des eigentlichen Datenstroms vom Cloud-Dienst und Anwender implementiert. Bei dieser Architektur erfolgt die Anbindung an die Cloud über eine API-Schnittstelle (Application Programming Interface). Diese Schnittstelle stellt Informationen über die Nutzung der Cloud-Dienste und deren Anwender zur Verfügung. Da die Kontrollinstanz außerhalb des Datenstroms implementiert ist, sind eine direkte Beeinflussung der Kommunikation oder das unmittelbare Blockieren der übertragenen Daten nicht möglich. Durch das Ausführen bestimmter Funktionen sowie durch das Setzen bestimmter Policies und Rechte findet die Kontrolle über die API statt. API-basierte CASB zeichnen sich dadurch aus, dass die Performance der kontrollierten Cloud-Anwendungen nicht durch den Cloud Access Security Broker selbst beeinflusst wird. Demzufolge ist diese CASB-Architektur in erster Linie für den Einsatz in sehr großen Cloud-Umgebungen mit einer Vielzahl von Anwendern ausgelegt.

Der Gateway-basierte CASB ist hingegen unmittelbar zwischen der Cloud und den Anwendern implementiert. Er wird an einer zentralen Stelle installiert und kann die gesamte Kommunikation beeinflussen. Da der Gateway-basierte CASB vor der Cloud platziert wird, ist er in der Lage, den gesamten Datenverkehr zur Cloud und von der Cloud genau auszuwerten und zu überwachen. Der CASB schleift sich direkt in den Datenstrom ein, sodass der Datenstrom beliebig steuerbar ist. Ein wesentlicher Nachteil dieser Art der Implementierung eines Security Brokers spiegelt sich in der Tatsache wider, dass die Performance der Kommunikationskanäle zwischen Anwender und Applikation eventuell durch die Kontrollinstanz negativ beeinflusst werden können. Große Cloud-Infrastrukturen mit vielen Anwendern benötigen einen entsprechend performanten Cloud Access Security Broker, um die negativen Auswirkungen der Verkehrskontrolle auf einem möglichst kleinen Niveau zu halten.

Moderne CASB-Lösungen stellen folgende Möglichkeiten der Absicherung der Cloud-Zugriffs bereit:

Überwachung und Kontrolle des gesamten Datenverkehrs: Mit speziellen Rechten lässt sich schnell und einfach regeln, welcher Nutzer auf welche Anwendung Zugriff erhält. Mit performanten Schutzmechanismen lassen sich besonders kritische Bereiche absichern.

– Verschlüsselung des Datenverkehrs: Ohne den organisationsspezifischen Schlüssel zu kennen, kann niemand Zugriff auf die zur und von der Cloud übermittelten Daten erhalten.

Konsolidierung wichtiger IT-Sicherheitsrichtlinien: Durch die Einbindung globaler Security-Policies werde die Sicherheitsrichtlinien auf sämtliche Cloud-Anwendungen und Zugriffe erweitert.

– Personalisierter Datenschutz: Moderne CASB-Lösungen bietet einen geräteabhängigen, selektiven Datenschutz. Daten auf Geräten lassen sich selektiv löschen, falls ein Gerät verloren oder gestohlen wird.

Dank der Analyse und der kontinuierlichen Überwachung der Kommunikation zwischen Nutzer und Anwendung ist der Cloud Access Security Broker stets darüber informiert, wer welche Applikationen und Services nutzt.