Beiträge

Microsoft Office365 ist ein Softwarepaket für Büroanwendungen und wird Privat- und Gewerbekunden in verschiedenen Versionen angeboten. Auf Ihrem Rechner installierte Programme sind nur ein kleiner Teil des Pakets, das üblicherweise in der Cloud auf Servern von Microsoft läuft. Office365 ist nur als Abo erhältlich und enthält insbesondere auch einen Mailserver.

Wie lange gibt es Office365 schon?

Das Paket ist seit 2011 für Gewerbekunden erhältlich und wurde als Nachfolger der früher angebotenen Business Productivity Online Suite entwickelt. Zwei Jahre später wurden Versionen für Privatkunden in das Angebot von Microsoft aufgenommen. Office365 stellt einen weiteren Schritt in die Richtung der Verlagerung von Unternehmenssoftware in die Cloud dar.

Was leistet Office365?

Das Paket ist zu einem Teil offline nutzbar, was aber von den Entwicklern nicht für den normalen Betrieb vorgesehen wurde. Wird das System nämlich für 31 Tage nur offline benutzt, können Dokumente zwar noch angezeigt, aber nicht mehr bearbeitet werden. Das ist erst wieder möglich, wenn eine Internetverbindung zu den Servern von Microsoft hergestellt wird. Benutzt werden kann Office365 allerdings mit jedem beliebigen Browser.

Office365 ist als „Software as a Service“ konzipiert. Eine solche Software läuft in der Cloud auf den Servern des Anbieters, in diesem Fall also Microsoft. Ihre Daten werden dort gespeichert und verarbeitet. Sie haben den Vorteil, dass Ihnen immer die neueste Version der Programme zur Verfügung steht. Es sind also keine Updates oder Patches mehr einzuspielen, das machen alles die Spezialisten von Microsoft selbst. Das Abo für Office365 ist an Sie als Benützer gebunden und nicht an ein bestimmtes Gerät. Mit einem solchen Abo können Sie von jedem Gerät mit einem Browser auf Ihre Daten zugreifen. Die Programme können Sie auf einer bestimmten Anzahl von Geräten installieren.

Die Verfügbarkeit Ihrer Daten jederzeit und überall ist zwar ein Vorteil, bringt aber auch Probleme der Sicherheit und Vertraulichkeit mit sich. Administratoren von Office365 sehen etwa genau, welche E-Mails Mitarbeiter lesen und sogar zu welchem Zeitpunkt. Das ist an sich nicht verträglich mit der Datenschutzgrundverordnung der EU. Außerdem besitzen die Behörden der USA Zugriff auf Ihre Daten und auch Ihre E-Mails.

Was ist ein Mailserver und wozu brauche ich ihn?

Office365 beinhaltet auch einen Mailserver. Das ist ein Server, der immer online sein sollte und Ihre E-Mails in Empfang nimmt und speichert. Sie sehen die Mails, wenn Sie sich einloggen und Ihr Computer als Client die E-Mails herunterlädt. Auch zum Versenden von E-Mails laden Sie die Nachricht auf den Mailserver hoch, der sie dann an den Empfänger weiterleitet, genauer an seinen Mailserver.

Wozu setze ich einen Virenscanner ein?

Viren sind Schadprogramme, die sich oft per E-Mail ausbreiten. Der E-Mail angefügten Dokumente infizieren den Computerhädliche. Scanner sind ihrerseits Programme, die solche Viren erkennen und unschädlich machen sollen. Das funktioniert relativ gut, allerdings können auch die besten Scanner nicht alle möglichen Virusprogramme erkennen.

Microsoft Office365 als Mailserver

Traditionell haben viele auch kleinere und auf jeden Fall mittlere Unternehmen ihren eigenen Mailserver betrieben. Auch Microsoft hat mit dem Exchange einen solchen Server im Angebot. Die Administration eines solchen Mailservers ist allerdings immer aufwendiger geworden und heute so komplex, dass kleinere Unternehmen sich nach Alternativen umsehen.

Ein möglicher Weg ist die Verlagerung des Mailservers in die Cloud und diesen Service enthält Office365. Je nach Abo können Sie den Umfang des Speicherplatzes für Ihre Mails frei wählen, was auch für die Zahl der Nutzer mit einer Adresse gilt. Ein weiterer Service ist die Einrichtung von Sammeladressen wie support@…, die dann mehreren Nutzern zur Verfügung stehen und von ihnen gemeinsam bearbeitet werden können. Durch das Webhosting sehen sie alle die gleichen Mails, ohne dass besondere Maßnahmen zur Koordination getroffen werden müssten. Beim Umgang mit vertraulichen Daten und möglicherweise sensitiven Schritten wie dem Hinzufügen von Adressaten werden Sie von Office365 automatisch gewarnt und auf die Folgen Ihrer Schritte hingewiesen. Nachdem Mails schnell und einfach verschickt werden können, besteht auch die Gefahr von unbeabsichtigten Datenlecks. Eine zusätzliche Sicherung gegen solche Datenabflüsse kann Ihrem Unternehmen gegebenenfalls viel Geld sparen.

Sicherheit und Vertraulichkeit von Daten mit Office365 als Mailserver

An möglichen Bedrohungen sind hier auf der einen Seite Kriminelle, auf der anderen aber auch die Behörden zu nennen. Die Sicherheit vor kriminellen Hackern liegt im Verantwortungsbereich von Microsoft. Der Systemadministrator in Ihrer Firma braucht sich nicht mehr selbst um die Absicherung eines eigenen Mailservers zu kümmern. Man kann davon ausgehen, dass die Spezialisten von Microsoft diesen Aspekt hinreichend gut im Griff haben. Als Besonderheit ist hier der Schutz durch ATP oder Advanced Threat Protection zu nennen. Das System erkennt verdächtige Mail-Anhänge und warnt vor ihnen. Auch ATP bietet keinen vollständign Schutz. Es wird aber ständig von Fachleuten weiterentwickelt.

Durchwachsener sieht es allerdings mit dem Schutz vor Behördenwillkür aus. Die Nachrichtendienste der USA können sich nach der Gesetzeslage ohne große Schwierigkeiten Zugang zu Ihren Daten verschaffen. Sie müssen beurteilen, wie Sie diese Gefahr und die möglichen Folgen einschätzen.

Bei Microsoft Windows handelt es sich ursprünglich um eine von Microsoft entwickelte Benutzeroberfläche, aus der im Laufe der Jahre eine Reihe eigenständiger Betriebssysteme hervorgegangen ist. Windows-Betriebssysteme kommen in erster Linie auf PCs (Personal Computer) und Servern zum Einsatz. Darüber hinaus existieren auch spezielle Versionen für Embedded Devices wie Kassensysteme, Messgeräte sowie Varianten für Smartgeräte wie Smartphones und Tablets.

Entwicklungsgeschichte

Das US-amerikanische Unternehmen Microsoft entwickelte ursprünglich keine Betriebssysteme, sondern seit Mitte der 1970er-Jahre BASIC-Anwendungen für unterschiedliche Computersysteme. Erst im Jahr 1981 mit dem Marktstart der ersten Version von MS-DOS stieg Microsoft in das Betriebssystemsegment ein. Im Rahmen von MS-DOS wurde das System ausschließlich mit Kommandobefehlen bedient. Die Befehlssyntax war relativ kompliziert und erforderte eine Einarbeitung, sodass ein intuitives Arbeiten dadurch nicht möglich war. Zu den Computern, die bereits damals mit einem Betriebssystem mit grafischer Benutzeroberfläche ausgestattet waren, zählten der 1979 erschienene Xerox Alto sowie Lisa und Macintosh von Apple, die einige Jahre später veröffentlicht wurden.

Diese grafischen Systeme wurden von eingefleischten Microsoft-Fans belächelt und als sinnlos bezeichnet. Der Microsoft-Gründer, Bill Gates, erkannte allerdings schon früh das enorme Potenzial grafischer Benutzeroberflächen und startete ein neues Projekt mit der Bezeichnung „Interface Manager“. Die übrigen Microsoft-Gründer unterstützen dieses Projekt, waren jedoch mit dem Namen unzufrieden, sodass das Projekt schließlich in Windows umbenannt wurde. Mit der Entwicklung von Windows hatten die Microsoft-Gründer Paul Allen, Steve Ballmer und Bill Gates die einflussreichste Zusammenarbeit in der Geschichte moderner Softwareentwicklung gestartet.

 

Im Laufe der Jahre wurde das Betriebssystem kontinuierlich weiterentwickelt und durch neue Funktionen und Features ergänzt. Windows hatte immer starke Konkurrenz, die entweder kostenlos erhältlich war oder ein besseres Gesamtpaket bot. Zahlreiche Linux-Distributionen wie beispielsweise

–       Debian

–       Ubuntu

–       CentOS

kamen im Laufe der Jahre auf den Markt, konnten sich jedoch gegen Windows nie richtig durchsetzen und führen heute noch ein Nischendasein. Im Gegensatz zu Linux, wo das eigentliche Betriebssystem vom graphischen Fenster-Manager getrennt ist, bekommt man von Microsoft das eigentliche Betriebssystem sowie den Fenster-Manager (also die graphische Oberfläche) im Bundle. Kein anderes Betriebssystem konnte eine so große Bekanntheit wie Windows erlangen und ist so vielen Nutzern weltweit bekannt oder besitzt einen derart starken Marktanteil. Microsoft hat sich diese Position als Branchenprimus durch kontinuierliche Veröffentlichungen neuer Versionen gesichert, die die Vorteile moderner Hardware und Technik voll unterstützen und ausnutzen.

Die bedeutendsten Windows-Versionen im Überblick

Windows 1.0

Die erste Windowsversion wurde 1983 in einer Testversion der breiten Öffentlichkeit präsentiert und zwei Jahre später 1985 veröffentlicht. Bei Windows 1.0 handelte es sich grundsätzlich um ein Programm, das auf MS-DOS lief. Das Release war für Microsoft ein Start mit erheblichen Hindernissen, da das Betriebssystem äußerst instabil lief. Durch das innovative „Point-An-Click-Konzept“ war Win 1.0 jedoch auch für Einsteiger leicht nutzbar. Das benutzerfreundliche Konzept des Betriebssystems ermutigte auch neue Anwender, die von der Steuerung per Befehlszeile eventuell überfordert waren, einen Personal Computer zu nutzen.

Windows 95

Im Jahr 1995 brachte Microsoft das Betriebssystem Windows 95 auf den Markt, das sich binnen kürzester Zeit zu einem enormen Verkaufserfolg entwickelte und den endgültigen Durchbruch für Microsoft einläutete. Windows 95 brachte einer großen Menge von Menschen weltweit Computer und das Internet näher. Das Betriebssystem machte den oft komplizierten Prozess der Installation neuer Hardware durch „Plug and Play“ wesentlich einfacher. Des Weiteren brachte Win 95 einen breiteren Farbraum, bessere Multimedia-Möglichkeiten und native Unterstützung für TCP/IP-Netzwerke. Die DirectX-Runtime ermöglichte zudem, dass auch grafisch anspruchsvolle Spiele auf Windows ausgeführt werden konnten.

Windows XP

Mit Windows XP brachte Microsoft im Jahr 2001 die erste auf der NT-Architektur basierte Version auf den Markt, die in erster Linie auf die Anforderungen und Bedürfnisse von Endnutzern ausgerichtet war. Windows XP wird von vielen Nutzern und Kritikern als die beste Windowsversion angesehen und wurde damals dementsprechend hoch bewertet. Das Betriebssystem brachte eine verbesserte Optik und bot eine äußerst stabile Plattform. Mit dem Betriebssystem wurde auch das Ende der DOS-Ära endgültig eingeläutet. Die neue DirectX-Version ermöglichte bei 3D-Spielen Effekte, an die OpenGL nicht heranreichte. Windows XP bot zudem Unterstützung für 64-Bit-Prozessoren. Dieses Feature war jedoch nicht gut umgesetzt und wurde erst mit dem Service Pack 2 verbessert. Darüber hinaus kam mit Windows XP erstmals die hauseigene Antivirensoftware „Windows Defender“ zum Einsatz.

Windows 10

Windows kündigte am 30. September 2014 offiziell Windows 10 an. Microsoft läutete mit der 10er-Version ein neues Veröffentlichungs-Modell an, sodass Windows 10 die letzte Windowsversion nach dem traditionellen Versionsmuster sein sollte. Stattdessen sieht man Windows 10 eher als eine „digitale Dienstleistung“. Nutzer von Win 10, die eine gültige Lizenz besitzen, sollten nicht nur Patches bekommen, sondern auch neue Funktionen, die im Rahmen von großen Feature-Updates ausgeliefert werden.

Plattform

Microsoft verfolgt mit dem Windows-Betriebssystem das Konzept, eine möglichst kompatible Plattform für Anwendungen aller Art zu sein. Dies wird über die Win32-API realisiert und deren zahlreichen Erweiterungen. Das Betriebssystem ist seit seiner ersten Version eine sogenannte „offene Plattform“. Konkret bedeutet das, dass jeder Entwickler ohne Einschränkungen Anwendungen für Windows entwickeln und vertreiben kann. Eine explizite Erlaubnis seitens Microsoft ist nicht nötig. Im Laufe der Jahre hat sich Windows zu einer äußerst stabilen Plattform entwickelt und kommt mittlerweile auf ca. 90 Prozent aller Desktop-PCs zum Einsatz. Microsoft ist im Laufe der Jahre auch deshalb zum Branchenprimus geworden, weil die Abwärtskompatibilität der Windowsplattform jahrelang die höchste Priorität bei der Entwicklung neuer Versionen hatte. Eine solche stabile Plattform bietet Anwendungsentwicklern den entscheidenden Vorteil, dass Programme nicht für jede einzelne Windowsversion angepasst werden müssen, sondern Microsoft für die Kompatibilität verantwortlich ist.

Sicherheit von Windows

Der wesentliche Nachteil eines so weit verbreiteten Betriebssystems spiegelt sich in der Tatsache wider, dass bei Windows regelmäßig Sicherheitslücken entdeckt werden, die von Cyberkriminellen ausgenutzt werden, um Angriffe zu starten. Mit Windows 10 sind die Sicherheitsrisiken jedoch, wegen der intensiven Weiterentwicklung interner Sicherheitsmechanismen deutlich zurückgegangen. Obwohl neue Windowsversionen mit einer hauseigenen Antivirensoftware ausgestattet sind, ist es aus Sicherheitsgründen dennoch empfehlenswert, einen leistungsstarken Virenscanner wie ESET zu nutzen.

Cyberkriminelle weichen inzwischen immer öfter auf Sicherheitslücken in Drittprogrammen aus. Das jüngste Beispiel hierfür ist eine schwere Sicherheitsschwachstelle bei der Videokonferenz-Anwendung Zoom. Durch die Ausnutzung dieser Sicherheitslücke können Hacker an das Admin-Passwort der Opfer gelangen. Theoretisch könnten so Hacker auch Malware und andere Schadsoftware auf den Rechnern ihrer Opfer unbemerkt herunterladen und ausführen, was katastrophale Folgen nach sich ziehen würde.

Bei Postfix handelt es sich um einen sogenannten „Mail Transfer Agent“ für Unix und Linux-Distributionen, der im Jahr 1998 entwickelt und veröffentlicht wurde. Die Entwickler wollten mit der Software eine kompatible Alternative zu Sendmail bieten. Dabei fokussierten sich die Programmierer in erster Linie auf Sicherheitsaspekte, um die Software möglichst sicher zu gestalten. Der Quellcode von Postfix wird unter der IBM Public Lizenz zur Verfügung gestellt, womit Postfix eine freie Software ist.

Entwicklungsgeschichte von Postfix

Postfix ist ein Mail Transfer Agent der als Open Source-Software frei für Betriebssysteme auf Basis von Unix, wie beispielsweise Solaris, BSD und Linux zur Verfügung gestellt wird und ist im Gegensatz zu Office 365 und Exchange nicht für Windows-Systeme erhältlich. Postfix wurde ursprünglich von dem niederländischen Softwareentwickler Wietse Venema bei dem US-amerikanischen IT-Unternehmen IBM entwickelt und im Jahr 1998 auf den Markt gebracht. IBM hat Postfix jedoch einige Jahre nach dem offiziellen Marktstart der Open Source-Community zur freien Weiterentwicklung zur Verfügung gestellt und hat mittlerweile keine Kontrolle über das Projekt. Die Software ist in erster Linie als eine sichere und leicht zu bedienende Alternative für Sendmail entworfen worden. Sendmail war zu jener Zeit der am meisten genutzte Mailserver im Internet, die Software hatte jedoch 2 erhebliche Schwachstellen, und war:

–          Sendmail hatte in der Vergangenheit immer wieder mit gravierenden Sicherheitslücken zu kämpfen.

–          Die Software ist äußerst kompliziert zu bedienen und zu administrieren. Früher galt unter IT-Experten der Spruch, dass man kein echter Unix-Administrator ist, wenn man Sendmail nicht konfiguriert hat.

Obwohl die Sicherheitslücken in Sendmail relativ schnell geschlossen wurden, war die Architektur der Software nicht auf Sicherheit ausgelegt. Postfix ist hingegen von Anfang an auf hohe Sicherheit ausgelegt. Der Postfix-Entwickler Wietse Venema war ein anerkannter IT-Sicherheitsexperte, der sich in erster Linie mit IT-Sicherheitsforschung beschäftigt hatte. Im Gegensatz zu Sendmail ist Postfix kein monolithischer Block, sondern setzt sich vielmehr aus einer Vielzahl einzelner Programmteile zusammen. Dank dieser Microservice-Architektur ist es möglich, jeden einzelnen Teil von Postfix nur mit so vielen Rechten zu versehen, wie es unbedingt nötig ist. Kein Programmteil von Postfix, der einen direkten Zugriff auf Netzwerkkommunikation hat, läuft mit Root-Rechten.

Eigenschaften

Postfix setzt sich aus unterschiedlichen Teilen zusammen, die jeweils verschiedene Rollen im Gesamtsystem ausüben. Dadurch wird nicht nur ein performanter Antiviren– und Spamschutz, sondern auch eine ausgezeichnete Performance gewährleistet, weswegen die Software in erster Linie in großen Rechenzentren und Mainframes zum Einsatz kommt. Postfix ist ein performantes und im Verhältnis zu den beiden Konkurrenten qmail und Sendmail ein einfach zu administrierendes System. Wie jeder Mail Transfer Agent setzt auch Postfix ein gewisses Maß an Kenntnissen in den Bereichen Mailserver, Netzwerkprotokolle sowie Betriebssysteme voraus, da sich die Konfiguration der Software je nach vorgesehenem Einsatzbereich sehr komplex gestalten kann.

Entwickler haben bei Postfix ein besonderes Augenmerk auf eine simple Administration und hohe Sicherheit gelegt. Es ist mit Sendmail kompatibel und kann mit Software genutzt werden, die Sendmail anstatt Postfix als Mailserver erwarten würde. Darüber hinaus ist der Mail Transfer Agent modular aufgebaut und führt sämtliche Befehle ohne Root-Rechte aus. Änderungen in der Konfiguration können zur Laufzeit realisiert werden, sodass ein Neustart nicht nötig ist.

Konfiguration

Auf den meisten Systemen wird das Verzeichnis mit den Konfigurationsdateien als „/etc/postfix“ angelegt. In diesem Verzeichnis finden Sie die master.cf und auch die Hauptkonfigurationsdatei main.cf. Sämtliche Funktionalitäten und Einstellungen aller Postfix-Teile werden über die Hauptkonfigurationsdatei main.cf realisiert. Die main.cf setzt sich aus Name-/Werte-Paaren zusammen. Dabei wird der Name eines des Konfigurationsparameters als erster Begriff auf einer Zeile auf der linken Seite eingefügt. Danach folgt die explizite Zuweisung eines Wertes. Manche Parameter können sich aus mehreren Werten zusammensetzen. Die multiplen Werte können sowohl durch Leerzeichen als auch durch Kommas getrennt werden.

Mit dem Begriff wird im Rahmen der IT ein elektronischer Echtheitsnachweis bezeichnet, der von einer Zertifizierungsstelle, der sogenannten „Certification Authority“, ausgestellt wird. Zertifikate werden in erster Linie zur Verschlüsselung des Datenverkehrs im World Wide Web eingesetzt.

Allgemeine Informationen

Beim digitalen Zertifikat handelt es sich um einen elektronischen Echtheitsnachweis, der von einer Zertifizierungsstelle herausgegeben wird. Im Internet üben Zertifikate eine vergleichbare Rolle aus wie Personalausweise in der „Offline-Welt“. Durch den Einsatz eines Zertifikats kann ein öffentlicher Schlüssel zweifelsfrei und mit hoher Sicherheit einem bestimmten Besitzer zugeordnet werden. Ein digitales verfügt u.a. über folgende Informationen:

–       Name des Besitzers

–       Herausgeber des Zertifikats

–       Gültigkeitsdauer

–       Verwendungszweck des Zertifikats

Sie kommen in Kombination mit der sogenannten „Public Key Infrastruktur“ (PKI) zum Einsatz, um Informationen im World Wide Web sicher und verschlüsselt übertragen zu können. Die Verschlüsselung basiert auf einem komplexen asymmetrischen kryptografischen Verfahren auf Grundlage öffentlicher und privater Schlüssel. Dadurch kann man zuverlässig bestätigen, wer der Besitzer des Zertifikats ist. Alle modernen Betriebssysteme und Browser verfügen über Listen mit vertrauenswürdigen Zertifikaten. Falls ein Zertifikat von einer Certification Authority ausgestellt wurde, wird es vom Webbrowser bzw. Betriebssystem als echt betrachtet. Das Format und der Inhalt von digitalen Zertifikaten werden im Rahmen der ITU-Empfehlung X.509 V geregelt.

Einsatzgebiete

In der IT werden Zertifikate in einer Vielzahl unterschiedlicher Bereiche eingesetzt. Sie kommen vorwiegend dort zum Einsatz, wo die Identität eines Kommunikationspartners oder einer Informationsquelle unmissverständlich bestätigt werden muss. Häufige Anwendungsfälle sind:

–       Signieren und verschlüsseln von E-Mails.

–       Verschlüsseln von Verbindungen zwischen einem Browser und Webserver per SSL (Secure Sockets Layer). Solche Zertifikate werden als SSL-Zertifikate bezeichnet.

–       Realisierung von VPN-Verbindungen (Virtual Private Network)

–       Signieren von Software-Produkten und Updates.

 

Welche Informationen stehen zur Verfügung?

Im Rahmen des X.509-Standards wird genau festgelegt, welche Inhalte in welcher Form in einem Zertifikat vorkommen müssen. Während einige Informationen obligatorisch sind, sind andere wiederum optional, um E-Mails nach dem S/MIME-Standard zu unterschreiben und zu verschlüsseln oder den Datenverkehr mit dem HTTPS-Protokoll zu verschlüsseln. Informationen, die bei einem X.509-Zertifikat wichtig sind, finden Sie im Folgenden:

–       die Seriennummer

–       der Name des Ausstellers

–       der Name des Inhabers

–       die Versionsnummer

–       die Gültigkeitsdauer

–       relevante Informationen zum öffentlichen Schlüssel des Zertifikatsinhabers

–       Informationen zum Einsatzzweck

–       die digitale Signatur der zuständigen Zertifizierungsstelle

Welche Rolle hat eine Zertifizierungsstelle?

Zertifizierungsstellen spielen im Rahmen der Public Key-Infrastruktur eine äußerst bedeutende Rolle. Eine Certification Authority prüft die Angaben und die Identität eines Antragstellers für ein digitales Zertifikat und stellt es bei erfolgreicher Überprüfung aus. Des Weiteren sorgen sie für die Veröffentlichung der Zertifikate, indem sie die ausgestellten Zertifikate in einem öffentlich zugängigen Verzeichnis ablegen. Weitere Aufgaben der Zertifizierungsstellen sind das Veröffentlichen und Verwalten von Zertifikatssperrlisten und die Protokollierung sämtlicher Zertifizierungsaktivitäten.

Blick in die Details

Die Abkürzung SSL steht für „Secure Sockets Layer“ und bezeichnet ein Verschlüsselungsverfahren, das bei der Client-Server-Kommunikation eingesetzt wird. Im Rahmen von SSL werden Daten verschlüsselt, die zwischen einem Browser und Webserver ausgetauscht werden. Alle Informationen und Vorgaben, wie eine solche Verschlüsselung realisiert werden soll, sind in einem entsprechenden SSL-Zertifikat enthalten. Konkret bedeutet das, dass ein SSL-Zertifikat wie ein Vertrag zwischen einem Webbrowser und Server fungiert, in dem sämtliche Konditionen definiert sind. Die wichtigsten Aufgaben eines SSL-Zertifikats sind:

–       Die Authentifikation eines Kommunikationspartners. Bei diesem Verfahren werden asymmetrische Verschlüsselungsverfahren eingesetzt.

–       Die sichere Übertragung von Daten durch den Einsatz symmetrischer Algorithmen. Hierbei wird der gesamte Datenverkehr zwischen zwei Kommunikationspartnern verschlüsselt.

–       Die Sicherstellung, dass die transportierten Daten vollständig und unverändert sind.

Bei einem SSL-Zertifikat handelt es sich also um einen digitalen Datensatz, der bestimmte Eigenschaften von Organisationen, Personen oder Objekten validiert und dessen Echtheit und Integrität durch kryptografische Prozesse überprüft und sichergestellt werden. Ein SSL-Zertifikat ist mit allen nötigen Informationen versehen, die für eine solche Validierung benötigt werden.

S/MIME-Zertifikate im Überblick

Die Abkürzung S/MIME steht für „Secure/Multipurpose Internet Mail Extensions“ und stellt einen kryptografischen Standard für die sichere Verschlüsselung und Signatur von E-Mails dar. S/MIME wurde von dem US-amerikanischen Software-Unternehmen RSA Security entwickelt und basiert auf der Public Key Infrastructure bzw. einer asymmetrischen Verschlüsselung. Es bietet E-Mail-Sicherheit durch sichere Verschlüsselung, Verifizierung und Integrität. Konkret bedeutet das, dass Sie Ihre E-Mails digital signieren können, sodass Ihr Kommunikationspartner verifizieren kann, dass die E-Mail auch tatsächlich von Ihnen stammt und keinen Manipulationen ausgesetzt wurde. Während die E-Mail durch das World Wide Web unterwegs ist, wird ihre Integrität durch die starke Verschlüsselung gewährleistet. Dadurch wird verhindert, dass Unbefugte die E-Mail abfangen und manipulieren können.

Installation

Auf diese Weise geht S/MIME deutlich über den Sicherheitsaspekt hinaus, den traditionelle E-Mail-Server bieten. Die Installation eines S/MIME-Zertifikats auf einem E-Mail-Server ist empfehlenswert, da sich damit viele Cyberangriffe effektiv verhindern lassen. Bei S/MIME-Zertifikaten kommen zwei unterschiedliche Schlüssel zum Einsatz, und zwar ein öffentlicher und ein privater Schlüssel. Dabei kann ein privater Schlüssel nur einen öffentlichen Schlüssel haben und umgekehrt. Im Rahmen von S/MIME versendet der Absender eine E-Mail und verschlüsselt diese über den öffentlichen Schlüssel des Empfängers. Der Empfänger entschlüsselt die E-Mail mit seinem privaten Schlüssel, zu den nur er Zugang hat. Somit gibt es also keine Möglichkeit für Dritte, den Inhalt der E-Mail zu lesen oder zu manipulieren.

VOIP Phishing ist nicht neu. Seit dem IP-Telefonie möglich ist, versuchen Betrüger die digitale Technik für ihre Zwecke auszunutzen. Die damit einhergehenden Gefahren werden jedoch immer noch unterschätzt. Da Phishing Mails nur noch selten zum Erfolg führen, nutzen Betrüger Voice-over-IP Phishing im zunehmenden Maße. Was VOIP Phishing ist, wie es funktioniert und wie Sie sich davor schützen können, erfahren Sie im folgenden Beitrag.

Sicherheitsrisiko IP-Telefonie

VOIP Phishing, auch als Vishing bezeichnet, ist eine kriminelle Form des Social Engineering. Dabei nutzen Angreifer die menschliche Interaktion, um an vertrauliche Informationen wie beispielsweise Kontodaten, Kreditkartennummern oder Zugangsdaten zu einem Computersystem zu gelangen. Die Angreifer versuchen, den Eindruck zu erwecken als würde der Anruf von der Bank, dem Kreditkartenunternehmen oder einer Behörde erfolgen. Ziel des Angreifers ist es, die vertraulichen Informationen für kriminelle Machenschaften beispielsweise den Zugriff auf ein Bankkonto, zu verwenden. Im Jahr 2015 wurde laut einer Studie der BBC durch VOIP Phishing Kreditkartenbetrug ein Schaden in Höhe von rund 1 Milliarde US-Dollar verursacht.

Wie funktioniert VOIP Phishing?

VOIP Phishing funktioniert im Prinzip wie das Phishing per E-Mail. Beim Vishing erhalten die potenziellen Opfern eine Nachricht über ihr IP Telefon. Diese Nachrichten werden nicht selten von Sprachassistenten generiert oder die menschliche Stimme wird digital verändert. Die Nachrichten erhalten meist einen Hinweis darauf, dass eine verdächtige Aktivität auf einem Kreditkartenkonto, Bankkonto oder PayPal Account festgestellt wurde. Die Opfer werden vom Angreifer aufgefordert, direkt bestimmte Informationen abzugeben, oder eine in der Nachricht genannte Telefonnummer anzurufen und bestimmte Angaben zu machen. Diese Information werden angeblich benötigt, um „die Identität des Kontoinhabers zu überprüfen“ oder „sicherzustellen, dass kein Betrug stattfindet“.

Wie das Session Initiation Protocol (SIP) VOIP Phishing ermöglicht

Beim VOIP Phishing spielt Hackern das Session Initiation Protocol, abgekürzt SIP, in die Hände. Durch dieses weltweite Standardprotokoll für den Verbindungsaufbau bei der IP Telefonie sind Telefonnummern unabhängig vom Telefonanschluss. Das heißt, egal ob sich der Telefonanschluss in Singapur, Australien oder Mexiko befindet, kann der Anrufer eine deutsche Telefonnummer einrichten und verwenden. Dazu muss nur eine kostenlose Open Source VOIP Plattform wie beispielsweise Asterisk herunterladen, auf einem PC installieren und das System mit dem Internet verbinden. Die SIP Endpunkte können bei diesen Plattformen ohne besondere Programmierkenntnisse einfach konfiguriert und so die Anrufer-ID gefälscht werden. Diese Endpunkte werden von den meisten Systemen als Anrufer-ID weitergegeben. Das heißt, die Empfänger sehen beispielsweise eine deutsche Telefonnummer, obwohl der Anruf aus Singapur erfolgt.

VOIP Phishing – leichtes Spiel für Angreifer

VOIP Phishing hat für Hacker verschiedene Vorteile. Ein Vorteil sind die geringen Kosten für den Angreifer. Die benötigte Hardware wie IP-Telefone und Router sind mittlerweile sehr preiswert und überall erhältlich. Die benötigte Software kann bei verschiedenen Anbietern kostenlos heruntergeladen werden. Die Geräte können ohne große IT-Kenntnisse an einen PC angeschlossen werden, um eine Telefonanlage für die IP Telefonie und das VOIP Phishing einzurichten.

Die gefälschte Anrufer-ID nutzen Betrüger, um die Mitarbeiter eines Unternehmens zu kontaktieren und sensible Informationen wie Kreditkartennummer, Kontonummern oder geheime Information zu neuen Produktentwicklungen zu erfragen. Diese Informationen werden dann innerhalb kurze Zeit von den Angreifen selbst verwendet oder an andere, meist gegen Bezahlung, weitergegeben. Wenn ein Angreifer nicht genügend Informationen von einer Quelle sammeln kann, wird er oft versuchen, eine andere Person zu kontaktieren. Bei diesen Anrufen werden dann die Informationen, die der Angreifer von der ersten Person erhalten hat verwendet, um seine Geschichte und Glaubwürdigkeit zu untermauern.

Mit PC und Telefonanlage ist es Angreifern möglich, viele IP-Telefonate gleichzeitig zu führen, die Gespräche aufzuzeichnen und zu einem späteren Zeitpunkt auszuwerten. Zudem ist es kaum möglich, eine gefälschte Anrufer-ID aufzuspüren und den Angreifer zu ermitteln. Wenn die für das VOIP Phishing gefälschte Nummer vom Angreifer gelöscht wird, ist sie nicht mehr nachverfolgbar. Es gibt jedoch ein paar einfache Maßnahmen, mit denen Sie sich vor VOIP Phishing schützen können.

Maßnahmen zum Schutz

VOIP Phishing ist nicht immer leicht zu erkennen. Eine der wichtigsten Maßnahmen zum Schutz vor Phishing über das Telefon ist die Information und Aufklärung der Mitarbeiter über die möglichen Schäden, die durch verursacht werden. Grundsätzlich sollten Mitarbeiter dazu verpflichtet werden, keine vertraulichen Daten am Telefon preiszugeben. Ein Problem ist, dass die Angreifer oft über persönliche Informationen über das Opfer verfügen, die sie beispielsweise in den sozialen Medien finden.

Auffälligstes Merkmal von Phishinganrufen ist jedoch die vermeintlich hohe Dringlichkeit, mit der Anrufer versuchen, Druck auszuüben. Die vermeintliche Dringlichkeit soll das Opfer zur unüberlegten Preisgabe der geforderten Informationen verleiten. Trotz des Stresses, den solche Anrufe auslösen können, sollten die vom Anrufer gemachten Angaben durch einen Rückruf bei dem vom Anrufer genannten Institut überprüft werden. Beispielsweise steht auf der Rückseite von Kreditkarten eine offizielle Servicenummer des Kreditkartenunternehmens. In den meisten Fällen hat sich der VOIP Phishing Versuch dann bereits erledigt.

Als Business Continuity Management (BCM), auf Deutsch Kontinuitätsmanagement, bezeichnet man die Entwicklung von Strategien, Plänen, Handlungen, Tätigkeiten und Prozessen für einen Krisenfall. Diese Strategien beziehen sich auf solche Prozesse, deren Unterbrechung der Organisation ernsthafte Schäden oder gravierende (mitunter vernichtende) Verluste zufügen würde. Beispielsweise beschäftigt sich BCM mit Katastrophen wie Feuer, Überflutung, Einbruch, Vandalismus, Hackerangriffen und Personalausfall.

Ereignisse mit hohem Schadenspotenzial

Somit befasst sich Business Continuity Management mit Ereignissen, deren Eintrittswahrscheinlichkeit gering ist, die aber einen hohen Schaden verursachen würden, falls sie eintreten. Das Ausmaß der Schäden für das Unternehmen in einem solchen Fall wird demzufolge durch Business Continuity Management minimiert.

Zielsetzung der BCM-Maßnahmen

Ziel der BCM-Maßnahmen ist es, alle kritischen Geschäftsprozesse abzusichern. Damit wird die Produktivität erhalten, die Wettbewerbsfähigkeit des Unternehmens und damit der Fortbestand gesichert. Dabei können auch alternative Abläufe definiert werden, die im Krisenfall greifen sollen.

BCM-Maßnahmen zur Sicherung des IT-Betriebs

Ursprünglich aus der Betriebswirtschaftslehre stammend, wurde das Business Continuity Management im Laufe der Zeit auf die IT-Technologie ausgeweitet. Denn viele IT-Anwendungen zählen zu den kritischen Geschäftsaktivitäten. So können plötzliche Ausfälle von Rechnern, Stromausfälle, sonstige technische Störungen, Bedienungsfehler oder Attacken auf Computersysteme zu gravierenden Betriebsstörungen führen. Die Strategien, Pläne und Maßnahmen im Rahmen des Business Continuity Management sollen dazu beitragen, den Betrieb der IT-Infrastruktur im Krisenfall möglichst aufrechtzuerhalten oder problemlos zum Wiederanlauf zu bringen.

Ganzheitliches Konzept

Business Continuity Management ist damit ein ganzheitliches Konzept, das sich auf Prozesse, auf Organisation, IT und Personal bezieht. Die Maßnahmen können proaktiv, reaktiv oder strategisch angelegt sein. Das BCM überschneidet sich mit dem Risikomanagement. Ein wirksames Business Continuity Management System muss kontinuierlich an die Unternehmensstrategie angepasst werden.

Geschäftskritische Prozesse identifizieren

Zu den Schritten des Business Continuity Management gehören die Identifizierung der geschäftskritischen Prozesse und das Aufstellen von Notfallplänen. Für den Krisenfall sind Verantwortlichkeiten festzulegen, damit ein effizientes und abgestimmtes Handeln in der Krise möglich ist. Im Rahmen von Notfallübungen und Testläufen kann überprüft werden, ob die BCM-Maßnahmen wirksam sind und an welchen Stellen nachgebessert werden muss.

IT-Notfallplan

Im Rahmen des Business Continuity Management sind Maßnahmen zu beschreiben, die den IT-Betrieb in einem Krisenfall aufrecht erhalten oder den schnellen Wiederanlauf nach einem Ausfall sicherstellen sollen. Bei einem Datenverlust ist es oft nicht einfach, die Daten ad hoc wiederherzustellen. Daher gehört zum BCM ein IT-Notfallplan. Dies ist ein Handbuch, in dem Notfallmaßnahmen und Handlungsanweisungen festgehalten sind. Bei einem Störfall kann das Unternehmen mit Hilfe dieses Notfallplans schnell reagieren. Zu den typischen Inhalten gehören Anweisungen, Zuständigkeiten, Kommunikationsregeln und Aktionen zur schnellen Beschaffung von Ersatzteilen. Zur besseren Übersicht sind diese Inhalte oft in Form von Checklisten und Skizzen dargestellt.

Ransomware

Im Jahr 2017 hat sich die Ransomware WannaCry (WanaDecrypt0r 2.0) weltweit auf Computern und Servern verbreitet. Dies ist ein Krypto-Trojaner, der auf den infizierten Rechnern Daten (Dateien, Bilder, Programme) so verschlüsselt, dass diese unbrauchbar werden. Der Anwender wird genötigt, ein Lösegeld zu zahlen, um den Code für die Entschlüsselung zu erhalten. Es wird gedroht, dass anderenfalls die Daten gelöscht werden. Wie bereits bei vorherigen Ransomware-Attacken wurden die Nutzer aufgefordert, in der Währung Bitcoin zu zahlen.

Virenscanner

Schadsoftware sowie Angriffe von Hackern sind nicht leicht zu erkennen. Sie gefährden die Funktionsfähigkeit des Computers und den Schutz sensibler Daten. Daher werden Virenscanner als manuelle Scanner, als Echtzeitscanner oder Onlineprogramme eingesetzt. Damit können Trojaner und Viren wirksam aufgespürt werden. Diese ungebetenen Gäste werden dann unschädlich gemacht, indem sie in das Quarantäne-Verzeichnis verschoben oder gelöscht werden. Ein Antivirus-Programm bewirkt, dass Hacker ausgesperrt werden. Mittlerweile arbeiten Virenscanner mit hoher Geschwindigkeite und können den Rechner kontinuierlich schützen.

Business Continuity Management während der Corona-Krise

Durch die Corona-Krise erfahren wir im Moment, dass es zum BCM auch gehören kann, die Geschäftsräume von heute auf morgen zu schließen und die Mitarbeiter ins Home-Office zu schicken. Auf eine solche Situation muss ein Unternehmen sowohl technisch als auch organisatorisch vorbereitet sein.

Anforderungen im Home Office

Mitarbeiter im Home Office sollten über eine Internetanbindung mit mindestens 2 Mbit/s Bandbreite verfügen (bei größeren Datenmengen 6 Mbit/s). Die Beschäftigten sollten die Möglichkeit haben, sich in die zentrale Telefonanlage des Unternehmens einzuwählen. Auf dem Rechner muss eine Antiviren-Software installiert sein, damit dieser vor Viren und Trojanern geschützt ist. Business Continuity Management darf das Home Office nicht aussparen. Die Anforderungen an den Datenschutz und an die Datensicherheit müssen auch dort erfüllt werden. Papierdokumente und Sticks mit sensiblen Daten sind daher so aufzubewahren, dass sie vor dem Zugriff durch Dritte geschützt sind. Idealerweise ist das Home Office ein abschließbarer Raum. Der Rechner muss in jedem Fall durch ein Passwort abgesichert sein.