Beiträge

Bring Your Own Device (BYOD) ist ein Trend aus den USA, der vor allem in der Arbeitswelt eine Rolle spielt. Vor- und Nachteile für alle Beteiligten werden seit einigen Jahren intensiv diskutiert. Seit Inkrafttreten der Datenschutzgrundverordnung (DSGVO) kommt hierbei dem Datenschutz eine besondere Bedeutung zu. Die Voraussetzungen für den technisch und rechtlich sicheren Einsatz privater Geräte stellen zunehmend eine Herausforderung dar.

BYOD – Definition und Varianten

Die privaten mobilen Endgeräte oder auch Speichermedien mit- oder einbringen heißt konkret, auf interne Netzwerke von Firmen oder Bildungseinrichtungen und Bibliotheken zuzugreifen. Für Arbeitnehmer ist eine solche Vereinbarung grundsätzlich freiwillig. Dieses Konzept ist ursprünglich als Instrument bekannt, um die Produktivität von Arbeitnehmer zu steigern und dabei gleichzeitig die Kosten auf Arbeitgeberseite zu senken. Hinzu kommt die positive Auswirkung auf den ökologischen Fingerabdruck.

Mit wachsender praktischer Erfahrung hat sich die Auffassung durchgesetzt, dass Kosten und Nutzen sich in etwa die Waage halten. Der Anteil von Smartphones und Tablets steigt stetig an. Die Varianten, wie BYOD in unterschiedlichen Unternehmen gelebt wird, sind vielfältig. Hier einige Beispiele:

– Private Endgeräte werden unabhängig von der Unternehmens-IT betrieben.

– Endgeräte werden von der Unternehmens-IT unterstützt und gewartet.

– Softwarelizenzen des Unternehmens werden dienstlich und privat genutzt.

-Mitarbeiter beteiligen sich an den Kosten für Hard- und Software.

-Ausschließlich separates Gäste-WLAN, das ebenso von Besuchern genutzt wird.

BYOD: Vorteile für Arbeitgeber

In manchen Branchen wie beispielsweise dem Customer Service (Callcenter), entfallen die Kosten für einen kompletten Bildschirmarbeitsplatz. In diesem Bereich kommen auch private Desktop-PCs zum Einsatz. Zumindest jedoch werden mittels BYOD die regelmäßigen Anschaffungskosten für adäquate Hardware reduziert. Teilweise ergibt sich zusätzlich ein Einsparpotenzial im Bereich der Softwarelizenzen.

Mobiles Arbeiten ist ein entscheidender Faktor für die Attraktivität des Arbeitsplatzes und trägt zur Mitarbeiterzufriedenheit bei. Dies wiederum wirkt sich positiv aus auf die Produktivität.

BYOD: Vorteile für Beschäftigte

Egal ob Smartphone oder Notebook, das vertraute Arbeitsgerät stellt einen Wohlfühlfaktor dar. Mobiles Arbeiten verbessert die Vereinbarkeit von Beruf und Familie und ist gerade auch für Pendler attraktiv. Dienstreisende benötigen nur noch jeweils ein Smartphone, Tablet oder Notebook.

BYOD: Nachteile für Arbeitgeber

Die Kosten für die Erarbeitung eines BYOD-Konzeptes sind nicht zu unterschätzen. Die Umsetzung der Datenschutzgrundverordnung allein erfordert einen erheblichen administrativen und technischen Aufwand. Hinzu kommen höhere Wartungskosten. Private Endgeräte stellen immer ein potenzielles Sicherheitsrisiko dar. Ein Angriff auf die IT-Infrastruktur kann existenzbedrohend sein.

BYOD: Nachteile für Beschäftigte

Je nach Unternehmenskonzept erhält der Arbeitgeber Kontroll- und Zugriffsrechte. Durch die uneingeschränkte Erreichbarkeit verschwimmen die Grenzen zwischen Arbeit und Freizeit. Dies führt dazu, dass Arbeitszeiten nicht erfasst und folglich nicht vergütet werden.

 

Rahmenbedingungen für BYOD

Die rechtlichen Grundvoraussetzungen aber auch die Risiken für beide Seiten erfordern ein Regelwerk, dass die Interessen aller Beteiligten berücksichtigt – ein BYOD-Konzept. Dieses sollte folgende Aspekte behandeln:

Betriebssystem, Firewall und Virenscanner

– Zugriffshürden und Zugriffsbeschränkungen

– Verwendung von Blickschutzfiltern in der Öffentlichkeit

– Trennung von dienstlichen und privaten E-Mail-Konten

Speicherung von Firmendaten auf dem privaten Endgerät

– Zeitliche Zugriffsbeschränkung

Risiken minimieren bei BYOD

Wie umfassend Ihr BYOD-Konzept auch sein mag, ein Restrisiko in Bezug auf die Datensicherheit bleibt immer. Um Ihre sensiblen Firmendaten und alle personenbezogenen Daten bestmöglich zu schützen, gibt es eine Reihe von Möglichkeiten.

Technische Zugriffshürden

Ein sogenannter VPN-Tunnel ermöglicht eine verschlüsselte Verbindung zwischen dem Endgerät und dem Unternehmensserver. Ein Virtual Private Network (VPN) nutzt das Internet als Datenleitung. Mithilfe des VPN-Client auf dem Endgerät und einer zweiten Authentifizierungsmethode wird ein Zugriff Dritter auf Ihre Unternehmensdaten deutlich erschwert. Zusätzlich haben Sie die Möglichkeit, den Zugang auf „Remote-Access“ zu beschränken. Das heißt, Dokumente oder Datensätze können gelesen und bearbeitet aber nicht gespeichert werden.

Verschlüsselte „Container“ bei BYOD

Bei dieser Methode wird der lokale Festplattenspeicher des privaten Endgeräts in zwei Bereiche (Partitionen) geteilt. Somit entstehen aus technischer Sicht zwei separate Festplatten, von denen eine verschlüsselt ist. Verbindungen zum Unternehmensnetzwerk werden ausschließlich über den Container hergestellt.

Mobile Device Management (MDM)

Das Mobile Device Management wird mithilfe einer speziellen Software durchgeführt. Über dieses Tool gelingt es Ihrer Unternehmens-IT, die privaten Endgeräte in die IT-Infrastruktur zu integrieren und zu verwalten. Des Weiteren ermöglicht ein professionelles MDM:

– die Verwaltung von Daten

– das Installieren von Updates

– die Sperrung unsicherer Verbindungen (WLAN)

– die Sperrung unbekannter Apps

Sandboxing

Mithilfe einer Sandbox arbeiten Sie in einer abgeschirmten virtuellen Umgebung. Hierbei werden keine Daten auf dem privaten Gerät gespeichert. Eine Sandbox wird auch als Testumgebung für Software in der Entwicklung eingesetzt.

Wenn Sie sich für diese Lösung entscheiden, ist es unabdingbar, den ganzen Weg zu gehen. Auch der gelegentliche Einsatz privater Endgeräte bedarf technischer Grundvoraussetzungen und klarer Vereinbarungen. Eine einzige E-Mail kann eine signifikante Bedrohung für den Datenschutz und die IT-Sicherheit in Ihrem Unternehmen bedeuten.

Für die Skeptiker bietet „Choose Your Own Device“ (CYOD) eine Alternative. Mit „Own Device“ ist hier jedoch Unternehmens-Equipment gemeint.

Kein Unternehmen arbeitet heute in der Regel ohne die Unterstützung einer möglichst maßgeschneiderten IT-Infrastruktur. Doch was ist das eigentlich genau? Was gehört zu diesem Begriff und was sollte rund um die passende IT-Infrastruktur eines Unternehmens unbedingt beachtet werden? Das Wichtigste dazu bietet Ihnen dieser kompakte Überblick.

Die zwei Hauptkomponenten der IT-Infrastruktur

Das wesentliche Unterscheidungskriterium der an einer IT-Anlage eines Unternehmens beteiligten Elemente ist die Einteilung in Hardware und Software. Hardware sind alle Geräte, die die physische Ausstattung der IT betreffen. Das sind zum einen physische Server und die Rechner des Unternehmens, aber auch alle Ein- und Ausgabegeräte wie Tastatur, Maus, Monitor und Drucker. Auch die mobilen Endgeräte eines Unternehmens, beispielsweise Smartphones, Tablets und Netbook, zählen zur IT-Infrastruktur. Dies alles kann nur funktionieren, wenn eine Software installiert ist. Sie ist das zweite wichtige Element in der betrieblichen IT. Softwareprodukte sind zum Beispiel das Betriebssystem der Rechner und die bedarfsgerechten Anwendungen für die Anforderungen der Nutzer. Auch CRM- und ERP-Programme sowie Antivirenschutz zählen zum Softwarebereich der IT-Infrastruktur.

Das Netzwerk Ihres Unternehmens

Wenn eine gute funktionierende IT-Infrastruktur mit hoher Professionalität und passgenauem Praxisbezug geschätzt wird, ist immer wichtig, dass Hard- und Softwareprodukte bedarfsgerecht ausgewählt, installiert und konfiguriert werden. Das Zusammenspiel der einzelnen Bestandteile im Rahmen eines soliden und geschützten Netzwerks spielt für das Unternehmen und seine Anforderungen eine wichtige Rolle.

Zwei Beispiele dieser Zusammenarbeit im Netzwerk sollen der Veranschaulichung dienen. Ein Beispiel ist das CRM, das Customer Relationship Management. Bei diesen Programmen werden alle Kundenkontakte nicht nur lückenlos dokumentiert, sondern unternehmensintern auch all denjenigen verfügbar gemacht, die diese benötigen. So ist es insbesondere möglich, eine Kundenanfrage auch dann professionell und präzise zu betreuen, wenn der zuständige Sachbearbeiter im Urlaub sein sollte. Ein zweites Beispiel ist das Bestandsmanagement in einem Betrieb. So kann mittels eines gut ausgebauten Netzwerks ein Außendienstmitarbeiter mit dem Smartphone die Auskunft aus der IT erhalten, ob ein bestimmter Artikel, für den sich der Kunde interessiert, auf Lager ist.

Zentraler Datenabruf und Datenspeicherung

Bei einer modernen IT-Infrastruktur ist der zentrale Datenzugriff oft besonders wichtig. Die obigen Beispiele demonstrieren das. Die Daten, die in einem Unternehmen gespeichert, aufbewahrt, geändert und verarbeitet werden, haben hohe Volumina. Das bedeutet, dass die Speicherkapazitäten klassischer Server oft überlastet sind. Denn alle Unternehmensprozesse von der Angebotserstellung über die Produktionsabwicklung bis zu Werbung und Verkauf werden heute IT-basiert abgewickelt. Es ist häufig sinnvoll, die internen Rechnerkapazitäten durch ein effizientes Outsourcing zu entlasten. So ist es möglich, physische und virtuelle Server zu mieten, Switches zu integrieren oder die modernen Cloudlösungen dazu zu nutzen, die eigene IT-Infrastruktur optimal zu ergänzen. All diese Möglichkeiten schonen nicht nur die eigenen Kapazitäten des Unternehmens. Sie können auch einen zentralen und bedarfsgerechten Datenzugriff ermöglichen.

Sicherheit ist das A und O bei der IT-Infrastruktur

Eine IT-Infrastruktur ist eine moderne Errungenschaft, die für Ihr Unternehmen mit einer ganzen Reihe von überzeugenden Vorteilen verknüpft ist. Doch gibt es dadurch natürlich auch ein Datenrisiko. Zum einen kann ein Datenverlust durch einen Software- oder Hardwarefehler verursacht sein. Typisch sind die geschrottete Festplatte oder der Blitzeinschlag, der die Serverdaten löscht. Auch ein Virus kann die Daten des Unternehmens löschen. Zum anderen sind es aber auch die Hackerangriffe, die beispielsweise Kundendaten oder Konkurrenzdaten sammeln. Deshalb gehört zu jeder modernen IT-Infrastruktur auch ein professioneller Schutz. Dieser wird durch die Firewall von Rechnern und Servern, aber auch spezielle Antivirenprogramme umgesetzt.

Einen kompetenten IT-Dienstleister beauftragen

Wenn ein Unternehmen keine Professionalität in Sachen IT-Infrastruktur in den eigenen Reihen besitzt, ist es wichtig, sich diese heute unverzichtbare Unterstützung durch Experten von außen zu holen. Ein IT-Dienstleister hat die Expertise, die IT-Infrastruktur eines Unternehmens bedarfsgerecht zu erstellen, zu konfigurieren und bezüglich individueller und sich oft ändernder Anforderungsprofile kompetent zu skalieren. Im Rahmen einer öffentliche IT-Infrastruktur wird die Hard- und Software beim gewählten Anbieter beauftragt, gewartet und auch repariert.

Ein wichtiger Vorteil, den ein solches Arrangement hat: Diese IT-Infrastruktur wird durch den IT-Dienstleister konsequent mit spezieller Softwareprodukten überwacht. Dieses Monitoring ist wertvoll, weil es reibungslos funktionierende Betriebsabläufe und die Sicherheit der IT-Infrastruktur nachhaltig umsetzen kann. Für ein Unternehmen bedeutet das, dass es sich ganz auf seine Kernkompetenzen konzentrieren kann.

Insbesondere bei der Datensicherheit werden IT-Dienstleister immer mehr geschätzt. Seit dem Inkrafttreten der DSGVO am 25. Mai 2018 ist Datensicherung ein wichtiges Thema. Die Nichtbeachtung der komplexen Regelungen der Europäischen Union sind unangenehm. Da viele Datenschutzlecks und Sicherheitslücken in der IT-Infrastruktur der Unternehmen vorhanden sind, ist es die Tendenz, für die Sicherheit die IT-Experten zu beauftragen. Oft ist dies mit Cloud-Lösungen verbunden, die bei Datencrash durch Backups die Daten in aller Regel wiederherstellen können.

 

 

Monitoring mit PRTG ermöglicht Ihnen, über Ihr Netzwerk optimal informiert zu sein und rechtzeitig die notwendigen Maßnahmen treffen zu können. Alle relevanten Parameter werden in Echtzeit erhoben und grafisch dargestellt. Mit diesem Werkzeug erkennen Sie Probleme, bevor sie für Ihr Netzwerk kritisch werden.

Das Produkt PRTG und seine Herstellerfirma

Das IT Monitoring Werkzeug PRTG wird von der Firma Paessler AG in Nürnberg hergestellt und steht in 9 Sprachen zur Verfügung. Der Support der Firma stellt den Anspruch, eine Anfrage an Werktagen innerhalb von 24 Stunden zu bearbeiten. Auf der Webseite wird eine ausführliche Dokumentation geboten, zu der auch detaillierte Erklärungen grundlegender Begriffe der Netzwerktechnik gehören. Die Hauptkunden für dieses Werkzeug sind kleine und mittlere Unternehmen und Organisationen.

Was kann PRTG?

Der Hauptzweck von PRTG ist die Überwachung eines Netzwerks, das aus Servern, Switches und Routern besteht, zu denen insbesondere auch virtuelle Server und Webserver gehören können. Zu diesem Zweck werden Daten gesammelt, gespeichert und ausgewertet. Bei Problemen wird nach Ihren Bedürfnissen ein Alarm ausgelöst. Zu hohe Hardwareauslastung, zu wenig Speicherplatz oder eine zu geringe Bandbreite des Netzwerks können früh genug erkannt werden. Dafür werden Sensoren für Bandbreite, CPU-Last, Arbeitsspeicher, Massenspeicher und Hardwarezustand eingesetzt. Eine Besonderheit von PRTG ist seine Vollständigkeit. Sie müssen also keine Zusatzprogramme oder Moduln erwerben. Für die Überwachung muss das System nur wenig Belastung für die Prozessoren und Bandbreite in Anspruch nehmen. Bedient wird es vollständig von einem Webinterface aus.

Die technischen Grundlagen von PRTG

Das System baut auf Sensoren auf, worunter in diesem Zusammenhang Software zur Erhebung bestimmter Daten unter Verwendung geeigneter Protokolle zu verstehen ist. Beispiele für diese Daten sind Serverbelastung, Antwortzeiten über eine Netzwerkverbindung, freier Speicherplatz und der Datendurchsatz. Auch die Temperatur der Server in Ihrem Netzwerk wird erhoben, was den Einsatz eigener Werkzeuge dafür überflüssig macht.

 

PRTG baut zu einem wesentlichen Teil auf dem SNMP oder simple network monitoring protocol auf. Dieses läuft auf einem Computer als Verwaltungseinheit und kann Anforderungen an andere verwalteten Geräte richten. Besonders beim Auftreten von Problemen können diese Geräte auch selbständig Nachrichten an die Verwaltungseinheit schicken.

Zusätzlich zu SNMP verwendet PRTG auch Packet Sniffing, wenn eine genauere Analyse des Inhalts von Datenpaketen in Ihrem Netzwerk erforderlich ist.

Verfügbare Funktionen

Treten akute Probleme in Ihrem Netzwerk auf, müssen die Administratoren sofort davon in Kenntnis gesetzt werden. Sie können bei der Konfiguration von PRTG Nachrichten verschiedener Dringlichkeit nach Wunsch behandeln und übermitteln lassen. Weniger dringende Meldungen können zum Beispiel in den Nachtstunden zurückgehalten werden. Versendet werden solche Nachrichten über SMS, E-Mail, Push Nachricht oder auch durch HTTP Datenpakete. Zum Empfang sind Apps für iOS und für Android erhältlich.

Die Ergebnisse der Datenerhebungen werden von PRTG grafisch dargestellt. Die Statusanzeigen können Sie individualisieren und live verfolgen.

Bei der Installation verwendet das System eine Auto-Discovery Funktion. Alle ans Netzwerk angeschlossenen Geräte werden automatisch ins Monitoring aufgenommen. Dann müssen Sie nur noch die gewünschte Feineinstellung vornehmen.

In welcher Form ist PRTG erhältlich?

Das System ist nur für Windows Systeme verfügbar. Benutzerinterfaces funktionieren allerdings auch unter MacOS und unter Linux. Das Überwachungssystem kann auf Ihren eigenen Servern gehostet werden, was also einer Inhouse Lösung entspricht. Verfügbar ist aber auch eine auf den Servern  in der Cloud. Die Lizenz und die Kosten sind abhängig von der Zahl der Sensoren, die Sie für die Überwachung Ihres Netzwerks benötigen. Eine Version mit 100 Sensoren ist gratis verfügbar.

Für erste Schritte mit PRTG steht ein niederschwelliges Angebot zur Verfügung. Für 30 Tage können Sie die Vollversion von PRTG nutzen und sich mit dem System vertraut machen. Ob es Ihren Erwartungen und Anforderungen entspricht, stellt sich in dieser Zeit sicher heraus. Die Lizenz für die notwendige Anzahl von Sensoren müssen Sie erst erwerben, wenn das System bereits erfolgreich auf Ihrem Netzwerk läuft.

Je nach der Größe eines Unternehmens ist es notwendig, für eine bestimmte Anzahl von PCs Betriebssysteme und Software- bzw. Hardware-Produkte automatisiert zu verteilen. OPSI ist ein automatisiertes Software-Verteilungssystem und die Kernfunktionen sind Open Source, unabhängig von der Anzahl an PCs. Hier finden sich die wichtigsten Informationen über die Verteilungssoftware von der Mainzer uib GmbH.

OPSI bedeutet Open PC Server Integration. Es handelt sich um ein auf Linux-Server basierendes Clientmanagement-System für die Verwaltung und Verteilung von Software.

Ursprünglich wurde die Verteilungssoftware unter dem Namen hup-si (Hessisches Umweltamt PC-Server-Integration) für den internen Gebrauch im Hessischen Umweltamt (Hessisches Landesamt für Naturschutz, Umwelt und Geologie) entwickelt. Die ursprüngliche Version war auf die Client-Verwaltung mit Windows NT4“ und „Windows for Workgroups“ ausgerichtet. 1995 erfolgte die Gründung des Umwelt-Informatikbüro, 3 Jahres später wurde es in die uib GmbH ausgegliedert. Die hup-si Freeware wurde zu einer Open Source Software und umbenannt in OPSI.

Was sind die Kernkomponenten?

Was kann die Software eigentlich, für wen wurde sie erstellt? Es handelt sich um ein Software Deployment Tool, dass unabhängig von der Anzahl an angebundenen PCs kostenfrei ist. Die Kernfunktionen sind Open Source, dazu zählen folgende:

-Installation (und Verteilung) von Betriebssystemen und Softwares

-Deinstallation und Updates von Software bzw. Betriebssystemen

-konfigurieren von Endgeräten

-Inventarisierung von Hardware und Software

Den Software-Verteilung und Inventarisierung wird vollautomatisch übernommen. Sie wird vor allem von öffentlichen Verwaltungen genutzt (Schulen, Behörden, etc.).

Was ist ein Software Deployment Tool?

Ein Software Deployment bezeichnet die professionelle Methode, Software-Produkte und Betriebssysteme automatisiert zu verteilen. Durch modere Tools kann dieser Vorgang je nach Unternehmen und Vorhaben sehr passgenau umgesetzt werden. Für den reibungslosen Ablauf und unternehmerische Erfolge ist eine bedarfsgerechter Software-Verteilung essentiell. Abläufe müssen effizient vonstattengehen und die Handhabung von EDV-Lösungen sollte möglichst komfortabel bzw. sicher sein.

Je mehr PCs in einem Unternehmen vorhanden sind, desto dringender wird ein Software Deployment Tool benötigt. Theoretisch kann die Software-Verteilung manuell oder auch automatisiert erfolgen. Ab einer bestimmten PC Anzahl wird die händische Verteilung zum Zeitfresser, da die Softwarelösungen auf jedem einzelnen Gerät verteilt werden müssen. Diese Arbeit kann durch ein leistungsstarkes Tool automatisiert erfolgen.

Welche besonderen Vorteile hat OPSI?

Die Installation und Verteilung von Software innerhalb eines Unternehmens können mit kostenlosen und kostenpflichtigen Tools erfolgen. Eine wesentliche Rolle spielt bei der Auswahl natürlich auch das genutzte Betriebssystem. Für Linux beispielsweise lassen sich Chefe, Puppet und Ansible empfehlen. Wer Windows nutzt, sollte besser auf OPSI, SSCM und PDQ Deploy zugreifen.

Kostenlose Tools sind meistens bei der Anzahl der zu verwaltenden PCs beschränkt. Die optimale Software hängt von der Größe des Unternehmens und der Anzahl der zu nutzenden PCs ab. OPSI ist eine Open Source Software und unabhängig von der Anzahl der PCs kostenlos.

Was sind die Voraussetzungen für OPSI?

Die absolute Grundvoraussetzung ist ein einfacher Linux-Server, da die Software und allen Linux Distributionen funktioniert. Wenn die Software produktiv genutzt werden soll, dann ist viel Speicherplatz einzuplanen (2 CPUs und 3-4 GB RAM).

Die benötigten Größe der Festplatte ist kundenspezifisch, die entscheidenden Parameter sind folgende:

-Anzahl der Endgeräte (MySQL Datenbank)

-die Anzahl der Software-Pakete

Was ist der Unterschied zu SCCM, PDQ-Deploy

Im Gegensatz zu SCCM (Microsoft), PDQ-Deploy und DeskCenter ist OPSI eine Open-Source Software und damit im Kern kostenfrei. SCCM (System Center Configuration Manager) ist ein Software Produkt für die Verwaltung von Soft- und Hardware in einem Unternehmen.

Wie verläuft die Installation bzw. Konfiguration?

Für den Server wird eine statische IP-Adresse benötigt. Der Hostname und die IP müssen im DNS problemlos auflösbar sein. Ein Tutorial für die Durchführung der Installation findet man hier auf Biteno. Dort finden sich auch weitere Ausführungen über die Konfiguration.

OPSI ist als System für die Software-Verteilung in Unternehmen sehr ausgereift. Die Software ist in ihren Kernfunktionen Open Source und das gilt unabhängig von der Anzahl an PCs. Die Anwendung wird in Schulen und Behörden sehr oft verwendet. Für geübte Administratoren mit Grundkenntnissen über Linux sollte es innerhalb von Stunden möglich sein, ein Test-System zu nutzen.

Es hängt vom Unternehmen ab, wie hoch der praktische Nutzen ist. Wer aber auf der Suche nach einen kostenfreien Software Deployment Tool ist, der sollte OPSI allemal testen. Insbesondere bei einem Netzwerk von mehr als 30 PCs lohnt sich ein Test. Es handelt sich um ein sehr praktisches und handliches Tool für die Softwareverteilung.

Bei Microsoft Windows handelt es sich ursprünglich um eine von Microsoft entwickelte Benutzeroberfläche, aus der im Laufe der Jahre eine Reihe eigenständiger Betriebssysteme hervorgegangen ist. Windows-Betriebssysteme kommen in erster Linie auf PCs (Personal Computer) und Servern zum Einsatz. Darüber hinaus existieren auch spezielle Versionen für Embedded Devices wie Kassensysteme, Messgeräte sowie Varianten für Smartgeräte wie Smartphones und Tablets.

Entwicklungsgeschichte

Das US-amerikanische Unternehmen Microsoft entwickelte ursprünglich keine Betriebssysteme, sondern seit Mitte der 1970er-Jahre BASIC-Anwendungen für unterschiedliche Computersysteme. Erst im Jahr 1981 mit dem Marktstart der ersten Version von MS-DOS stieg Microsoft in das Betriebssystemsegment ein. Im Rahmen von MS-DOS wurde das System ausschließlich mit Kommandobefehlen bedient. Die Befehlssyntax war relativ kompliziert und erforderte eine Einarbeitung, sodass ein intuitives Arbeiten dadurch nicht möglich war. Zu den Computern, die bereits damals mit einem Betriebssystem mit grafischer Benutzeroberfläche ausgestattet waren, zählten der 1979 erschienene Xerox Alto sowie Lisa und Macintosh von Apple, die einige Jahre später veröffentlicht wurden.

Diese grafischen Systeme wurden von eingefleischten Microsoft-Fans belächelt und als sinnlos bezeichnet. Der Microsoft-Gründer, Bill Gates, erkannte allerdings schon früh das enorme Potenzial grafischer Benutzeroberflächen und startete ein neues Projekt mit der Bezeichnung „Interface Manager“. Die übrigen Microsoft-Gründer unterstützen dieses Projekt, waren jedoch mit dem Namen unzufrieden, sodass das Projekt schließlich in Windows umbenannt wurde. Mit der Entwicklung von Windows hatten die Microsoft-Gründer Paul Allen, Steve Ballmer und Bill Gates die einflussreichste Zusammenarbeit in der Geschichte moderner Softwareentwicklung gestartet.

 

Im Laufe der Jahre wurde das Betriebssystem kontinuierlich weiterentwickelt und durch neue Funktionen und Features ergänzt. Windows hatte immer starke Konkurrenz, die entweder kostenlos erhältlich war oder ein besseres Gesamtpaket bot. Zahlreiche Linux-Distributionen wie beispielsweise

–       Debian

–       Ubuntu

–       CentOS

kamen im Laufe der Jahre auf den Markt, konnten sich jedoch gegen Windows nie richtig durchsetzen und führen heute noch ein Nischendasein. Im Gegensatz zu Linux, wo das eigentliche Betriebssystem vom graphischen Fenster-Manager getrennt ist, bekommt man von Microsoft das eigentliche Betriebssystem sowie den Fenster-Manager (also die graphische Oberfläche) im Bundle. Kein anderes Betriebssystem konnte eine so große Bekanntheit wie Windows erlangen und ist so vielen Nutzern weltweit bekannt oder besitzt einen derart starken Marktanteil. Microsoft hat sich diese Position als Branchenprimus durch kontinuierliche Veröffentlichungen neuer Versionen gesichert, die die Vorteile moderner Hardware und Technik voll unterstützen und ausnutzen.

Die bedeutendsten Windows-Versionen im Überblick

Windows 1.0

Die erste Windowsversion wurde 1983 in einer Testversion der breiten Öffentlichkeit präsentiert und zwei Jahre später 1985 veröffentlicht. Bei Windows 1.0 handelte es sich grundsätzlich um ein Programm, das auf MS-DOS lief. Das Release war für Microsoft ein Start mit erheblichen Hindernissen, da das Betriebssystem äußerst instabil lief. Durch das innovative „Point-An-Click-Konzept“ war Win 1.0 jedoch auch für Einsteiger leicht nutzbar. Das benutzerfreundliche Konzept des Betriebssystems ermutigte auch neue Anwender, die von der Steuerung per Befehlszeile eventuell überfordert waren, einen Personal Computer zu nutzen.

Windows 95

Im Jahr 1995 brachte Microsoft das Betriebssystem Windows 95 auf den Markt, das sich binnen kürzester Zeit zu einem enormen Verkaufserfolg entwickelte und den endgültigen Durchbruch für Microsoft einläutete. Windows 95 brachte einer großen Menge von Menschen weltweit Computer und das Internet näher. Das Betriebssystem machte den oft komplizierten Prozess der Installation neuer Hardware durch „Plug and Play“ wesentlich einfacher. Des Weiteren brachte Win 95 einen breiteren Farbraum, bessere Multimedia-Möglichkeiten und native Unterstützung für TCP/IP-Netzwerke. Die DirectX-Runtime ermöglichte zudem, dass auch grafisch anspruchsvolle Spiele auf Windows ausgeführt werden konnten.

Windows XP

Mit Windows XP brachte Microsoft im Jahr 2001 die erste auf der NT-Architektur basierte Version auf den Markt, die in erster Linie auf die Anforderungen und Bedürfnisse von Endnutzern ausgerichtet war. Windows XP wird von vielen Nutzern und Kritikern als die beste Windowsversion angesehen und wurde damals dementsprechend hoch bewertet. Das Betriebssystem brachte eine verbesserte Optik und bot eine äußerst stabile Plattform. Mit dem Betriebssystem wurde auch das Ende der DOS-Ära endgültig eingeläutet. Die neue DirectX-Version ermöglichte bei 3D-Spielen Effekte, an die OpenGL nicht heranreichte. Windows XP bot zudem Unterstützung für 64-Bit-Prozessoren. Dieses Feature war jedoch nicht gut umgesetzt und wurde erst mit dem Service Pack 2 verbessert. Darüber hinaus kam mit Windows XP erstmals die hauseigene Antivirensoftware „Windows Defender“ zum Einsatz.

Windows 10

Windows kündigte am 30. September 2014 offiziell Windows 10 an. Microsoft läutete mit der 10er-Version ein neues Veröffentlichungs-Modell an, sodass Windows 10 die letzte Windowsversion nach dem traditionellen Versionsmuster sein sollte. Stattdessen sieht man Windows 10 eher als eine „digitale Dienstleistung“. Nutzer von Win 10, die eine gültige Lizenz besitzen, sollten nicht nur Patches bekommen, sondern auch neue Funktionen, die im Rahmen von großen Feature-Updates ausgeliefert werden.

Plattform

Microsoft verfolgt mit dem Windows-Betriebssystem das Konzept, eine möglichst kompatible Plattform für Anwendungen aller Art zu sein. Dies wird über die Win32-API realisiert und deren zahlreichen Erweiterungen. Das Betriebssystem ist seit seiner ersten Version eine sogenannte „offene Plattform“. Konkret bedeutet das, dass jeder Entwickler ohne Einschränkungen Anwendungen für Windows entwickeln und vertreiben kann. Eine explizite Erlaubnis seitens Microsoft ist nicht nötig. Im Laufe der Jahre hat sich Windows zu einer äußerst stabilen Plattform entwickelt und kommt mittlerweile auf ca. 90 Prozent aller Desktop-PCs zum Einsatz. Microsoft ist im Laufe der Jahre auch deshalb zum Branchenprimus geworden, weil die Abwärtskompatibilität der Windowsplattform jahrelang die höchste Priorität bei der Entwicklung neuer Versionen hatte. Eine solche stabile Plattform bietet Anwendungsentwicklern den entscheidenden Vorteil, dass Programme nicht für jede einzelne Windowsversion angepasst werden müssen, sondern Microsoft für die Kompatibilität verantwortlich ist.

Sicherheit von Windows

Der wesentliche Nachteil eines so weit verbreiteten Betriebssystems spiegelt sich in der Tatsache wider, dass bei Windows regelmäßig Sicherheitslücken entdeckt werden, die von Cyberkriminellen ausgenutzt werden, um Angriffe zu starten. Mit Windows 10 sind die Sicherheitsrisiken jedoch, wegen der intensiven Weiterentwicklung interner Sicherheitsmechanismen deutlich zurückgegangen. Obwohl neue Windowsversionen mit einer hauseigenen Antivirensoftware ausgestattet sind, ist es aus Sicherheitsgründen dennoch empfehlenswert, einen leistungsstarken Virenscanner wie ESET zu nutzen.

Cyberkriminelle weichen inzwischen immer öfter auf Sicherheitslücken in Drittprogrammen aus. Das jüngste Beispiel hierfür ist eine schwere Sicherheitsschwachstelle bei der Videokonferenz-Anwendung Zoom. Durch die Ausnutzung dieser Sicherheitslücke können Hacker an das Admin-Passwort der Opfer gelangen. Theoretisch könnten so Hacker auch Malware und andere Schadsoftware auf den Rechnern ihrer Opfer unbemerkt herunterladen und ausführen, was katastrophale Folgen nach sich ziehen würde.

VOIP Phishing ist nicht neu. Seit dem IP-Telefonie möglich ist, versuchen Betrüger die digitale Technik für ihre Zwecke auszunutzen. Die damit einhergehenden Gefahren werden jedoch immer noch unterschätzt. Da Phishing Mails nur noch selten zum Erfolg führen, nutzen Betrüger Voice-over-IP Phishing im zunehmenden Maße. Was VOIP Phishing ist, wie es funktioniert und wie Sie sich davor schützen können, erfahren Sie im folgenden Beitrag.

Sicherheitsrisiko IP-Telefonie

VOIP Phishing, auch als Vishing bezeichnet, ist eine kriminelle Form des Social Engineering. Dabei nutzen Angreifer die menschliche Interaktion, um an vertrauliche Informationen wie beispielsweise Kontodaten, Kreditkartennummern oder Zugangsdaten zu einem Computersystem zu gelangen. Die Angreifer versuchen, den Eindruck zu erwecken als würde der Anruf von der Bank, dem Kreditkartenunternehmen oder einer Behörde erfolgen. Ziel des Angreifers ist es, die vertraulichen Informationen für kriminelle Machenschaften beispielsweise den Zugriff auf ein Bankkonto, zu verwenden. Im Jahr 2015 wurde laut einer Studie der BBC durch VOIP Phishing Kreditkartenbetrug ein Schaden in Höhe von rund 1 Milliarde US-Dollar verursacht.

Wie funktioniert VOIP Phishing?

VOIP Phishing funktioniert im Prinzip wie das Phishing per E-Mail. Beim Vishing erhalten die potenziellen Opfern eine Nachricht über ihr IP Telefon. Diese Nachrichten werden nicht selten von Sprachassistenten generiert oder die menschliche Stimme wird digital verändert. Die Nachrichten erhalten meist einen Hinweis darauf, dass eine verdächtige Aktivität auf einem Kreditkartenkonto, Bankkonto oder PayPal Account festgestellt wurde. Die Opfer werden vom Angreifer aufgefordert, direkt bestimmte Informationen abzugeben, oder eine in der Nachricht genannte Telefonnummer anzurufen und bestimmte Angaben zu machen. Diese Information werden angeblich benötigt, um „die Identität des Kontoinhabers zu überprüfen“ oder „sicherzustellen, dass kein Betrug stattfindet“.

Wie das Session Initiation Protocol (SIP) VOIP Phishing ermöglicht

Beim VOIP Phishing spielt Hackern das Session Initiation Protocol, abgekürzt SIP, in die Hände. Durch dieses weltweite Standardprotokoll für den Verbindungsaufbau bei der IP Telefonie sind Telefonnummern unabhängig vom Telefonanschluss. Das heißt, egal ob sich der Telefonanschluss in Singapur, Australien oder Mexiko befindet, kann der Anrufer eine deutsche Telefonnummer einrichten und verwenden. Dazu muss nur eine kostenlose Open Source VOIP Plattform wie beispielsweise Asterisk herunterladen, auf einem PC installieren und das System mit dem Internet verbinden. Die SIP Endpunkte können bei diesen Plattformen ohne besondere Programmierkenntnisse einfach konfiguriert und so die Anrufer-ID gefälscht werden. Diese Endpunkte werden von den meisten Systemen als Anrufer-ID weitergegeben. Das heißt, die Empfänger sehen beispielsweise eine deutsche Telefonnummer, obwohl der Anruf aus Singapur erfolgt.

VOIP Phishing – leichtes Spiel für Angreifer

VOIP Phishing hat für Hacker verschiedene Vorteile. Ein Vorteil sind die geringen Kosten für den Angreifer. Die benötigte Hardware wie IP-Telefone und Router sind mittlerweile sehr preiswert und überall erhältlich. Die benötigte Software kann bei verschiedenen Anbietern kostenlos heruntergeladen werden. Die Geräte können ohne große IT-Kenntnisse an einen PC angeschlossen werden, um eine Telefonanlage für die IP Telefonie und das VOIP Phishing einzurichten.

Die gefälschte Anrufer-ID nutzen Betrüger, um die Mitarbeiter eines Unternehmens zu kontaktieren und sensible Informationen wie Kreditkartennummer, Kontonummern oder geheime Information zu neuen Produktentwicklungen zu erfragen. Diese Informationen werden dann innerhalb kurze Zeit von den Angreifen selbst verwendet oder an andere, meist gegen Bezahlung, weitergegeben. Wenn ein Angreifer nicht genügend Informationen von einer Quelle sammeln kann, wird er oft versuchen, eine andere Person zu kontaktieren. Bei diesen Anrufen werden dann die Informationen, die der Angreifer von der ersten Person erhalten hat verwendet, um seine Geschichte und Glaubwürdigkeit zu untermauern.

Mit PC und Telefonanlage ist es Angreifern möglich, viele IP-Telefonate gleichzeitig zu führen, die Gespräche aufzuzeichnen und zu einem späteren Zeitpunkt auszuwerten. Zudem ist es kaum möglich, eine gefälschte Anrufer-ID aufzuspüren und den Angreifer zu ermitteln. Wenn die für das VOIP Phishing gefälschte Nummer vom Angreifer gelöscht wird, ist sie nicht mehr nachverfolgbar. Es gibt jedoch ein paar einfache Maßnahmen, mit denen Sie sich vor VOIP Phishing schützen können.

Maßnahmen zum Schutz

VOIP Phishing ist nicht immer leicht zu erkennen. Eine der wichtigsten Maßnahmen zum Schutz vor Phishing über das Telefon ist die Information und Aufklärung der Mitarbeiter über die möglichen Schäden, die durch verursacht werden. Grundsätzlich sollten Mitarbeiter dazu verpflichtet werden, keine vertraulichen Daten am Telefon preiszugeben. Ein Problem ist, dass die Angreifer oft über persönliche Informationen über das Opfer verfügen, die sie beispielsweise in den sozialen Medien finden.

Auffälligstes Merkmal von Phishinganrufen ist jedoch die vermeintlich hohe Dringlichkeit, mit der Anrufer versuchen, Druck auszuüben. Die vermeintliche Dringlichkeit soll das Opfer zur unüberlegten Preisgabe der geforderten Informationen verleiten. Trotz des Stresses, den solche Anrufe auslösen können, sollten die vom Anrufer gemachten Angaben durch einen Rückruf bei dem vom Anrufer genannten Institut überprüft werden. Beispielsweise steht auf der Rückseite von Kreditkarten eine offizielle Servicenummer des Kreditkartenunternehmens. In den meisten Fällen hat sich der VOIP Phishing Versuch dann bereits erledigt.