was ist nginx und warum ist es besser als apache?

Lange Zeit war Apache mit einem Marktanteil von bis zu 70 Prozent der Webserver für das Internet. Einzig Microsoft IIS stellte mit etwa 20 Prozent eine nennenswerte Konkurrenz dar, da es der Standard für das Betriebssystem Windows Server ist. Mit dem Erscheinen von Nginx – ausgesprochen wie das englische Engine Ex – hat sich die Situation geändert. Besonders große Plattformen setzen auf die Open-Source-Software aus Russland, da diese viele Vorteile mit sich bringt.

Webserver, Datenbanken, Programmiersprachen, Protokolle und Interpreter

Eine Webseite ist heute fast immer dynamisch programmiert. Das bedeutet, bei einer Anfrage erstellen mehrere Programme eine individuelle Antwort, statt ein vorgefertigtes, statisches Dokument auszuliefern. Die Informationen – zum Beispiel Texte, Links, Nutzernamen oder Passwörter – liegen in einer Datenbank. Skripte in einer geeigneten Programmiersprache wie PHP, Perl oder Python fragen diese ab und erstellen die Webseite.

Der Interpreter bildet eine Schnittstelle zwischen dem Skript und dem Betriebssystem – er übersetzt die geschriebenen Befehle in Computersprache. Der Webserver ist für die Kommunikation zuständig: Er nimmt Anfragen entgegen und sendet Antworten an die entsprechenden Adressen.

Um die Kommunikation zwischen Server und unterschiedlichen Endgeräten und Betriebssystemen zu ermöglichen, kommen universelle Protokolle als Gemeinsprache zum Einsatz. Für Webseiten ist dies das Hypertext Transfer Protocol (HTTP) beziehungsweise dessen verschlüsselte Variante mit dem Zusatz Secure (HTTPS). Es ist speziell für die Übertragung von Nachrichten konzipiert, für andere Zwecke wie Dateiübertragungen existieren eigene Formate wie das File Transfer Protocol (FTP).

Nginx – ein modularer Webserver mit geringem Ressourcenverbrauch

Effizienz und Geschwindigkeit zeichnen Nginx besonders aus.

Effizienz und Geschwindigkeit zeichnen Nginx besonders aus.

Um eine hohe Performance und Funktionalität zu ermöglichen, verwendet Nginx ein modulares Design. Es besteht aus einem schlanken Kernprogramm, das ein Nutzer je nach individuellen Anforderungen durch Module erweitert. Dadurch unterstützt der Webserver unterschiedliche Techniken und erlaubt die Einbindung neuer Standards etwa für Videostreaming und interaktive Inhalte. Einige der Möglichkeiten sind Lastverteilung über mehrere Server, zusätzliche Protokolle, direkter Zugriff auf den Arbeitsspeicher oder der Einsatz als E-Mail– oder Webserver für Weiterleitung (Proxy).

Eines der populärsten und interessantesten Module ist PHP-FPM. Es handelt sich um einen Prozessmanager, der die Anbindung an den PHP-Interpreter übernimmt. Die Kommunikation zwischen Webserver und Programmiersprache basiert auf einem 1993 definierten Standard – dem Common Gateway Interface (CGI). Traditionell erstellt dieses für jede Aufgabe einen neuen Prozess.

Im Unterschied zu diesem Verfahren erzeugt PHP-FPM bei Betriebsstart mehrere Interpreter im Hintergrund, auf die es je nach Auslastung Anfragen verteilt. In Verbindung mit anderen Optimierungen erreicht das Modul dadurch eine ausgezeichnete Performance.

Unterschiede zwischen Apache und Nginx

Anders als Apache legt Nginx bereits seit seiner ersten Version eine Priorität auf Effizienz und Geschwindigkeit. Apache verwendet ebenfalls ein modulares Design – eines seiner größten Nachteile ist jedoch, dass es jede Verbindung einzeln bearbeitet. Dadurch besitzt es einen sehr hohen Speicherverbrauch und die Effizienz sinkt bei hohen Besucherzahlen kontinuierlich. Aus diesem Grund setzt das Programm auf eine sogenannte „asynchrone Architektur“. Anfragen behandelt es nicht individuell, sondern bündelt sie in wenigen Prozessen, die tausende Verbindungen simultan verwalten können.

Eine häufig genutzte Funktion unter Apache sind .htaccess-Dateien. Diese ermöglichen es, durch eine lokale Datei Regeln zu definieren, die von dem Webserver ausgewertet werden. Häufige Verwendungen sind das Setzen eines Passworts für eine bestimmte Adresse oder die Umleitung von URLs im Rahmen der Suchmaschinenoptimierung (SEO). Nginx unterstützt keine .htaccess-Dateien, da diese die Performance beeinträchtigen. Es verwendet stattdessen globale – also system– oder seitenweite Einstellungen.

Für die Umwandlung von .htaccess-Befehlen in eine gültige Konfiguration existieren mehrere Konverter, die die Einrichtung erleichtern. Apache ermöglicht es, Module nachträglich einzubinden, indem Anwender diese in die Konfiguration eintragen und in den Webserver laden. Im Gegensatz dazu gehören Module bei Nginx fest zu dem kompilierten Programm. Eine Erweiterung um neue Funktionen erfordert deshalb fast immer den Austausch der installierten Programmversion.

Vor- und Nachteile von Nginx

Bekannte Website setzen auf Nginx als Webserver und erreichen täglich mehrere tausend Aufrufe.

Bekannte Website setzen auf Nginx als Webserver und erreichen täglich mehrere tausend Aufrufe.

Das Projekt Nginx entstand aus der Notwendigkeit, einen schnellen, zuverlässigen, sicheren und effizienten Webserver für die russische Suchmaschine Rambler zu entwickeln. Unter dem Gesichtspunkt der Performance ist dieser wegen dieser Eigenschaften meist die beste Wahl. Populäre Webseiten mit tausenden oder Millionen Aufrufen täglich – darunter zum Beispiel WordPress, Netflix, Apple, Spotify oder Facebook – setzen deshalb bevorzugt Nginx ein. Experten schätzen, dass der Marktanteil des Webservers unter den 10.000 beliebtesten Internetseiten bei über 60 Prozent liegt.

Für kleine Projekte bietet die Verwendung ebenfalls einige Vorteile. Er ermöglicht beispielsweise eine Reduzierung der Hardwareperformance und dadurch der Betriebskosten, ohne die Geschwindigkeit bei Reaktion oder Seitenaufbau zu beeinträchtigen. Ein großer Nachteil von Nginx ist die gegenüber Apache aufwendigere Konfiguration. Darüber hinaus schränkt dieser durch die ausschließlich globale Definition die Möglichkeiten zu einer individuellen Einrichtung bei mehreren unabhängigen Nutzern ein. Wegen dieser Eigenschaft bevorzugen viele Anbieter von Webspace für ihre Kunden nach wie vor Apache.

Apache und Nginx als kombinierter Webserver

Um die Vorteile von beiden Programmen nutzen zu können, bietet sich eine Kombination der Webserver an. In diesem Fall dient Nginx als primäre Instanz und leitet ausschließlich spezielle Anfragen an Apache weiter, um dessen Verbindungen zu minimieren. Das Verfahren benötigt Administrationsrechte auf dem Server und eine individuelle Konfiguration, kann aber den Ressourcenverbrauch erheblich verringern. Das Aufsetzen der Webserver erfordert allerdings ein entsprechendes Fachwissen.

In dieser Einführung zu IPv6 erklären wir daher nicht nur den Unterscheid zwischen IPv4 und IPv6 sondern zeigen außerdem wie IT-Administratoren die neuen IPv6 Adressen sinnvoll nutzen können.

Jeder Server, jedes Smartphone das mit dem Internet verbunden ist, benötigt zur Kommunikation eine IP (Internet Protokoll) Adresse. Dabei sind die TCP/IP-Adressen für Computer-Netzwerke das, was Nummernschilder für ein Auto sind. Sie identifizieren einen Host-Computer eindeutig und ermöglichen es erst, dass die Datenkommunikation zwischen den richtigen Partner stattfinden kann.

Das Problem mit IPv4-Adressen im Internet

Seit der Einführung des Internets Anfang der 1990er Jahre wurden an Firmen, Internet-Provider und z.T. an Privathaushalte IPv4-Adressen vorgegeben. Diese Nummern im Format 123.231.123.254 werden aus Ziffer (0 bis 9) gebildet und bilden einen so genannten Adressraum vom maximal 2^32 Adressen.

2^32 Adressen sind ca. 4,3 Milliarden, wovon ca. 3,7 Milliarden tatsächlich genutzt werden können. Das hört sich nach viel an – ist es aber letztlich nicht. Wenn man bedenkt, dass heute 8-9 Milliarden Menschen auf der Erde leben und in den Industrieländern viele Menschen deutlich mehr als ein Gerät besitzen, mit dem Sie im Internet sind, dann relativiert sich die Zahl von 4,3 Mrd. IPv4-Adressen recht schnell. Die Anzahl von IPv4 Adressen ist schlicht zu wenig um noch alle Geräte der Welt mit IP-Adressen zu versorgen.

Dieser Umstand wurde bereits 1999 von der IETF (Internet Engineering Task Force) erkannt und man veröffentlichte die Erweiterung des IP-Adressraums für das Internet auf die nächste Generation von IP-Adressen: IPv6 war geboren

Warum IPv6

Der Hauptgrund von IPv4 auf IPv6 zu wechseln ist der massiv vergrößerte Adressraum, den IPv6 Adressen abbilden können. Bereits im Jahr 1999 wurde von der IETF ein maximaler Adressraum von 2^128 Bit vorgesehen. Statt 2^32 IPv4-Adressen können mit IPv6 nun 2^128 Adressen abgebildet werden.

Das sind 340,282,366,920,938,463,463,374,607,431,768,211,456 Adressen (Sextillionen = 3,4·1038)

Damit könnte theoretisch jedes Sandkorn auf der Erde eine eigene, eindeutige IPv6-Adresse erhalten.

Wie ist eine IPv6 Adresse aufgebaut?

Eine IPv6 Adresse wird nicht mehr in der dezimalen Schreibweise von IPv4 ausgedrückt, sondern hexadezimal. Eine IPv6 Adresse kann also aus den Ziffern 0 bis 9 und den Buchstaben A bis F bestehen. Dabei besteht eine IPv6 Adresse aus 8 Blöcken zu je 4 Hexadezimalen-Zahlen.

Eine Beispiel-Adresse sieht demnach so aus:

2001:0db8:1234:5678:90ab:cdef:1111:ffff

Schreibweisen von IPv6 Adressen

IPv6 Adressen sind aufgrund des größeren Adressraums deutlich länger als ihre Vorgänger IPv4. Daher gibt es für die Schreibweise von IPv6 Adressen die Möglichkeit diese verkürzt darzustellen.

  • Führende Nullen eines Blocks (Die Bereiche zwischen zwei „:“ Zeichen) können immer weg gelassen
  • Zwei oder mehr aufeinander folgende 0er-Bereiche können als zwei Doppelpunkte „::“ dargestellt werden. Dies ist innerhalb einer IPv6 Adresse aber nur einmal erlaubt, da die Adresse sonst nicht mehr eindeutig wäre.
  • Die Buchstaben A bis F sollen klein geschrieben werden (also a,b,c,d,e,f).

Die Beispiel-Adresse 2001:0db8:0000:0000:0123:0000:0000:0adf kann demnach wie folgt gekürzt werden:

  • 2001:db8::123:0:0:adf

Die führenden Nullen entfallen in allen Blöcken und der dritte und vierte Block mit jeweils :000: werden als „::“ dargestellt. Der sechste und siebte Block werden jeweils als :0: dargestellt.

Ebenso wäre richtig:

  • 2001:db8:0:0:123::adf

Hier würde im Gegensatz zum ersten Beispiel der „::“ Block die letzten beiden :000: Blöcke ersetzen.

Nicht richtig wäre folgende Darstellung:

  • 2001:db8::123::adf

Diese Darstellung ist falsch, da die IPv6 Adresse nicht mehr eindeutig ermittelt werden kann. Die Notation „::“ darf daher in einer IP-Adresse nur einmal vorkommen.

Subnetze im IPv6 Adressbereich

Unter IPv4 wurden Subnetze meist in der Regel in der Form 192.168.0.0/24 dargestellt. Die Subnetzmaske (hier /24) definierte dabei die maximal Anzahl von Hosts (=Computern) in einem Subnetz. Daran hat sich bei IPv6 an sich nichts geändert – lediglich die Subnetze werden größer.

Die Empfehlung bzw. Vorgabe der Vergabestellen für IP-Adressen im Internet sind so genannte Prefixe von /64. Das bedeutet, daß der kleinste an eine Endanwenderfirma vergebene IP-Adressbereich bereits 9,223,372,036,854,775,807 Adressen umfasst.

Als Beispiel: 2001:db8:1234:abcd:: /64

Die nutzende Firma hätte dann die Adressen von 2001:db8:1234:abcd:0000:0000:0000:0001 bis 2001:db8:1234:abcd:ffff: ffff: ffff: ffff zur Verfügung.

Eine einzelne IPv6-Adresse kann mit dem Anhang „/128“ als einzelne Adresse dargestellt werden.

Bsp.: 2001:db8::123:0:0:adf /128

Diese Darstellung entspricht der Notation von 192.168.1.1/32 im IPv4 Schema.

Besonderheiten von IPv6

Mit der Einführung und Nutzung von IPv6 ergeben sich gleichzeitig einige Änderungen gegenüber IPv4.

Kein NAT mehr unter IPv6

Network Adress-Translation (NAT) wird unter IPv4 dazu verwendet, bestimmte Netzwerk-Subnetze wie 192.168.0.0/16 oder 10.0.0.0/8 als private Netze zu definieren, die nicht im Internet geroutet werden. Die Firewalls und Router der betroffenen Firmen mussten also den IPv4 Datenverkehr zwischen dem internen Netz und dem Internet übersetzen.

Damit war es möglich den Adressbereich von IPv4 länger zu nutzen. Im Umkehrschluss wurde damit aber die Ende-zu-Ende Kommunikation von zwei Knoten im Internet praktisch unmöglich.

Technisch ist NAT mit IPv6 Adressen zwar immer noch möglich. Es sollte aber unbedingt vermieden werden, schließlich gibt es ja keinen Mangel mehr an individuellen IPv6-Adressen.

ICMP muss möglich sein – auch aus dem Internet

Damit die Ende-zu-Ende-Kommunikation zwischen allen Endgeräten im Internet funktioniert, muss das ICMP (Internet Control Message Protocol), etwa ein „ping“,  von allen IPv6-Adressen aus möglich sein. Kurz gesagt: IPv6 basiert darauf, dass auch interne IPv6-Adressen von extern aus pingbar sind.

Für Firewall-Administratoren ergeben sich daraus ganz neue Anforderungen. Waren Sie in der Vergangenheit gewohnt, ihre Firewall von der WAN-Seite (WAN=Wide Area Network, i.d.R. das Internet) abzuschotten, so sollten Sie unter IPv6 ihre Firewall zumindest für ICMP-Pakete öffnen.

DHCPv6 und Router Advertisments (RA)

Wie auch bei IPv4 so ist es auch beim Nachfolger IPv6 möglich Endgeräten dynamisch IP-Adressen über den Dienst DHCP zuzuweisen. Im Gegensatz zu DHCP unter IPv4 fehlt dem DHCPv6 aber (absichtlich) der Default-Gateway. Diese unter IPv4 obligatorische Pflichtangabe des Ausgangs aus dem eigenen Subnetz übernimmt unter IPv6 der Dienst Router Advertisments (RA).

Sobald auf einer Firewall (z.B. opnsense oder pfsense) oder einem Host ein Netzwerk-Interface IPv6 „spricht, so muss dann neben dem DHCPv6 Dienst der RA-Dienst aktiviert werden, damit Clients, die ihre IPv6-Adresse über DHCP erhalten, über welchen Weg sie den Rest des eigenen Netzwerks oder des Internets erreichen

Neighbor Discovery Protokoll (NDP) statt ARP

Unter IPv4 diente das „Adress Resolution Protocoll“ (ARP) dazu eine IP-Adresse eindeutig einer MAC-Adresse (der physischen Hardware Adresse eines PCs) zuzuordnen.

Bei IPv6 übernimmt diese Rolle das Neighbor Discovery Protocoll (NDP). Dieser Dienst ist bei den allermeisten Geräten die IPv6 unterstützen aktiv, sobald eine IPv6 Adresse eingetragen oder über DHCPv6 bezogen wurde.

AAAA Records im DNS

Damit die Kommunikation für Endanwender im Internet beherrschbar ist, arbeiten Browser und andere Software-Produkt in der Regel nicht mit IP-Adressen sondern mit besser verständlichen Namen. Der Dienst hinter diesem Namensregister lautet Domain Name System, kurz DNS. Hier werden Namen zu IP-Adressen gespeichert.

Bei der Kommunikation im Web wird dann aus www.wikipedia.de die IPv4 Adresse 134.119.24.29 . Dies ist ein so genannter A-Record.

Damit nun auch IPv6 Adressen im DNS gespeichert werden können, wurde mit IPv6 der AAAA-Record (gesprochen: tripple „Ä“) im DNS eingeführt. Damit können einem Namen im DNS neben dem bestehenden A-Record für seine IPv4-Adresse zusätzlich eine IPv6-Adresse mit gegeben werden.

Wer also mit nslookup die Adresse www.google.de abfragt, der erhält sowohl die Ipv4 als auch die IPv6 IP-Adresse als Antwort:

Name:    www.google.de

Addresses:    2a00:1450:4016:80a::2003

172.217.21.99

Besondere IPv6 Adressen

So wie es bei IPv4 besondere Netze für die private Nutzung oder Localhost-Adressen gibt, so gibt es auch bei IPv6 einige spezielle (Sub-)Netze, die gesondert behandelt werden:

Die Localhost Adresse in Ipv6:

Die klassische Localhost-Adresse lautet für IPv6 ::1/128. Oder ausführlich: 0000:0000:0000:0000:0000:0000:0000:0001 /128 .

Die IPv6 Adresse „::1 /128“ ist das Equivalent zu 127.0.0.1 in IPv4.

Reservierte Netze

Einige Netze oder Prefixe werden seitens der IANA gar nicht vergeben. So ist etwa 2000:: /3 für den Global Unicast reserviert. Daneben sind noch weitere /3 Prefixe (also Subnetze) global reserviert.

Ebenfalls nicht produktiv nutzbar ist das Netz 2001:0db8:: /32. Adressen die mit 2001:db8: beginnen werden in der Regel nur zu Dokumentations- und Demonstrations-Zwecken verwendet (siehe dazu auch rfc3849 der IETF).

URL-Notation von IPv6-Adressen

Wer eine über IPv6 erreichbare URL im Browser über die IP-Adresse aufrufen möchte, muss sich eine neue Notation für den Aufruf der URL einprägen. Damit der Browser die IPv6 von einer IPv4 Adresse unterscheiden kann, lautet der Aufruf:

http://[IPv6:Port]/

Die IPv6-Adresse wird also in eckige Klammern gesetzt. Die Verwendung eines Ports ist optional. Mit einer kompletten IPv6-Adresse sieht das dann z.B. so aus:

http://[2001:db8::123:0:0:adf :7344]/

Parallelbetrieb von IPv4 und IPv6

Wer nun in seinem Netzwerk IPv6 IP-Adressen einführen möchte, der muss nicht sofort alle IPv4 Adressen löschen. Ganz im Gegenteil.

Praktisch alle Betriebssysteme von PCs, Servern und Smartphones bieten seit geraumer Zeit die Möglichkeit sowohl eine IPv4 als auch eine IPv6 Adresse pro einzelnem Gerät zu vergeben. Das bildet den Grundstein für den parallelen Betrieb von IPv4 und IPv6 nebeneinander.

So haben etwa Windows-Server seit der Version 2003 und PCs seit Windows XP die Möglichkeit sowohl eine Ipv4 als auch eine IPv6 Adresse zu vergeben. Auch die meisten Hersteller von Switches und Routern haben IPv6 schon vor langer Zeit in ihre Geräte integriert.

Wer also ein aktuelles Betriebssystem hat und aktuelle Netzwerk-Hardware nutzt, der kann in der Regel IPv6-Adressen eingeben und verwalten.

Migration von IPv4 zu IPv6

Um nun schrittweise die eigene Infrastruktur für IPv6 fit zu machen, sollten IT-Administratoren sich zunächst um die Zuweisung eines statischen /64 Präfixes kümmern. Diesen erhalten Sie in der Regel von ihrem ISP (Internet Service Provider).

Hinweis: Kunden des IT-Dienstleisters Biteno GmbH erhalten im für Services im Rechenzentrum der Biteno einen /64 Präfix aus unserem Netzabschnitt 2a06:fbc0:: /29 der uns von der europäischen Vergabe-Agentur RIPE zugewiesen wurde.

Im zweiten Schritt gilt es dann – wie auch schon bei IPv4 – allen Servern und statischen Geräten eine feste IPv6 Adresse zu vergeben.

Endgeräte, die von Anwendern genutzt werden, erhalten dann ihre IPv6 Adresse über DHCPv6 in Kombination mit dem weiter oben beschriebenen Router Advertisments.

Da Umstellungen bzw. Einführungen von IPv6 im Unternehmen nicht einmal nebenbei erfolgen können, empfiehlt es sich, zunächst die Hilfe eines erfahrenen Consultants eines IT-Dienstleisters in Anspruch zu nehmen.

IPv6 testen

Wer heute einmal probehalber testen möchte, ob sein Endgerät schon mit IPv6 kommuniziert, kann das auf den folgenden Seiten testen:

Auf dem eigenen PC/Notebook kann man die eigene IPv6 Adresse mit dem Befehlt “ipconfig /all” ermitteln. Das Ergebnis sieht dann z.B. so aus:

IPv6 Konfiguration auf dem eigenen PC/Notebook

IPv6 Konfiguration auf dem eigenen PC/Notebook

Fazit zu IPv6

Bei IPv6 müssen IT-Administratoren einige wichtige Besonderheiten wie den Wegfall von NAT oder die besondere Schreibweise von IPv6-Adressen “lernen” und verstehen. Sobald diese Neuigkeiten verdaut sind, steht dem produktiven Betrieb der eigenen IT-Infrastruktur mit IPv6 aber nichts mehr im Wege.

Was ist SIP?

Das Standardprotokoll für Telefonate über das Internet

Bevor ein Telefonat geführt werden kann, muss eine Verbindung zwischen den Gesprächsteilnehmern aufgebaut werden. Bei analogen und ISDN-Telefonen geschieht dies durch Abheben des Hörers und Wählen einer Telefonnummer. In Zeiten der Internettelefonie (VoIP) übernimmt diese Funktion ein standardisiertes Protokoll mit Namen SIP. Was SIP ist und wie es funktioniert, beschreibt der folgende Beitrag.

Was ist SIP?

SIP ist die Abkürzung für den englischen Begriff „Session Initiation Protocol“ – auf Deutsch „Sitzungsinitiierungsprotokoll“. Hinter diesem etwas sperrigen Begriff verbirgt sich das am weitesten verbreitete Verbindungsprotokoll für die Internettelefonie. Die Deutsche Telekom wird in den nächsten 1 bis 3 Jahren das gesamte ISDN-Netz zugunsten von VoIP abschalten. Telekom-Kunden sind daher gezwungen, ihre Anschlüsse auf Voice-over-IP umzustellen und das Session Initiation Protocol zu nutzen.

SIP ist ein textbasiertes Protokoll ähnlich dem für die Übertragung von Webseiten zwischen Server und Client verwendeten HTTP (Hypertext Transfer Protocol) Anforderungs-/Antwortmodell. Diese Ähnlichkeit der Protokolle ermöglicht eine einfache Integration des Session Initiation Protocol in unterschiedliche Hardware, Browser und Webanwendungen. SIP wird sowohl in lokalen Netzwerken (LAN) als auch für die Kommunikation über das Internet verwendet.

Wie funktioniert das Session Initiation Protocol?

Mann telefoniert über Headset.Wie bei allen Telefonaten über das Festnetz oder den Mobilfunk wird auch bei Voice-over-IP ein Anruf in drei Phasen aufgeteilt. Die erste Phase ist der Anrufaufbau. Die zweite Phase ist das eigentliche Gespräch und in der dritten Phase wird die Verbindung wieder abgebaut. Bei der Internettelefonie übernimmt das Session Initiation Protocol den Aufbau der Verbindung und den Abbau der Verbindung am Ende des Gespräches.

Für die eigentliche Übertragung des Gespräches werden andere Protokolle genutzt. SIP codiert keine Audioinformationen in einem Telefonanruf und überträgt auch keine Audioinformationen. Das Session Initiation Protocol initiiert und beendet Kommunikationssitzungen. Unabhängig davon, ob es sich um einen Sprachanruf zwischen zwei Personen oder eine Videokonferenz zwischen einem ganzen Team handelt. Obwohl das Protokoll hauptsächlich für VoIP angewendet wird, handelt es sich nicht um ein VoIP-Protokoll.

Die Aufgabe des Session Initiation Protocol besteht darin, einen Anruf, eine Konferenz oder eine andere interaktive Kommunikationssitzung einzurichten und zu beenden, wenn diese vorbei ist. SIP sendet dazu Nachrichten zwischen Endpunkten im Internet, die als „SIP-Adressen“ bezeichnet werden. Eine SIP-Adresse kann verknüpft werden mit einem physischen Client, einer TK-Anlage oder einem Software-Client, zum Beispiel einer Computeranwendung oder einer App. Mit den sogenannten Softphones können Sie Anrufe tätigen und entgegennehmen. Während einer Sitzung macht das Protokoll selbst nicht allzu viel – der Hauptzweck besteht darin, die Sitzung einzurichten und sie zu beenden. SIP weiß nicht, welche Daten über die Verbindung übermittelt werden. Aus diesem Grund kann das Session Initiation Protocol für Videokonferenzen und Instant Messaging sowie zum Telefonieren über das Internet verwendet werden.

Wie funktioniert SIP bei einem VoIP-Anruf?

Bevor Sprachinformationen über das Internet übertragen werden können, müssen die Audiosignale beispielsweise einer Telefonanlage mithilfe sogenannter Codecs in digitale Daten umgewandelt werden. Die beiden am häufigsten genutzten Codecs sind einerseits der G.711-Codec, der für unkomprimierte digitale Sprache verwendet wird. Andererseits zählt hierzu der G.729-Codec, der üblicherweise für komprimierte Sprache verwendet wird. Die Audioqualität wird beim G.729-Codec verschlechtert, um die übertragene Datenmenge zu reduzieren und damit die beim Anruf verbrauchte Bandbreite zu verringern.

Die codierten Audiodatenpakete werden dann mithilfe des Real-Time-Transport-Protokolls (RTP) transportiert. Dies ist ein spezielles Protokoll für die Übermittlung von Audio- und Videodaten. Das RTP-Steuerungsprotokoll (RTCP) liefert zusammen mit RTP Informationen über die RTP-Paketzustellung, die zur Verwaltung der Qualität des Sprachdienstes verwendet werden. RTP- und SIP-Pakete werden selbst durch weitere Protokolle übermittelt. Hierzu werden zum Beispiel das Transmission Control Protocol (TCP) für die Übertragung von Paketen in einer geordneten Reihenfolge und zur erneuten Übertragung von verlorenen Paketen oder das User Datagram Protocol (UDP) genutzt. UDP ist ein Protokoll für die Datenübertragung ohne eine erneute Übertragung verlorener Pakete oder eine Erkennung von Paketen außerhalb der ursprünglichen Reihenfolge.

UDP eignet sich daher besser für die Datenübertragung bei VoIP-Anrufen. Verlorene und nicht in der Reihenfolge befindliche Pakete können zwar zu geringfügigen Problemen bei der Audioqualität führen. In vielen Fällen können diese jedoch vom menschlichen Ohr nicht wahrgenommen werden. Die Verzögerung, die durch die Neuordnung und erneute Übertragung von TCP-Paketen verursacht wird, kann letztendlich zu erheblich größeren Problemen mit der Audioqualität und zu Verbindungsabbrüchen führen.

Da SIP medienunabhängig ist, wird ein weiteres Protokoll, das Session Description Protocol (SDP), verwendet. Dieses Protokoll gibt an, welche Medientypen die an der Sitzung beteiligten Clients tatsächlich unterstützen können.

Welche Vorteile bietet SIP?

Das Session Initiation Protocol ist ein weltweiter Standard. Die verwendete Hardware lässt sich dadurch einfacher austauschen. Sie sind nicht von bestimmten Herstellern abhängig, solange die Hardware das Protokoll unterstützt. Ebenso können Sie den Anbieter schneller wechseln. Nutzen Sie Kostenvorteile durch den größer gewordenen Wettbewerb unter den SIP-Anbietern zu ihrem Vorteil.

Ein Vorteil gegenüber ISDN und analogen Telefonanschlüssen ist, dass durch das Session Initiation Protocol die Telefonnummer vom Telefonanschluss unabhängig ist. Accounts für SIP können an beliebige Geräte und beliebige Standorte verteilt werden. Dadurch ist es möglich, einen Anruf parallel auf das Mobiltelefon, den privaten Telefonanschluss oder an den Arbeitsplatz zu leiten und an dem Ort, wo Sie sich gerade befinden, entgegenzunehmen.

Was ist Voice over IP (VoIP)?

VoIP (Voice over IP): Funktionsweise, Stellenwert und Vorteile

Voice over IP (VoIP) oder Internettelefonie beschreibt die Sprachübertragung über das Internet-Protokoll. Im Rahmen der IP-Telefonie lassen sich Daten und Telefonate über dasselbe Netzwerk übertragen. Wenn Ihr Anschluss noch nicht auf IP-Telefonie umgestellt ist, sollten Sie dafür bereit sein. Nach aktueller Entwicklung werden in Deutschland im Laufe des Jahres 2019 bestehende ISDN-Anschlüsse ersetzt. Für Geschäftskunden ist hierbei meist eine neue Telefonanlage erforderlich.

Überblick und Allgemeines zur IP-Telefonie

Anders als bei herkömmlichen, analogen Telefonanlagen sind IP-Anschlüsse mit dem Breitband verbunden. Die Telefonie erfolgt über die Internetverbindung, wobei meist das Session Initiation Frau mit Headset.Protocol (SIP) zum Einsatz kommt. Dieses Protokoll dient dem Aufbau sowie der Kontrolle der Internettelefonie. Es wandelt das sprachliche Signal ohne zeitliche Verzögerung um und schickt es in Datenform zum Gesprächspartner. Das Protokoll wurde bereits 1999 vorgestellt und ist über die Jahre gereift. Die Vorteile des VoIP führen dazu, dass analoge TK-Anlagen und ISDN-Telefonie immer weiter in den Hintergrund geraten. Eine vollständige Umstellung auf VoIP ist abzusehen.

Technische Voraussetzungen und Realisation

Die wesentliche Voraussetzung für VoIP-Telefonie ist eine hinreichend schnelle sowie stabile Breitband-Verbindung. Als Richtwert gelten etwa 100 Kilobyte pro Sekunden pro Kanal (Sende- und Empfangsrichtung beziehungsweise Upload und Download). Weiterhin benötigten Sie einen Anbieter für die VoIP-Telefonie sowie geeignete Hardware zur Umsetzung.

Die technische Realisation der Internettelefonie ist auf mehrere Weisen möglich. Sie kann über einen PC, über ein Smartphone, über ein spezielles IP-Telefon sowie auch über ein herkömmliches analoges Telefon erfolgen.

Bei der Internettelefonie via PC verbinden Sie Ihren Computer oder Ihr Notebook via Breitbandanschluss mit dem Internet. Die VoIP-Telefonie über den PC bedarf einer bestimmten Software. Diese als Softphones bekannten Softwarelösungen existieren in unterschiedlichen Varianten, von denen einige kostenlos erhältlich sind. Ihr Computer muss zur Sprachausgabe weiterhin über Lautsprecher sowie Mikrofon verfügen. Ein Headset ist im Sinne der Sprachqualität und des Komforts zu empfehlen.

Die Telefonie über das IP-Telefon ist eine weitere Möglichkeit der Umsetzung von Voice over IP. Dieses auch als WLAN-Telefon bekannte Gerät ähnelt regulären analogen Telefonen optisch. Die genutzte Technologie ist jedoch eine andere. IP-Telefone lassen sich über einen Port am Router mit dem Internet verbinden und unterstützen die Internet-Datenübertragung.

Auch über das Smartphone ist Voice over IP möglich. Die Internettelefonie wird mit mobilen Endgeräten über entsprechende Apps möglich. Diese liegen für gängige mobile Betriebssysteme wie Android oder iOS vor und können ein zusätzliches IP-Telefon ersetzen.

Schließlich lassen sich auch analoge- und ISDN-Telefone fit für Voice over IP machen. Damit verzichten Sie auf die Anschaffung neuer Geräte sowie auf die Telefonie über PC. Möglich wird die VoIP-Nutzung eines ISDN-Telefons über besondere Adapter. ISDN-Telefonanlagen erfordern hierbei, dass der Router eine entsprechende Telefon-Schnittstelle aufweist und die Internettelefonie generell unterstützt. Analoge Telefone lassen sich über die TAE-Buchse des DSL-Routers anschließen.

Funktionsweise der VoIP-Telefonie

VoIP unterscheidet sich nicht nur hinsichtlich der Hardware und Infrastruktur von ISDN. Der technische Vorgang ist bei der Internettelefonie ein anderer. Beim Verbindungsaufbau kommt es nicht mehr zur Zuweisung einer bestimmten, festen Leitung. An Stelle dessen werden die Sprachsignale als Datenpakete via Internet weitergeleitet. Damit wird die Sprache ebenso behandelt wie anderes Datenmaterial auch. Da Telefonie auf Echtzeit-Sprachübertragung angewiesen ist, geschieht die Datenweiterleitung auf priorisierte Weise.

Die Reihenfolge beziehungsweise der grundsätzliche Ablauf unterscheidet sich nicht von sonstiger Telefonie. Zunächst erfolgt der Aufbau der Telefonverbindung. Anschließend kommt es zur Gesprächsübertragung. Abschließend wird die Verbindung wieder abgebaut.

Verbindungsaufbau bei Voice over IP

Beim Aufbau der Verbindung kommt das Netzprotokoll SIP zum Einsatz. Es gewährleistet eine herstellerunabhängige Verbindung der VoIP-Bestandteile. Hierbei verfügt jeder Gesprächsteilnehmer über eine SIP-Adresse. Diese basiert auf zwei Komponenten: dem Namen des SIP-Nutzers sowie dem Namen der Domain des Servers. Ihre Struktur gleicht einer E-Mail-Adresse.

Zur Herstellung der Verbindung ist die Kenntnis der IP-Adresse des Empfängers eine der Voraussetzungen. Ist die IP dem Anrufenden bekannt, so kann er ortsunabhängig von der eigenen Rufnummer ausgehend telefonieren. Die Telefongeräte der Teilnehmer melden sich zu diesem Zwecke mit IP-Adresse, Nutzername sowie Passwort bei einem SIP-Server an.

Damit die Verbindung zwischen den Gesprächsteilnehmern zustande kommt, schickt das Gerät des ersten Gesprächspartners eine Mitteilung mitsamt der Rufnummer des zweiten Gesprächspartners an seinen Server. Dieser Server leitet diese Information wiederum an den Server des zweiten Gesprächspartners weiter, damit er das Gerät des Partners ansprechen kann. Wenn diese Schritte reibungslos abgelaufen sind, macht sich das Endgerät des zweiten Gesprächspartners bei diesem bemerkbar und schickt gleichzeitig eine Benachrichtigung an das Gerät des ersten Gesprächspartners. War der Verbindungsaufbau erfolgreich, so läuft die anschließende Kommunikation zwischen den Endgeräten der Gesprächspartner ab und nimmt keinen Umweg mehr über den SIP-Server.

Funktionsweise der Gesprächsübertragung

Mitarbeiter im BüroBei der anschließenden Übertragung des Gesprächs werden einzelne digitale Datenpakete übersandt. Hierbei kommt es zunächst zur Umwandlung des analogen Signals der Stimme in ebenso analoge elektrische Signale. In einem nächsten Schritt kommt es zur Digitalisierung dieser Signale. Sie werden in mehrere kleine digitale Pakete aufgeteilt. Im Anschluss kann die Übertragung dieser Datenpakete über ein privates oder öffentliches Netz erfolgen.

Bei der Datenübermittlung kommt der Codierungsart eine entscheidende Bedeutung zu. Die Codierung ist ausschlaggebend für die Sprachqualität. Hier existieren verschiedene Standards. Der Standard G.771 ist weit verbreitet, während der Codec G.722 eine besonders hohe HD-Qualität ermöglicht. Bei höherer Sprachqualität ist eine entsprechend höhere Datenübertragungsrate erforderlich. Andere Codecs dienen dazu, diese Datenrate möglichst gering zu halten.

Nach erfolgreicher Übertragung der Daten zum Telefongerät des Empfängers kommt es dort zur Entschlüsselung. Sowohl IP-Telefone als auch entsprechende Software wählen im Allgemeinen automatisiert den qualitativ hochwertigsten Codec aus, über den die Gesprächsteilnehmer verfügen.

Geht es um die Beendung der Sprachübertragung, so sendet eines der Geräte ein SIP-Paket an den Server. Dieser benachrichtigt anschließend das andere Gerät über den Abbau der Verbindung.

VoIP: Vorteile und Schwächen im Überblick

Ein wesentlicher Vorteil besteht in den geringen Voraussetzungen für die VoIP-Telefonie. Ein separater Telefonanschluss wie er etwa für ISDN erforderlich ist, entfällt. Der Aufwand für die Infrastruktur ist auch für Unternehmen gering. Grundsätzlich lässt sich die Telefonanlage als Cloud-Lösung realisieren. Auch wer eine lokale Telefonanlage bevorzugt, kann diese ohne großen Hardwareaufwand umsetzen, da die ISDN-Infrastruktur nicht mehr erforderlich ist.

Die Einrichtung sowie Konfiguration gestalten sich damit übersichtlich. IP-Anschlüsse zeichnen sich gegenüber älteren Telefonanlagen durch ein einfaches Handling aus. Statt Geräten wie DSL-Splitter oder NTBA ist nur noch der Router erforderlich.

Damit verbunden ist der Vorteil der Kosteneinsparungen. Verschiedene Dienste wie Internet, Mobilfunk oder Telefonie können Sie in einem Angebot erhalten. Internet-Flatrates, wie sie etwa für die IP-Telefonie erforderlich sind, gehören in Unternehmen sowie Haushalten zum Standard. Weitere Vorteile umfassen die höhere Geschwindigkeit sowie die Möglichkeit mehrerer Parallelgespräche.

Der wesentliche Nachteil findet sich in der Abhängigkeit von der Internetverbindung. Fällt diese aus, so ist auch keine Telefonie mehr möglich. Ebenso ist die Sprachqualität stets nur so gut wie das Übertragungsnetz selbst. Instabile Leitungen können sich auf die Sprachqualität auswirken. Dem können Sie aber mit einer Breitbandanbindung mit garantierter Verfügbarkeit entgegenwirken. Ebenso ist eine zweite kostengünstige Internet-Leitung empfehlenswert.

Die Sprachqualität kann auch infolge einer stärkeren Auslastung der Internetverbindung beeinträchtigt sein. Dies können Sie durch eine entsprechende Anschluss-Konfiguration beheben, indem die Übertragung der Sprach-Datenpakete priorisiert erfolgt.

WLAN ist die geläufige Abkürzung für „Wireless Local Area Network“ und beschreibt sämtliche drahtlosen Netzwerke. In der Regel sind damit Funknetz-Standards aus einer bestimmten Normreihe gemeint. In manchen Ländern außerhalb Deutschlands werden diese WLAN-Standards unter der Bezeichnung Wi-Fi zusammengefasst. Zum WLAN gehören im Prinzip sämtliche Techniken und Standards, mit denen Sie lokale Funknetzwerke aufbauen können, darunter auch Bluetooth und Home RF.

Warum hat das WLAN sich so deutlich durchgesetzt?

Das digitale Zeitalter setzt nicht nur in der Arbeitswelt eine nachhaltige Mobilität voraus. Selbst wenn es hier in erster Linie um die Verarbeitung und Übertragung von Daten betrifft, nimmt das Funknetz auch im privaten Bereich immer größeren Raum ein. Das Wireless LAN erfüllt dabei gleich wenigstens drei unterschiedliche Anforderungen:

1. Der Zugang zum Netz wird für mobile Endgeräte deutlich vereinfacht.
2. Die Reichweite kabelgebundener Netzwerke kann vor allem an Stellen effektiv erweitert werden, die nur schwer zugänglich sind.
3. Für den provisorischen Aufbau eines Netzwerks auf Funktechnik-Basis ist WLAN eine häufig genutzte Option.

Der IEEE-Standard

WLAN

Mithilfe des WLAN das ganze Haus steuern

Der Begriff WLAN wird ausdrücklich für Funknetzwerke verwendet, die auf der IEEE-Norm aufbauen. Die Abkürzung IEEE steht für „Institute of Electrical and Electronics Engineers. Dieses Institut hat im Jahr 1997 zum ersten Mal den heute noch genutzten IEEE 802.11-Standard verabschiedet.

Der mehr als 20 Jahre alte Standard ist längst überholt und wurde zwischenzeitlich mehrfach ergänzt und aktualisiert. So existiert heute zum Beispiel der 802.11 ad. Er ermöglicht sehr hohe Bandbreiten, erlaubt aber lediglich eine Reichweite von einigen Metern.

Seit der Einführung des Standards 802.11 n kann WLAN häufiger auf ein 5 GHz-Band zurückgreifen. Bis dahin stand lediglich das 2,4 GHz-Band zur Verfügung, die Übertragungsraten lagen unter zwei Mbit/s.

Die so genannten Mesh-Netzwerke sind die neueste Entwicklung und tragen die Bezeichnung IEEE 802.11s. Es handelt sich dabei um vermaschte bzw. sich selbst vermaschende Netzwerke, die niemals aus nur einem Access Point bzw. WLAN-Router bestehen, sondern sich immer aus mehreren Access Points zusammensetzen.

Die unterschiedlichen Modi der Datenübertragung

Hinsichtlich der Art und Weise, wie Sie Daten zwischen den Clients im Netzwerk übertragen möchten, stehen Ihnen im WLAN-Betrieb zwei unterschiedliche Modi zur Verfügung: der Infrastruktur-Modus und der Ad-hoc-Modus.

1. WLAN im Infrastruktur-Modus

Den Datenverkehr koordinieren WLAN-Router oder ein Access Point. Diese stellen die so bezeichnete Basisstation dar und steuern grundsätzlich die Kommunikation. Für die Einbindung von Clients in solche Netzwerke benötigen Sie sowohl den Namen des Netzwerks als auch die verwendete Verschlüsselung.

Im Infrastruktur-Modus können Sie die Reichweite des Funknetzes per WLAN-Repeater jederzeit erweitern.

2. Wireless LAN im Ad-hoc-Modus

Sicherheit spielt hier auch eine Rolle

Im Ad-hoc-Netzwerk können sämtliche Clients direkt miteinander Daten austauschen, ohne dass sie auf einen Access Point oder einen Router zugreifen müssen. Die Einrichtung dieses Netzwerks ist vergleichsweise einfach, außerdem zeichnet sich dieser Modus durch ein hohes Übertragungstempo aus.

Auch hier müssen sich die Teilnehmer über den Netzwerknamen sowie über eine Verschlüsselung identifizieren, um sich einschalten zu können. Aufgrund der direkten Kommunikation der einzelnen Clients ist die Reichweite eines Ad-hoc-Netzwerks allerdings stark eingeschränkt.

Die Grundlagen für ein Ad-hoc-Netzwerk schafft ein Wireless Distribution System (WDS). Dabei handelt es sich um ein Adressierungs-Verfahren, das dem IEEE-Standard 802.11 entspricht und auch anspruchsvolle Netzwerk-Aufbauten ermöglicht.

Sicherheit und Verschlüsselung

WLAN-Netze müssen insofern abgesichert werden, dass weder ein unerlaubter Zugriff von außen noch ein Abfangen der Datenströme möglich ist. Handelsübliche Router ermöglichen dem Nutzer dazu drei unterschiedliche Verschlüsselungs-Varianten:

– WPA
– WPA2
– WPA + WPA2

Die drei Standards wirken sich sowohl auf die Sicherheit des Netzwerks aus als auch auf die Geschwindigkeit der Datenübertragung im WLAN. WPA steht für Wireless Protected Access.

Mit WPA nutzen Sie die Methode TKIP zur Verschlüsselung. TKIP steht für Temporal Key Integrity Protocol. Die Übertragungsgeschwindigkeit ist hier auf 54 Mbit/s beschränkt. Die aktuell sicherste Verschlüsselung erreichen Sie mit WPA2. Diese nutzt die Methode CCMP. Hier sind Geschwindigkeiten von mehr als 150 Mbit/s möglich.

Darüber hinaus gibt es den Mixed Mode, der sich aus WPA und WPA2 zusammensetzt. Damit können Sie sowohl ältere als auch moderne Geräte ins Netzwerk einbinden. Die Geschwindigkeit der Funkverbindung ist allerdings langsamer.

WEP: veraltet und nicht sicher

Das WLAN sollte verschlüsselt sein

WEP steht für Wired Equivalent Privacy. Dieser Verschlüsselungsstandard stammt aus dem Jahr 1999 und entspricht dem Standard IEEE 802.11. Seit 2013 dürfen Access Points die Verschlüsselung per WEP nicht mehr anbieten; seit 2014 dürfen auch WLAN-Geräte wie Sticks und Notebooks kein WEP mehr unterstützen.

Das grundsätzliche Problem liegt darin, dass WEP für die Verschlüsselung, für die Authentifizierung und für die Integritätsprüfung immer die gleichen Schlüssel verwendet. Der WEP-Schlüssel lässt sich verhältnismäßig einfach berechnen, und selbst ein nicht professioneller Hacker hat sich innerhalb weniger Minuten Zugriff zum WLAN verschafft.

Der neue Standard: WPA3

Dieser Standard stammt aus dem Jahr 2018 und kann als Update des WPA2 betrachtet werden. Er enthält neue Funktionen, vereinfacht die Authentifizierung und erhöht die Sicherheit der Verschlüsselung.

Insgesamt bietet der neue Standard folgende Vorteile:

– Die Authentifizierung ist robuster, die Kryptografie deutlich verbessert.
– Jedes einzelne Gerät lässt sich individuell verschlüsseln.
– Die Verschlüsselung der Geräte ohne Bedienelemente lässt sich einfacher konfigurieren.
– WPA3-Geräte können mit WPA2-Geräten zusammenarbeiten.

Optimierung des WLAN durch effiziente Maßnahmen

1. MIMO-Technologie (MIMO = Multiple Input Multiple Output)

WLAN ist kabellos

WLAN-Router arbeiten mit Funkwellen, die gelegentlich interferiert und reflektiert werden. Trifft ein Funkwellenberg auf ein Wellental, löschen die Wellen einander aus, der Funkverkehr bricht zusammen.

Router mit der MIMO-Technik verfügen über mehrere Antennen und können die Reflexionen aktiv für die Datenübertragung nutzen. Aktuell sind Router mit der Multi-User-MIMO-Technik auf dem Markt. Diese Technologie ermöglicht es den Basis-Stationen, bis zu vier Clients gleichzeitig anzufunken. Bei Bedarf können Sie entsprechende Repeater nutzen, um die Reichweite zu verstärken.

2. Band Steering

Das Band Steering ist die aktuellste Entwicklung, mit der sowohl die Stabilität als auch die Leistungsfähigkeit eines Wireless LAN signifikant verbessert werden. Diese Technik konzentriert vor allem auf Dual-Band-Geräte wie Smartphones und Tablets: Entweder werden diese mobilen Endgeräte gleich einer weniger stark belasteten WLAN-Frequenz zugeordnet, oder sie werden bei Bedarf dorthin umgebucht.

Die beiden Frequenzbänder weisen unterschiedliche Reichweiten auf. Nutzen Sie einen Router oder einen Access Point mit integriertem Band Steering, berücksichtigt er dies. Er weist den Dual-Band-Geräten das jeweils optimale Frequenzband zu – auch in Abhängigkeit der jeweiligen Signalstärke.

In der öffentlichen Wahrnehmung sitzen sie in dunklen Stuben vor ihrem Computer. Sie lehnen in schwarzen Hoodies über ihrem Laptop und prellen Unschuldige um ihr Erspartes: Hacker. Doch was steckt tatsächlich hinter dem Computerhacker. Wie verschaffen sie sich Zugriff auf Rechner und Netzwerke und sind Hacker wirklich immer Kriminelle?

Hier geht es um den Begriff des Hackers, die Definition und die wichtigsten Persönlichkeiten. Und natürlich auch um die gängigsten Klischees und deren Entkräftung.

Der Computer gehört nicht zwangsläufig zum Hacker

Klischeebild eines Hackers

Der Begriff des Hackens hat inzwischen seine ursprüngliche Bedeutung in der Popkultur fast schon zurückgewonnen. Bei kreativen Lösungen und beim Tüfteln spricht man vom HackenZopfgummis als Kabelsortierer etwa sind ein Life-Hack.

Entsprechend ist der Begriff des Hackens auch älter als der des Computerhackers. Es geht beim Hacken eher darum, kreative Lösungen zu finden und Probleme zu lösen. Das können kleinere Probleme des Alltags sein, aber eben auch Sicherheitslücken in Programmen und Websites. Der Begriff ist eigentlich gleich mehrfach neutral besetzt, auch moralisch.

Hacker früher und heute

In den 1950er Jahren fanden Hacker dann im Computer ein neues Tool. Sie suchten sich Wege, die Programme und die Technik auszuloten. Mit der Einführung der Vernetzung und der Verbreitung des PC in Haushalten in den 1980er Jahren gewannen Hacker und die gesamte Hackerszene zunehmend an Bedeutung.

Durch das Sammeln privater Nutzer- und Bankdaten, das Aufbrechen von Sicherheitsmechanismen und das Knacken von Datenbanken von Websites oder Phishing bekam der Begriff eine negative Konnotation. Dabei ist der Sammelbegriff für diese Form der Internetkriminalität und den Cyber-Terrorismus eigentlich Cracker.

Phishing, Mal- und Ransomware – die kriminellen Methoden der Cracker

Hacker

Ein Hacker ist nicht zwangsläufig kriminell

In der Hackerszene ist man darauf bedacht, den Begriff des Hackers von dem des Crackers deutlich zu trennen. Angelehnt an den klassischen Western ist im Englischen auch von „White Hats“ und den böswilligen „Black Hats“ die Rede.

So sind es eben Cracker, die mit verschiedenen Formen der Cyberkriminalität versuchen, auf Computer von Nutzern Zugriff zu erhalten. Dies kann verschiedene Formen annehmen. Mal geht es nur darum, blanken Schaden anzurichten. In solchen Fällen werden Anhänge verschickt, welche Computer mit einem Virus infizieren und eine Nutzung unmöglich machen.

Solche Malware kann aber auch nach sensiblen Informationen wie Bankdaten oder persönlichen Fotos suchen oder aber den Computer als Geisel nehmen. Ransomware übernimmt den Rechner und macht eine Nutzung unmöglich, es sei denn der Nutzer zahlt ein Lösegeld.

Auch Phishing-Versuche wie falsche Warnungen zu Konten, Kreditkarten, PayPal oder Phishing-Versuche (wie der nigerianische Prinz) werden oft landläufig als Hacking bezeichnet. Allerdings sind solche Taktiken eher verpönt.

In der Hackerethik ist die verbreitete Sichtweise, dass ein Eindringen (auch böswilliges) in geschlossene Systeme so lange in Ordnung ist wie kein Schaden angerichtet wird.

Hacker und ihr Nutzen für Unternehmen

Große Unternehmen setzen auf Hacker. Start Ups wie Facebook und Google veranstalten regelmäßig sogenannte Hackathons. Hier probieren die Programmierer sich in langen Sessions aus und lassen ihre Kreativität arbeiten.

Auch im Sicherheitsbereich braucht die Industrie Hacker, ansonsten werden Sicherheitslücken am Computer oder in einem Programm eben erst dann bemerkt, wenn es zu spät ist. Wird eine Lücke frühzeitig entdeckt (entweder intern oder durch vergleichsweise harmlose Hacks), so kann sie geschlossen werde, ehe es wirklich zu spät ist.

Denn durch böswillige Hacks wie die massenhafte Erbeutung von Kreditkartendaten bei Sony, Brute Force-Attacken gegen Apples iCloud oder die vorgebliche Akquise von Nutzerdaten der Datingseite Ashley Madison können Unternehmen in ernsthafte Schwierigkeiten geraten. Mit dem Verlust des Kundenvertrauens geht schließlich auch ein finanzieller Verlust einher. Alleine deswegen sind „gesunde“ Hacks auch im wirtschaftlichen Interesse von Unternehmen.

Sind Hacker eine Gefahr für die moderne Informationswelt?

Hacking kann auch sinnvoll sein

Eine große Gefahr, die derzeit am Computer entsteht, und wirklich massive Auswirkungen auf unsere Informationslandschaft und die westliche Demokratie hat, hat mit Hacks nicht einmal etwas zu tunCyberangriffe wie die koordinierten Desinformationskampagnen vor den US-Wahlen fallen nicht unter die Kategorie Hacking. Plattformen wie Facebook und Twitter wurden nicht gehackt, sondern wie vorgesehen genutzt und so missbraucht.

Organisationen wie der deutsche CCC (Chaos Computer Club) haben sich sogar einer sehr deutlichen Ethik verschrieben. Und diese steht eigentlich im Sinne einer besseren Informationskultur und des Datenschutzes der Nutzer: weniger Überwachung, dafür mehr Information und Archivierung durch Verbreitung.

Die Entstehung von „Open Source“

Bereits in den 80ern entwickelte sich in den USA eine Open Source-Kultur, welche quelloffene Programme erstellte. Oder aber die Quellcodes von Programmen veröffentlichte. Daraus entstanden etwa die Betriebssysteme Linux, die Variante Ubuntu, die Photoshop-Alternative GIMP oder Open Office. Die Öffnung des zugrunde liegenden Codes ermöglichte es der Community, beständig Verbesserungen vorzunehmen und entzog die Programme einer zentralisierten Kontrolle. Zudem kann man Lücken und Fehler im Code schneller finden und ausmerzen.

Auch im Sinne einer Software-Archivierung ist die „Erbeutung“ von Programmen relevant, diese Form der Piraterie ist oftmals die einzige Möglichkeit der Erhaltung. Wenn Unternehmen ältere Programmversionen aus ihrem Angebot nehmen, verschwinden diese inzwischen ganz. Ohne physische Medien geht so ein Teil der Informationsgesellschaft verloren. Hacking und Piraterie sind hier – wenn auch nicht legal – die einzigen Wege eines schlüssigen Informationsverzeichnisses.

Hacking auf staatlicher Ebene

Die Guy Fawkes-Maske verbinden viele mit Hackern

Auch auf staatlicher Ebene werden indes Hacker eingesetzt, Deutschland zog mit einer Cyber-Initiative der Bundeswehr vor einigen Jahren erst etwas spät nach. Der Cyber-Terrorismus stellt eine reale Gefahr dar, die im großen Stile sensible Daten erbeuten kann und Infrastruktur wie Stromnetze gefährdet.

Staaten wie Nordkorea stehen seit längerem im Verdacht, durch Hacking an Bitcoin-Börsen eine unauffällige Finanzquelle zu unterhalten. Auch Russland unterhält mehrere Divisionen der Cyber-Kriegsführung. Die Gefahr ist also durchaus real, typisch für den Hacker und die klassische Ethik der Freiheit ist dies allerdings nicht.

Dies hat seit einigen Jahren sogar zu einer besonderen Kategorie unter Hackern geführt, den sogenannten Hacktivists. Diese Mischung aus Hackern und Aktivisten nutzen nichtautorisierte Zugriffe auf Systeme, um auf Missstände und Gefahren hinzuweisen oder gegen illegale Aktivitäten (auch von Regierungen) aufmerksam zu machen.

Die „Namen“ der Szene – einige der größten Hacker

Ein Bild, das immer wieder mit Hackern assoziiert wird, ist der Mann mit der Guy Fawkes-Maske, der am Rechner sitzt. Die Maske erlangte durch den Film „V for Vendetta“ Berühmtheit in der Popkultur und ist ein Symbol des Putsches, historisch bedingt durch den Kanonenpulverplot gegen das britische Parlament.

Die Maske steht außerdem in Verbindung zur Gruppe Anonymous, die seit den frühen 2000ern vage organisiert für soziale Gerechtigkeit steht bzw. stand. Anonymous sind eher digitale Whistleblower, die sich vor Jahren einen Streit mit Scientology lieferten.

Beispiele einzelner bekannter Hacker

Die meisten Hacker bleiben anonym

Einer der Urväter des Hackings ist der US-Amerikaner Kevin Mitnick, in den frühen 80ern hackte er sich ins nordamerikanische Verteidigungsnetzwerk NORAD, später verkaufte er Sicherheitslücken an Meistbietende.

Ein klassisches Beispiel für einen „White Hat“ ist der Amerikaner Adrian Lamo, der aufgrund seiner minimalistischen Ausrüstung und seines Auftretens mit nichts als einem Rucksack auch obdachloser Hacker genannt wurde. Lamo manipulierte etwa Presseartikel und kontaktierte seine Opfer, bisweilen beseitigte er den von ihm zugefügten Schaden sogar.

Deutlich gefährlicher wurde es etwa im Falle des Hackers ASTRA. Ein griechischer Mathematiker, dessen Identität nie öffentlich wurde, erbeutete Software und Datensätze zu Waffentechnologien, die er verkaufte – 2008 wurde er allerdings verhaftet.

Kein System ist sicher

Hacker rein moralisch zu beurteilen ist zu kurz gegriffen. Die teils legale, teils illegale und teils in der Grauzone befindliche Arbeit am Computer ist ein komplexes Feld. Deswegen sollte Hacking keinesfalls auf CyberkriminalitätPhishing und Trojaner reduziert werden.

Vielmehr geht es bei dem Begriff des Computerhackers – ohne Wertung – um die kreative Ausnutzung von Sicherheitslücken, Schwachstellen und Exploits (also ausnutzbaren Fehlern). Diese Denkweise ist, solange kein Schaden entsteht, wichtig für die Softwareoptimierung und die Sicherheit jedes Einzelnen am Computer.

Doch natürlich ist Hacking ein stetes Spannungsfeld zwischen Lausbubenstreich, Freiheitsstreben, böswilligen Angriffen und koordiniertem Aktivismus. Aber so ist dies natürlich nicht nur beim Computerhacking, sondern bei allen kreativen Strategien, die neue Prozesse zu erkunden suchen.