Früher war 3DES eine der bekanntesten und beliebtesten Formen der Verschlüsselung. Der Verschlüsselungsalgorithmus basiert auf dem für die US-Regierung entwickelten DES-Algorithmus, den ab den 1980er-Jahren so gut wie alle Hersteller in ihren Programmen hatten.

3DES – Definition

Bei 3DES handelt es sich um einen Verschlüsselungsalgorithmus. Obwohl es offiziell als Triple Data Encryption Algorithm (3DEA) bekannt ist, wird dieser Verschlüsselungsalgorithmus am häufigsten als 3DES bezeichnet. Dies liegt daran, dass der 3DES-Algorithmus die DES-Verschlüsselung (Data Encryption Standard) dreimal verwendet, um zu sichernde Daten zu verschlüsseln.

DES ist ein Symmetric-Key-Algorithmus, der auf einem Feistel-Netzwerk basiert. Als symmetrische Key-Verschlüsselung wird dabei derselbe Schlüssel sowohl für die Verschlüsselung als auch für die Entschlüsselung verwendet. Das Feistel-Netzwerk macht diese beiden Prozesse nahezu identisch, was zu einem Algorithmus führt, dessen Implementierung effizienter ist.

DES hat sowohl eine 64-Bit-Block- als auch eine Schlüsselgröße, in der Praxis gewährt der Schlüssel jedoch nur 56-Bit-Sicherheit. 3DES wurde aufgrund der geringen Schlüssellänge von DES als sicherere Alternative entwickelt. In 3DES wird der DES-Algorithmus dreimal mit drei Schlüsseln ausgeführt. Er wird jedoch nur als sicher angesehen, wenn drei separate Schlüssel verwendet werden.

Triple DES verschlüsselt die Eingabedaten dreimal. Die drei Schlüssel werden dabei mit k1, k2 und k3 bezeichnet. Diese Technologie ist im Standard von ANSIX9.52 enthalten. Triple DES ist abwärtskompatibel mit regulärem DES.

3DES ist vorteilhaft, da es eine erheblich größere Schlüssellänge hatals die meisten anderen Verschlüsselungsmodi. Der DES-Algorithmus wurde jedoch durch den Advanced Encryption Standard des National Institute of Standards and Technology (NIST) ersetzt. Somit gilt 3DES nun als veraltet. Software, die für ihre Kompatibilität und Flexibilität bekannt ist, kann problemlos für die Triple-DES-Integration konvertiert werden. Daher ist diese Form der Verschlüsselung möglicherweise nicht annähernd so veraltet, wie von NIST angenommen.

Die Geschichte der 3DES-Verschlüsselung

Da 3DES von DES abgeleitet ist, ist es am besten, zuerst den früheren Standard, DES, zu erklären. In den 1970er-Jahren suchte das National Bureau of Standards (NBS – inzwischen in NIST umbenannt) nach einem Algorithmus, der als Standard zur Verschlüsselung sensibler, aber nicht klassifizierter Regierungsinformationen verwendet werden konnte.

Die NBS akzeptierte Vorschläge für einen Standard, der ihren Anforderungen entsprach, aber keiner der Kandidaten aus der ursprünglichen Runde setzte sich durch. Es wurden weitere Einsendungen entgegengenommen, und diesmal schickte IBM einen von seinem Team entwickelten Algorithmus durch. Die Vorlage wurde von der Luzifer-Chiffre abgeleitet, die Horst Feistel entworfen hatte.

1975 wurde der IBM-Algorithmus von der NBS als vorgeschlagener Datenverschlüsselungsstandard veröffentlicht. Die Öffentlichkeit wurde gebeten, sich zu dem Entwurf zu äußern, der einige Kritik hervorrief. Einige prominente Kryptografen behaupteten zum Beispiel, die Schlüssellänge sei zu kurz.

Zu der Zeit dachten viele in der kryptografischen Community, dass die National Security Agency (NSA) das Projekt sabotiert und sich eine Hintertür eingebaut hatte, so dass es die einzige Agency sein würde, die DES brechen könnte. Dieser Verdacht konnte jedoch nie bewiesen werden.

Trotz der anfänglichen Fragen zur Sicherheit des Algorithmus und zur Beteiligung der NSA wurde der IBM-Algorithmus 1976 als Datenverschlüsselungsstandard anerkannt. Er wurde 1977 veröffentlicht und 1983, 1988 und 1993 als Standard bestätigt. Die Notwendigkeit eines neuen Algorithmus wurde mit der Weiterentwicklung der Technologie und der Zunahme potenzieller Angriffe verstärkt.

3DES in der heutigen Zeit

Verschiedene Hackerangriffe zeigten, dass es weniger schwierig war, den Algorithmus zu brechen, als bisher angenommen. Im Jahr 1998 war Distributed.net in der Lage, DES innerhalb von 39 Tagen zu knacken.

Anfang 1999 hatte die Electronic Frontier Foundation mit Deep Crack die Zeit auf etwas mehr als 22 Stunden verkürzt.

Ein neuer Algorithmus wurde dringend benötigt. Dies war ein Problem, da es mehrere Jahre dauern würde, bis sich NIST mit dem Algorithmus, der zum Ersatzstandard wurde, dem Advanced Encryption Standard (AES), befasste.

Während die Verschlüsselung mit AES beschlossen wurde, wurde 3DES als Notlösung vorgeschlagen. Dabei wird der DES-Algorithmus dreimal mit drei separaten Schlüsseln ausgeführt. 1999 wurde DES erneut bestätigt, jedoch mit 3DES als idealem Algorithmus. Normales DES war nur in wenigen Anwendungen zulässig.

3DES entwickelte sich zu einem weit verbreiteten Verschlüsselungsalgorithmus, derheutzutage aufgrund seines hohen Ressourcenverbrauchs und seiner Sicherheitsbeschränkungen in den meisten Anwendungsfällen durch AES ersetzt wurde.

Damit ein Computer funktioniert, benötigt er mehrere aufeinander abgestimmte Komponenten, ein Betriebssystem und Anwendungsprogramme. RAM ist ein Begriff, der in diesem Zusammenhang häufig genannt wird. Was RAM ist, wie er funktioniert und wozu er in einem Computer verwendet wird, erfahren Sie im folgenden Beitrag.

RAM ist die Abkürzung für „Random Access Memory“ und bezeichnet den schnellen Arbeitsspeicher in einem Computer oder Smartphone. „Random Access“ bedeutet wahlfreier oder direkter Zugriff. Auf die im RAM gespeicherten Daten kann direkt über die Adresse des Speicherplatzes zugegriffen werden. RAM wird daher auch als Direktzugriff-Speicher bezeichnet. Allgemein gebräuchlich ist jedoch die Bezeichnung Arbeitsspeicher. RAM ist ein flüchtiger Speicher. Die gespeicherten Daten gehen verloren, wenn der Strom abgeschaltet wird.

Wozu wird RAM benötigt?

Der Arbeitsspeicher eines Computers wird als Zwischenablage für häufig benötigte Daten verwendet. Beim Hochfahren eines Computers werden zunächst häufig verwendete Daten des Betriebssystems im RAM gespeichert. Sobald ein Programm, beispielsweise ein Office Programm oder ein Browser geöffnet wird, speichert das System ebenfalls häufig benutzte Daten der Programme im Arbeitsspeicher. Während des Betriebs werden von den benutzten Programmen und vom Betriebssystem selbst temporärer Daten erzeugt, die im RAM zwischengespeichert werden. Dadurch, dass wichtige Daten verschiedener Programme im RAM zwischengespeichert werden, ist sogenanntes Multitasking, die gleichzeitige Nutzung mehrerer Programme möglich. Zudem kann praktisch ohne Verzögerung zwischen mehreren Anwendungsprogrammen gewechselt werden.

Der Bedarf an Arbeitsspeicher für Betriebssysteme und Softwareprogramme hat sich im Laufe der Jahre deutlich erhöht. Für das Windows XP Betriebssystem waren minimal nur 64 MByte RAM erforderlich. Windows 7 benötigte in der 32-Bit Version mindestens 1 Gigabyte RAM und in der 64-Bit Version mindestens 2 Gigabyte Arbeitsspeicher. Für Windows 10 sind mindestens 2 GB RAM, besser jedoch 4 Gigabyte erforderlich, um flüssig funarbeiten zu können.

Funktionsweise

Ähnlich wie ein Mikroprozessor ist ein RAM-Speicherchip eine sogenannte integrierte Schaltung (Integrated Circuit, IC), die aus Millionen Transistoren und Kondensatoren besteht. Je mindestens ein Transistor und ein Kondensator bilden eine Speicherzelle. In jeder Speicherzelle kann ein einzelnes Datenbit – eine 0 oder eine 1 – gespeichert werden. Der Kondensator speichert elektrische Ladung in Form von Elektronen. Wenn ein Kondensator geladen ist, entspricht dies dem Wert 1. Ein leerer, nicht geladener Kondensator entspricht dem Wert 0. Der Transistor wird als Schalter benutzt, um den Ladungszustand des Kondensators zu lesen oder seinen Zustand zu ändern.
Mehrere dieser Speicherzellen sind in Zeilen, den sogenannten „Pages“ organisiert. Der Arbeitsspeicher ist über ein sogenanntes Bussystem mit dem Prozessor des Computers, der CPU, verbunden. Über das Bussystem werden Daten und die Informationen darüber, an welcher Stelle die Daten gespeichert sind, zwischen Prozessor und Arbeitsspeicher ausgetauscht. Ein kleiner Bereich eines RAM-Speicherchips wird als sogenannter Cache-Speicher verwendet. Dieser Teil ist direkt mit dem Prozessor verbunden. Dadurch ist ein sehr schneller Zugriff möglich. Der Cache-Speicher wird verwendet, um Daten zu speichern, die vom Prozessor besonders häufig benötigt werden. Die Speicherung im Cache erfolgt immer nur für kurze Zeit. Seltener genutzte Daten werden immer durch häufiger verwendete Daten ersetzt.

RAM Speicherchips haben aktuell eine Speicherkapazität zwischen 0,5 und 256 GB. Meistens werden mehrere Speicherchips auf einer Platine zu einem sogenannten Speichermodul zusammengefasst. Diese Module haben je nach Chipsatz eine Speicherkapazität von 2, 4, 8, 16, 32 und mehr Gigabyte.

Hohe Datenübertragungsraten und kurze Zugriffszeiten

RAM Speichermodule werden verwendet, da die Zugriffszeiten wesentlich kürzer und die Datenübertragungsraten deutlich höher sind als bei Festplattenspeichern. Sogenannte DDR4-SDRAM (Double Data Rate Synchronous Dynamic Random Access Memory) Module der 4. Generation erreichen Datenübertragungsraten von bis zu 25.600 Megabyte (MB) pro Sekunde. Im Vergleich dazu beträgt die Übertragungsrate einer HDD maximal etwa 380 MB/s. Eine moderne SSD kann etwas über 520 MB/s pro Sekunde übertragen. Zudem sind die Zugriffszeiten bei RAM Speichermodulen mit 60 bis 70 Nanosekunden deutlich geringer als bei Festplatten mit ca. 3,5 ms und SSDs mit etwa 0,2 ms.

Was passiert, wenn der Speicher „voll“ ist?

Sobald ein Computer läuft, werden Daten im RAM zwischengespeichert. Je mehr Programme geöffnet werden und je mehr Programme – wie beispielsweise Antivirenprogramme – im Hintergrund laufen, umso mehr füllt sich der Arbeitsspeicher mit Daten. Wenn im Arbeitsspeicher kein Platz für weitere Daten ist, nutzt das Betriebssystem freien Festplattenspeicher als virtuellen Arbeitsspeicher zur Auslagerung von häufig benötigten Daten. Da Festplatten deutlich langsamer sind als RAM, verlangsamt sich die Geschwindigkeit der Programmabläufe dadurch merklich. Videos werden ruckelig abgespielt, Berechnungen bei der Bildbearbeitung dauern länger und auch das Speichern von Textdateien verzögert sich. In den meisten Computern stehen jedoch freie Steckplätze für weitere RAM-Module zur Verfügung. Der Arbeitsspeicher kann daher in der Regel ohne großen Aufwand an gestiegene Anforderungen angepasst werden.

Was ist der Unterschied zwischen ROM und RAM?

ROM ist die Abkürzung für Read Only Memory“, auf Deutsch „Nur-Lese-Speicher“. Im Gegensatz zu RAM ist ROM ein nichtflüchtiger Speicher. Informationen werden in einem ROM Speicherchip dauerhaft gespeichert. Das heißt, die gespeicherten Daten bleiben erhalten, wenn der Strom abgeschaltet wird. ROM Speicherchips werden für Daten verwendet, die sich während des Betriebs eines Computers nicht oder nur selten verändern. Häufig verwendete ROM-Bausteine sind sogenannte EEPROMs (Electrically Erasable Programmable Read-Only Memory). Diese Bausteine können mittels elektrischem Strom gelöscht und neu programmiert werden. EEPROMs werden immer dann genutzt, wenn sich die gespeicherten Daten nur selten und im geringem Umfang ändern. Sie werden beispielsweise verwendet, um die Informationen zu speichern, die benötigt werden, um einen Computer nach dem Einschalten hochzufahren.

Der ROM Speicher – Entwicklung und Funktion

Die Bezeichnung ROM ist Ihnen sicher schon begegnet. Die CD-ROM trägt es in ihrem Namen. Die schon versierteren PC-Nutzer unter Ihnen kennen auch ROM in ihren PCs. Dort gibt es aber auch RAM. Wir bringen Klarheit in die Welt der IT-Kürzel.

Der „Nur-Lese-Speicher“

Die drei Buchstaben stehen für Read-Only-Memory. Er kennzeichnet einen Datenspeicher. Auf diesen wird im normalen Arbeitsbetrieb, etwa in einem PC, nur „lesend“ zugegriffen. Es werden die auf dem Medium gespeicherten Daten abgerufen. Diese Daten sind fest gespeichert und dafür nicht auf Stromzufuhr angewiesen. Das erklärt auch die eingangs erwähnte Bezeichnung für die Daten CD. Diese enthalten auf einer Kunststoffscheibe Daten in Form von winzigen und sich abwechselnden Erhöhungen und Vertiefungen, sogenannte pits und lands. Diese Codierungen werden mittels eines Lasers ertastet und übersetzt, etwa in Musik. Die klassische CD-ROM wird auch nur gelesen. Wenn Sie eine CD beschreiben, in dem Sie etwa Musik darauf „brennen“, ist diese jetzt eine CD-R. Hier steht R dann für rewriteable. Das bedeutet beschreibbar.

Speicher des BIOS

Diese weitere und sehr häufig auftauchende Abkürzung BIOS steht für Basic Input Output System. Dieses Kernstück eines Computers erkennt und verwaltet alle Komponenten eines PC. Es beinhaltet eine unveränderliche Software. Sie ist auch beim Starten des PC notwendig. Die Information bleibt auch ohne Stromzufuhr stets erhalten. Sie kann nur durch Austausch des Chips oder mittels von außen durchgeführter Umprogrammierung verändert werden.

Das macht auch den Unterschied zum erwähnten Begriff RAM aus. Dies ist der Arbeitsspeicher, der vollständig Random Access Memory heißt. Dieser Speicher mit freiem Zugriff, so die Bedeutung, wird als Ablageplatz für die Zeit der Verarbeitung abgelegt. Während ROM also nur ausgelesen werden kann, wird RAM auch beschrieben und als Zwischenspeicher benutzt.

Weitere Inhalte des ROM

Nicht nur das BIOS ist also im Nur-Lese-Speicher festgeschrieben und gesichert. Weitere Programme haben hier Ihren Platz:

Setup CMOS:

Dies bezeichnet die erkennbare Anzeige beim Startvorgang des PC. Die Systemparameter können damit verändert werden.

Bootlader:

Dies Programm, auch Urlader oder Startprogramm genannt, lädt das Betriebssystem in den Arbeitsspeicher RAM und startet dieses.

Power-On Self Test POST:

Dieses Programm wird automatisch beim Starten des Rechners ausgeführt und testet dabein das System.

Wie ein ROM im PC funktioniert

ROM ist als Basisbaustein eines PC zu verstehen, der fest vorprogrammiert ist. Diese Programmierung kann mehr oder weniger reversibel sein. Der lesende Zugriff ähnelt aber dem auf RAM oder Festplatte. Die Leistungsfähigkeit eines ROM Chip ergibt sich aus der Anzahl sogenannter Adresspins, von denen abgelesen werden kann. So hat ein 64-kb-ROM 216 = 65536 Adressen. An jede Adresse können 8 Bit gespeichert werden. ROM arbeiten bei einer Zugriffszeit von 150 Nanosekunden langsamer als RAM Speicher. Dieser weist Zugriffszeiten von 10 Nanosekunden auf.

Um einen PC Start schneller durchführen zu können, wird ein sogenanntes Shadowing durchgeführt. Wichtige ROM Befehle werden dann auf den schnelleren RAM Speicher „phantomgespeichert“.

Verschiedene Arten

Heute veraltete Speicher der ersten Generationen bekamen ihre Daten per Maske auf eine Siliziumplatte geschrieben

PROM Speicher

Mit den 1980er Jahren wurden ROM programmierbar durch ein Speichersystem, das aus Dioden bestand. Das P steht für programmable.

EPROM

PROMs, die auch gelöscht werden können, bekamen noch ein E für erasable dazu. Das Löschen funktionierte durch ultraviolette Strahlung, die gespeicherte Bits auf den Zustand 1 stellen.

EEPROM

EPROMs, die ganz einfach auch im PC elektronisch gelöscht werden können, bekamen noch ein E vorgestellt für electrically. Mit ihnen werden überwiegend Konfigurationsdaten gespeichert.

ROM Flash

Flash Speicher nutzen prob Bit statt zwei bis drei Transistoren nur einen. Sie können daher kompakter mehr Daten speichern und werden für komplexe Informatikprogramme genutzt.

 

 

Was ist ein WLAN Controller?

Mit einem Wireless LAN Controller können Sie unabhängig vom Gerät, in dem es sich befindet, eine Reihe von Zugriffspunkten (Access Points, APs) auf vereinfachte Weise zentral verwalten und konfigurieren. Somit ermöglicht ein WLAN Controller die effiziente Verwaltung von WLAN-Netzen und deren Zugriffspunkten – vor allem wenn es vielzählige Access Points gibt.

Bei WLAN handelt es sich um eine drahtlose Architektur, die darauf abzielt, sich ändernden Netzwerkanforderungen gerecht zu werden. Ein WLAN-Controller verwaltet drahtlose Netzwerkzugriffspunkte, über die drahtlose Geräte eine Verbindung zum Netzwerk herstellen können.

WLAN-Controller sind meistens physische Geräte, die im zentralen Datenraum in einem Rack montiert sind und gleichzeitig mit jedem AP kommunizieren. Dies ermöglicht die einfache und schnelle Konfiguration mehrerer APs, ohne dass IT-Experten jeden einzelnen manuell konfigurieren müssen.

Funktionsweise

Gegenwärtig können WLAN Controller mehrere Tausend APs steuern. Auf diese Weise können Unternehmen SSIDs, die dynamische Kanalzuweisung, die Übertragungsleistung, den Sicherheitstyp, die VLAN-Zuordnung, die Kanalrichtlinie und alles andere im Zusammenhang mit drahtloser Kommunikation über eine einzige Verwaltungsschnittstelle steuern und bereitstellen.

Der WLAN-Controller ist auch dafür verantwortlich, Firmware und Konfigurationscodes an die Zugriffspunkte zu senden. Darüber hinaus verwaltet es das Roaming in den Modi Layer 2 und Layer 3 und verfolgt alle verbundenen Clients, einschließlich der MAC-Adressinformationen und des zugehörigen AP. Es ist auch der Teil des Netzwerks, der Ihren kabellosen Verkehr mit Ihrem kabelgebundenen Netzwerk verbindet.

Das System übernimmt auch das Radio Resource Management. Er sammelt alle Informationen von den APs und ermöglicht sowohl dem Administrator als auch dem drahtlosen Netzwerk selbst eine vollständige 3D-Ansicht des Netzwerks. Durch die Übernahme des Radio Resource Management steuert der WLAN Controller auch, auf welchen Kanälen die APs geschaltet sind, wie viel Sendeleistung sie haben und was bei Störungen zu tun ist.

Der WLAN-Controller ist eine reale Anwendung des Konzepts einer separaten Verwaltungs- und Datenebene. Der WLAN-Controller ist die Verwaltungsebene, und die APs arbeiten in der Datenebene. Mit dieser Trennung erreichen Unternehmen, deren WiFi über vielzählige Zugriffspunkte verfügt, die größtmögliche Effizienz.

Management und Betrieb
Dies sind die Aufgaben, die die Bereitstellung und den Betrieb des Wireless LAN-Netzwerks auf einheitliche und einfache Weise ermöglichen, ohne die gleichen Vorgänge in jedem der APs innerhalb des lokalen Netzwerks wiederholen zu müssen. Mit diesen Funktionen können Sie Probleme im Netzwerk konfigurieren, überwachen und diagnostizieren sowie Warnungen senden und empfangen, wenn Probleme erkannt werden. Um eine homogene Netzwerkleistung zu erzielen, wird in diese Gruppe auch das Betriebssystem-Update der APs aufgenommen, sodass alle dieselbe Version haben.

Aggregation und Verarbeitung des Datenverkehrs von drahtlosen Geräten wie Tablets und Smartphones
Solche Funktionen werden im WLC nicht immer ausgeführt, was hauptsächlich von der verwendeten Netzwerkarchitektur abhängt. Wenn der gesamte Datenverkehr von drahtlosen Geräten über den Controller geleitet wird, können mit diesem Datenverkehr „Dinge“ erledigt werden, z. Bsp. das Verschlüsseln sowie das Trennen des Datenverkehrs zum Senden an verschiedene Netzwerke oder das Filtern nach Prioritäten gemäß vordefinierter Qualitätsrichtlinien.

Lokale drahtlose Funktionen
Die spezifischen Merkmale der Funktechnologie machen die Verwendung von Koordinations- und Schutzmechanismen innerhalb eines bestimmten Funkspektrums für eine effizientere Nutzung in einem bestimmten lokalen Gebiet ratsam. Die Mechanismen sind hier gruppiert, sodass jeder AP einen anderen Teil des elektrischen Spektrums (Kanals) als die umliegenden verwendet. Ein WLAN Controller bietet Mechanismen zur Optimierung der Verkehrsverteilung zwischen drahtlosen Geräten und APs, zur Erkennung von Interferenzen und sogar zur geografischen Positionierung der Geräte mithilfe von Funk-Triangulationsmechanismen.

Andere „Nicht-Wi-Fi“ -Funktionen
Viele Controller verfügen auch über Funktionen, die mit der Wi-Fi-Technologie wenig oder gar nichts zu tun haben, z. Bsp. dienen sie als Druckerserver, als NAS (Network Attached Storage) oder als herkömmlicher fester LAN-Switch.

Wie zu vermuten ist, wird die Skalierbarkeit durch Hinzufügen eines WLAN-Controllers erheblich verbessert, da auf einfache Weise mehr Zugriffspunkte im Netzwerk installiert werden können und die Komplexität bei Bereitstellung und Verwaltung verringert wird.

Wer braucht einen WLAN Controller?

Für alle Unternehmen, die in ihren Gebäuden/auf ihrem Gelände 2 oder mehr Access Points zu ihrem WLAN Netzwerk verfügen, ist ein WLAN Controller empfehlenswert. Durch die Verwaltung aller Access Points als vollständiges WLAN-System bietet die Nutzung eines WLAN Controllers nicht nur maximale Skalierbarkeit, Leistung und WLAN-Steuerung. Moderne WLAN Controller sind heutzutage standardmäßig mit effizienter eingebetteter Software ausgestattet, verwenden, wie im obigen Abschnitt bereits erwähnt, Radio Resource Management (RRM) -Algorithmen, um Änderungen frühzeitig zu erkennen und notwendige Anpassungen vorzunehmen.
Unternehmen, egal ob klein, mittelgroß oder groß, profitieren vom erstellen einer selbstkonfigurierenden, selbstoptimierenden und selbstkorrigierenden WLAN-Umgebung. Diese Anpassungen erzeugen die optimale Topologie für drahtlose Netzwerke auf die gleiche Weise wie Routing-Protokolle.

Ein WLAN Controller übernimmt so viele Arbeitsschritte und Prozesse, dass IT Abteilungen spürbar entlastet werden können. In einer Welt, die ohne effiziente WLAN-Nutzung nicht so funktionieren würde, wie erfolgreiche Unternehmen es heute benötigen, sind WLAN-Controller von großer Bedeutung für die optimale Nutzung der vorhandenen Technologien.

Was ist eine Telefonanlage?

Telefonanlagen im Wandel – von Telefonisten zur Cloud-Telefonie

Telefonanlagen vereinfachten und beschleunigten schon lange vor dem Internet die Kommunikation. Mobile Telefonie ist auf dem Vormarsch. Dennoch sind Festnetzanschlüsse in 85 % der Haushalte zu finden. Vor allem junge Menschen verzichten immer häufiger auf eine Telefonanlage, auch Telekommunikationsanlage (TK-Anlage). In Zeiten von Smartphones, Instant Messaging und Sprachnachrichten werden sich Telefonanlagen wandeln. Welche Möglichkeiten bieten TK-Anlagen? Was steckt hinter VoIP und SIP? Und warum haben ISDN-Anlagen endgültig ausgesorgt?

Was ist eine Telefonanlage?

Herkömmliche TelefonanlageDie Zentrale, die alle eingehenden, ausgehenden und internen Telefonate verwaltet, wird als Telefonanlage (TK-Anlage) bezeichnet. Ein kurzer Blick auf die Geschichte der Telefonanlage zeigt, dass innerhalb von weniger als 100 Jahren viel passierte. Während sich kaum jemand an Telefonisten erinnert, deren Job in den 1930ern darin Bestand, dass Anrufer und Angerufener per Steckverbindung zueinander fanden, ist das durchringende Geräusch, das man am Hörer vernehmen konnte, wenn jemand mit dem 56K-Modem im Internet surfte, mehr Personen bekannt. Mit ISDN-Telefonie war es möglich, dass mehr als ein Teilnehmer per Telefon oder Computer Kontakt zur Außenwelt aufnahmen. Später diente das Session Initiation Protocol (SIP) dazu, die Bedingungen für ein Telefonat vollautomatisch zu bestimmen und moderne VoIP-TK-Anlagen ermöglichten den Verzicht auf herkömmliche Festnetzanschlüsse.

Wichtige Funktionen von Telefonanlagen

Ein privates Gespräch bietet den schnellen und klaren Austausch von Informationen. Die meisten Funktionen einer TK-Anlage werden erst in größeren Netzwerken mit mehreren Teilnehmern, wie in Unternehmen oder Callcentern genutzt. Welche Funktionen sind die beliebtesten und werden am meisten verwendet?

Parken, Halten

Ein Anrufer benötigt eine Auskunft, für die ein Kollege gefragt werden muss? Die Kinder spielen Fußball und die teure Vase, ein Erbstück der Urgroßmutter, steht im Schussfeld? Mit der Funktion Parken wird der Anrufer stumm und in der Leitung gehalten. Die Gesprächspartner können nun nicht mehr hören, was am anderen Ende passiert, bis alle Informationen eingeholt und Probleme geklärt sind. Auf Knopfdruck wird das Gespräch weitergeführt.

Weiterleiten, Verbinden

In einer Gruppe von Telefonen, die mit derselben Nummer erreichbar sind, oder wenn Anrufer sich verwählt haben, werden die Funktionen „Weiterleiten und Verbinden“ genutzt. Dafür werden die Anrufer zunächst gehalten, der gewünschte Gesprächspartner angewählt und das Gespräch verbunden. Vor dem Weiterleiten des Anrufers bietet die Telefonanlage die Möglichkeit, die Wunschperson des Anrufers kurz über das Gespräch zu informieren und den Anrufer dann entweder durchzustellen oder zurückzunehmen.

Heranholen

Ein anderes Telefon im Netz klingelt und die zugehörige Person ist grade nicht am Platz? Durch das Heranholen, auch Pickup, kann der Anrufer auf das eigene Telefon geholt werden. Die Funktion wird vor allem dann genutzt, wenn ein Kollege grade kurz nicht am Platz ist. Bei längerer Abwesenheit werden automatische Umleitungen eingestellt.

Nachtschaltung, Umleiten

Die Funktion ermöglicht, dass zu Zeiten, an denen ein Anschluss nicht besetzt ist, automatisch auf eine andere Nummer umgeleitet wird. Dies passiert entweder automatisch zu bestimmten Tageszeiten oder manuell per Einstellung am Telefon. Als Nummer kann entweder ein Anschluss innerhalb der Telefonanlage, also eine interne Nummer, oder eine externe Nummer, z.B. das Mobiltelefon eines Außendienstmitarbeiters, gewählt werden.

Makeln

Beim Makeln wird zwischen zwei verschiedenen Gesprächspartnern gewechselt, ohne dass ein Gespräch beendet wird. In Büros wird diese Funktion dann genutzt, wenn ein Anrufer eine Information benötigt, die man von einer Person aus einem anderen Raum oder einem Lieferanten einholen muss. Die beiden Gesprächspartner kommunizieren dabei nicht miteinander.

Konferenz, Meeting

Wenn mehrere Teilnehmer auf einmal kommunizieren sollen, bietet die Funktion Konferenz oder Meeting die Möglichkeit, dass die Anrufer alle auf einmal verbunden werden. Videokonferenzen lösen diese Funktion immer mehr ab.

Warteschlange und Music on Hold

Jeder war schon einmal in einer Warteschlange. Ob der Anruf bei einer staatlichen Einrichtung oder in einem Unternehmen, zu Stoßzeiten fallen mehr Anrufer an, als auf einmal bedient werden können. Statt ein Besetztzeichen zu hören, gelangen die Anrufer dann in eine Warteschlange. In dieser hören sie häufig eine Melodie, welche gelegentlich durch die Information unterbrochen wird, dass Gebühren für den Anruf anfallen oder man die Leitung halten soll (Please, hold the line.). Musik oder eine Melodie bieten Abwechslung für die Warteschlange. Music on Hold versichert dem Anrufer, dass die Verbindung noch besteht und das Telefon nicht auf Stumm geschaltet ist oder der Gegenüber schon mithört, ohne etwas zu sagen.

Do-not-Disturb

Obwohl der Angerufene nicht telefoniert, wird den Anrufern ein Besetztsignal gesendet. Die Funktion wird genutzt, wenn Mitarbeiter in höheren Positionen einen schlechten Tag haben oder sich wichtigen Aufgaben widmen, bei denen Sie nicht gestört werden wollen.

Der Anfang vom Ende klassischer Telefonie

Telefonanlagen ändern sich aufgrund neuer Techniken und wachsender Bedürfnisse. Immer größere Netzwerke erfordern das Handling wachsender Datenmengen und moderne MöglichkeitenFrauen mit Headset vereinfachen viele Aspekte der Telefonie und Datenübermittlung. Auf 56K-Modems folgten ISDN-Anlagen, auf diese folgen heute Voice-over-IP (VoIP-Anlagen) Telefone werden im System, so wie Computer, mit einer digitalen Adresse (einer IP) versehen und über diese kann dank VoIP telefoniert werden. Das Session Initiation Protocol (SIP) dient in diesem System der Steuerung und dem Aufbau von Sitzungen. Die Technik macht den klassischen Telefonanschluss überfällig, sodass beim Planen einer neuen Anlage nur noch der Internetanschluss berücksichtigt werden muss.

Nutzer von ISDN-Anlagen benötigen für die Umstellung meist neue Telefonanlagen oder richten eine digitale Telefonanlage in einer Cloud, einem Onlinespeicher, ein. Anrufer, interne Gespräche und die verschiedene Funktionen der klassischen TK-Anlagen werden dann von Software auf dem PC geregelt. Der Vorteil der Cloud-Telefonie besteht darin, dass keine Hardware, also Geräte für die Bewerkstelligung der Anrufe, mehr benötigt werden und sich alles auf einem Server abspielt.

Auch die Telefonie über einen Computer oder ein Notebook geht mit dieser Technik Hand in Hand. Ein mit dem Computer verbundenes Headset dient als Hörer und alle Funktionen werden per Mausklick über Software gesteuert. Die Option ist in Callcentern oder Unternehmen beliebt, da keine Telefone angeschafft werden müssen und Aspekte wie die Erhebung von Statistiken zur Telefonie mit abgedeckt sind. Die Funktion des Telefons ist dann zwar an die des Computers gekoppelt, an einem modernen Arbeitsplatz ist ein Telefonanschluss ohne PC für Informationen allerdings ohnehin nutzlos.

Goodbye Festnetz

Telefone und Festnetz werden in den nächsten Jahren nach und nach verschwinden. Der Computer und smarte Geräte lösen die Kommunikation im Privatbereich und in Unternehmen ab. Die Vorteile der Installation, die Ersparnis bei der Anschaffung und die einfache Administration der Systeme sorgt in Unternehmen für den Wandel. Im Privatbereich bieten Funktionen wie Videotelefonie oder das Versenden von Sprachnachrichten attraktive Funktionen, die das herkömmliche Telefonat bald abgelöst haben.

Switch

Mit der Spielekonsole des Japanischen Spielkonsolenherstellers hat dieser Switch nichts zu tun: Was ist ein Switch und was ist beim Kauf wichtig?

Für den Aufbau großer Computernetzwerke bietet ein Switch die beste Lösung. Da aufgrund moderner WLAN Technik Heimnetzwerke meist mit direkten Verbindungen bewerkstelligt werden, bietet sich die Verwendung von Switches entweder für Privatnutzer mit vielen Desktoprechnern und dem Bedürfnis, schnell Daten im Verbund auszutauschen oder für gewerbliche Nutzer mit dem Bedarf an unfangreichen und sicheren Netzwerken von Desktoprechnern mit LAN-Kabeln.

Was ist ein Switch?

SwitchEin Switch ist das verbindende Element für verschiedene Netzwerkrechner zueinander und zu einem Server. Die einzelnen Rechner müssen über eine Netzwerkkarte verfügen, an der ein LAN-Kabel/ Netzwerkkabel angeschlossen wird und dann die einzelnen Rechner mit den Ports der Switches verbindet.

Die Anzahl der Ports, also der freien Steckplätze, entscheidet darüber, wie viele Rechner Teil des Netzwerks sein können. Ein Switch verfügt in der Regel auch über eine Möglichkeit, mit dem DSL Modem Router verbunden zu werden.

Funktion im Vergleich zum Hub

Der bedeutendste Unterschied zu einem Hub liegt in der Möglichkeit Daten zu filtern und die einzelnen Netzwerkrechner anhand ihrer Netzwerkkennung zu unterscheiden: Das bedeutet im Detail, dass Datenpakete nicht mehr an alle Teilnehmer des Netzwerkes gesendet werden und die Empfänger sich die Daten herausfiltern, die für Sie bestimmt sind, wie es bei Verbindungen mit dem Hub der Fall ist. Das Netzwerk wird so effektiver und kann schneller größere Datenmengen bewerkstelligen.

Worauf sollte beim Kauf geachtet werden?

Für Netzwerkanfänger bieten einige Leistungskennziffern die Möglichkeit, das für Sie passende Gerät zu finden.

Anzahl Ports

Die Anzahl der Ports determiniert, wie viele Computer mit einem Gerät verbunden werden können. Während kleine Geräte Platz für bis zu 24 Einzelcomputer bieten, finden sich im Handel so genannte Rackmount Switches, die bis zu 96 freie Ports für Rechner und entsprechende Leistungsmerkmale bieten.

Rack oder Desktop?

Desktop Lösungen bieten sich für kleinere Netzwerke an, während Rack-Lösungen dafür vorgesehen sind, in Server-Racks eingebaut zu werden. Der Einbau in Server-Racks ist oft nur notwendig, wenn mehrere Geräte kombiniert werden sollen und Netzwerke sehr viele verschiedene Teilnehmer haben.

Um die Leistungen effektiv zu vergleichen, sollten die Ausgangswerte genommen und durch die Anzahl der Ports dividiert werden. So erhält man einen einfachen Vergleich für den ersten Überblick ähnlicher Geräte.

Leistung

Die Leistung der Switches wird anhand mehrerer Kennziffern gemessen. Man unterscheidet zwischen Switch-Kapazität, Paket-Weiterleitungsrate, Frame-Größe und MAC-Adressen.

Switch-Kapazität

Diese Kennziffer gibt an, welche Datenmengen pro Sekunde bewältigt werden können und wird in Gb/s gemessen. Während kleine Netzwerke in Büros meist mit Leistungen bis zu 10 Gb/s arbeiten können, um einfache Daten auszutauschen, erfordern Grafikanwendungen und Games Switch-Kapazitäten von bis zu 56 Gb/s und 176 Gb/s für gute Rack-Mount Lösungen.

Paket-Weiterleitungsrate

Die Weiterleitungsrate gemessen in Mpps gibt an, wie viele Millionen Datenpakete pro Sekunde vom Gerät verarbeitet werden können. Auch hier variieren die Größen von etwa 7,5 Mpps bei den günstigsten Geräten für Netzwerke mit bis zu 5 Rechnern und geringen Anforderungen, z.B. beim Austausch von Textdateien und kleinen Bildern, bis hin zu 112 Mpps bei Geräten für den größeren Bedarf.

Framesgröße

Der Jumbo-Frames Size gibt an, wie groß Datenpakete geschnürt werden können. Erforderlich wird dies bei Servern, bei denen große Mengen Daten z.B. bei der Sicherung aufkommen. Umso größer der Wert in Bytes, umso effektiver der Datenaustausch und umso geringer die Auslastung der einzelnen Komponenten im Netzwerk.

MAC-Adressen

MAC-Adressen sind die Kennungen einzelner Komponente im Netzwerk. Umso größer das Netzwerk sein soll, umso größer ist das Aufkommen verschiedener MAC-Adressen, die der Switch für die Zuordnung speichern muss. Die Mögliche Anzahl von MAC-Adressen ist in der Regel so abgestimmt, dass es nicht zu Engpässen kommen kann: Ein Einstiegsgerät hat bereits Platz für 4 k MAC-Adressen.

PoE

Power-over-Ethernet bedeutet, dass der Switch die Elektrizität über das Ethernetkabel bezieht. Das hat den Vorteil, dass kein bedarf an einem Steckdosenplatz anfällt und spielt bei der Planung größerer Switch-Verbände eine Rolle.

Verwaltbar

Bei einem verwaltbaren Gerät lassen sich verschiedene Einstellungen manuell vornehmen. Während für die private Anwendung oder bei der Verwendung in kleinen Netzwerken nicht verwaltbare Lösungen für Anfänger anbieten, sind bei größeren Racks und aufwändigen Lösungen Faktoren der Verwaltbarkeit von Bedeutung.

Ein Switch bietet die Möglichkeit der Vernetzung größerer Netzwerkstrukturen mit optimalen Leistungsmerkmalen und maximaler Einflussnahme. Für die Pflege großer Netzwerke ist ein Fachmann bereits bei der Planung notwendig und kommt zum Einsatz, um z.B. Fehler im Netzwerk zu beheben. Für private Anwender genügen kleine Lösungen vom Gerät mit bis zu acht Ports oder einem WLAN Switch.