Storage Spaces direct (S2D) ist ein System von Microsoft, mit dem skalierbarer softwaredefinierter Speicher realisiert wird. Es handelt sich um eine Funktion für die Betriebssysteme Windows Server 2016 und 2019 Datacenter. Dabei wird ein Cluster aus den physikalischen Speichermedien der eingebundenen Server erstellt und logischer Speicherplatz gebildet. Dieser ist hochverfügbar und kann unkompliziert erweitert werden.

Wie funktioniert Storage Spaces direct im Detail?

Direkte Speicherplätze, wie Storage Spaces direct (S2D) in deutschsprachigen Programmversionen heißt, nutzt das Prinzip der Virtualisierung. Aus den physikalischen Speichermedien, egal ob Festplatte, SSD oder NVM, wird ein Verbund gebildet. Der schnellste verfügbare Speicher wird dabei automatisch als Cache genutzt. In einer Abstraktionsschicht sorgt das Cluster Shared Volumes Filesystem (CSVFS) dafür, dass der gesamte Speicherbereich logisch wie ein Laufwerk verwaltet werden kann. Die Funktionalität der Dateiverwaltung wird optional durch das bekannte Desktop-Dateisystem NTFS oder ReFS, das spezielle Server-Dateisystem von Microsoft, gewährleistet. Microsoft empfiehlt die Verwendung von ReFS. Der Speicherplatz kann danach zentral verwaltet werden. Dies ist das Prinzip des softwarebasierten Speichers, dem Software-Defined Storage. Die Einrichtung und Verwaltung ist mit der integrierten Microsoft Powershell möglich.

Vorteile von Storage Spaces direct

Das System Storage Spaces direct (S2D) ist direkt in die neuen Server-Betriebssysteme integriert. Hierdurch ist eine reibungslose Einbindung gewährleistet. Aus einer gewachsenen, heterogenen Server-Landschaft kann ein einheitlicher Speicher gebildet werden, der für alle eingebundenen System verfügbar ist. Dieser ist in der Folge auch zentral administrierbar.

Das System ist zudem skalierbar. Mit wenigen Befehlen können nachträglich weitere Komponenten hinzugefügt oder ausgetauscht werden.

Ein bedeutendes Merkmal ist die Ausfallsicherheit. Hier unterscheidet man zwischen der Einzelparität, die einem RAID-5 gleicht und dadurch nur 50 Prozent des physikalischen Speichers nutzen kann und der dualen Parität. Diese ähnelt dem RAID-6 und die Effizienz steigt mit der Anzahl der eingebundenen Hardware-Speichermedien auf bis zu 80 Prozent.

Zudem verwendet Microsoft eine Technik mit Namen Local Reconstruction Codes (LRC). Dabei werden innerhalb der eingebundenen Medien kleinere Gruppen gebildet, damit der Aufwand zur Wiederherstellung nicht auf den gesamten Speicher angewendet werden muss, sondern nur auf die lokal betroffenen Bereiche. Zur Steigerung der Effizienz kann zudem parallel Spiegelung für Teile des Speichers verwendet werden. Dieser Speicher wird dann vorrangig für Schreibvorgänge genutzt und die Daten erste später in andere Speicherbereiche verschoben.

Nachteile von S2D

Storage Spaces direct (S2D) ist an die entsprechenden Server-Lizenzen gebunden. Das bedeutet, dass alle eingebundenen Systeme auch über eine Lizenz für Windows Server 2016 oder 2019 Datacenter verfügen müssen. Das verursacht Kosten von etwa 5000 Euro pro Server, der in den Verbund aufgenommen werden soll. Insbesondere wenn es vorrangig um eine File-Server-Funktionalität geht, gibt es günstigere Alternativen. Bei Nutzung als Plattform für virtuelle Maschinen, müssen die Kosten anderer kommerzieller Anbieter gegenübergestellt werden.

Alternativen zu Storage Spaces direct

Eine ähnliche Funktionalität wie Storage Spaces direct (S2D) bietet das 2012 vorgestellte Ceph. Das System wird unter der GNU-General Public License angeboten und ist damit kostenfrei. An der Weiterentwicklung arbeiten namhafte Firmen. So sind beispielsweise die Hardware-Herstellern CISCO, Fujitsu und Intel sowie Linux-Distributoren, wie Red Hat, SuSE und Canonical (Entwickler von Ubuntu) beteiligt. Es ist allerdings nur unter Linux lauffähig.

Früher war 3DES eine der bekanntesten und beliebtesten Formen der Verschlüsselung. Der Verschlüsselungsalgorithmus basiert auf dem für die US-Regierung entwickelten DES-Algorithmus, den ab den 1980er-Jahren so gut wie alle Hersteller in ihren Programmen hatten.

3DES – Definition

Bei 3DES handelt es sich um einen Verschlüsselungsalgorithmus. Obwohl es offiziell als Triple Data Encryption Algorithm (3DEA) bekannt ist, wird dieser Verschlüsselungsalgorithmus am häufigsten als 3DES bezeichnet. Dies liegt daran, dass der 3DES-Algorithmus die DES-Verschlüsselung (Data Encryption Standard) dreimal verwendet, um zu sichernde Daten zu verschlüsseln.

DES ist ein Symmetric-Key-Algorithmus, der auf einem Feistel-Netzwerk basiert. Als symmetrische Key-Verschlüsselung wird dabei derselbe Schlüssel sowohl für die Verschlüsselung als auch für die Entschlüsselung verwendet. Das Feistel-Netzwerk macht diese beiden Prozesse nahezu identisch, was zu einem Algorithmus führt, dessen Implementierung effizienter ist.

DES hat sowohl eine 64-Bit-Block- als auch eine Schlüsselgröße, in der Praxis gewährt der Schlüssel jedoch nur 56-Bit-Sicherheit. 3DES wurde aufgrund der geringen Schlüssellänge von DES als sicherere Alternative entwickelt. In 3DES wird der DES-Algorithmus dreimal mit drei Schlüsseln ausgeführt. Er wird jedoch nur als sicher angesehen, wenn drei separate Schlüssel verwendet werden.

Triple DES verschlüsselt die Eingabedaten dreimal. Die drei Schlüssel werden dabei mit k1, k2 und k3 bezeichnet. Diese Technologie ist im Standard von ANSIX9.52 enthalten. Triple DES ist abwärtskompatibel mit regulärem DES.

3DES ist vorteilhaft, da es eine erheblich größere Schlüssellänge hatals die meisten anderen Verschlüsselungsmodi. Der DES-Algorithmus wurde jedoch durch den Advanced Encryption Standard des National Institute of Standards and Technology (NIST) ersetzt. Somit gilt 3DES nun als veraltet. Software, die für ihre Kompatibilität und Flexibilität bekannt ist, kann problemlos für die Triple-DES-Integration konvertiert werden. Daher ist diese Form der Verschlüsselung möglicherweise nicht annähernd so veraltet, wie von NIST angenommen.

Die Geschichte der 3DES-Verschlüsselung

Da 3DES von DES abgeleitet ist, ist es am besten, zuerst den früheren Standard, DES, zu erklären. In den 1970er-Jahren suchte das National Bureau of Standards (NBS – inzwischen in NIST umbenannt) nach einem Algorithmus, der als Standard zur Verschlüsselung sensibler, aber nicht klassifizierter Regierungsinformationen verwendet werden konnte.

Die NBS akzeptierte Vorschläge für einen Standard, der ihren Anforderungen entsprach, aber keiner der Kandidaten aus der ursprünglichen Runde setzte sich durch. Es wurden weitere Einsendungen entgegengenommen, und diesmal schickte IBM einen von seinem Team entwickelten Algorithmus durch. Die Vorlage wurde von der Luzifer-Chiffre abgeleitet, die Horst Feistel entworfen hatte.

1975 wurde der IBM-Algorithmus von der NBS als vorgeschlagener Datenverschlüsselungsstandard veröffentlicht. Die Öffentlichkeit wurde gebeten, sich zu dem Entwurf zu äußern, der einige Kritik hervorrief. Einige prominente Kryptografen behaupteten zum Beispiel, die Schlüssellänge sei zu kurz.

Zu der Zeit dachten viele in der kryptografischen Community, dass die National Security Agency (NSA) das Projekt sabotiert und sich eine Hintertür eingebaut hatte, so dass es die einzige Agency sein würde, die DES brechen könnte. Dieser Verdacht konnte jedoch nie bewiesen werden.

Trotz der anfänglichen Fragen zur Sicherheit des Algorithmus und zur Beteiligung der NSA wurde der IBM-Algorithmus 1976 als Datenverschlüsselungsstandard anerkannt. Er wurde 1977 veröffentlicht und 1983, 1988 und 1993 als Standard bestätigt. Die Notwendigkeit eines neuen Algorithmus wurde mit der Weiterentwicklung der Technologie und der Zunahme potenzieller Angriffe verstärkt.

3DES in der heutigen Zeit

Verschiedene Hackerangriffe zeigten, dass es weniger schwierig war, den Algorithmus zu brechen, als bisher angenommen. Im Jahr 1998 war Distributed.net in der Lage, DES innerhalb von 39 Tagen zu knacken.

Anfang 1999 hatte die Electronic Frontier Foundation mit Deep Crack die Zeit auf etwas mehr als 22 Stunden verkürzt.

Ein neuer Algorithmus wurde dringend benötigt. Dies war ein Problem, da es mehrere Jahre dauern würde, bis sich NIST mit dem Algorithmus, der zum Ersatzstandard wurde, dem Advanced Encryption Standard (AES), befasste.

Während die Verschlüsselung mit AES beschlossen wurde, wurde 3DES als Notlösung vorgeschlagen. Dabei wird der DES-Algorithmus dreimal mit drei separaten Schlüsseln ausgeführt. 1999 wurde DES erneut bestätigt, jedoch mit 3DES als idealem Algorithmus. Normales DES war nur in wenigen Anwendungen zulässig.

3DES entwickelte sich zu einem weit verbreiteten Verschlüsselungsalgorithmus, derheutzutage aufgrund seines hohen Ressourcenverbrauchs und seiner Sicherheitsbeschränkungen in den meisten Anwendungsfällen durch AES ersetzt wurde.

Bei einem Exploit handelt es sich um ein Computerprogramm, das Sicherheitslücken von Software-Produkten aufzeigt und deren Ausnutzung ermöglicht. Sie stellen potente Werkzeuge für Hacker und Cyberkriminelle dar, um in geschützte Computersysteme einzudringen, um Datendiebstahl und ähnliche illegale Aktivitäten zu begehen. Exploits können jedoch auch bei der Beseitigung von Schwachstellen genutzt werden.

Allgemeine Informationen

Exploits stellen systematische Wege dar, um aufgrund von Schwachstellen in Form von Programmierfehlern der Software in Computersysteme und Netzwerke einzudringen. Dabei kann es sich sowohl um rein theoretische Beschreibungen der Sicherheitslücke (Proof of Concept), als auch um ausführbare Programme zur direkten Ausnutzung der jeweiligen Sicherheitslücke handeln. Für Hacker und andere Cyberkriminelle sind sie wichtige Tools, um unbefugten Zugriff auf ein Computersystem zu erlangen und dieses nach persönlichen Wünschen zu manipulieren. Darüber hinaus werden Exploits eingesetzt, um Sicherheitsschwachstellen genau zu dokumentieren und für deren Beseitigung mittels Software-Updates und -Patches zu sorgen. In vielen Fällen machen sich Exploits sogenannte „Pufferüberläufe“ (Buffer Overflow) zunutze. Dabei handelt es sich um Programmierfehler, die es ermöglichen, Programmcode in einem nicht dafür vorgesehenen Bereich des Arbeitsspeichers auszuführen, um beispielsweise Adminrechte oder Zugriff auf geschützte Dateien und Ordner zu erhalten. Viele nutzen zudem schlecht programmierte Schnittstellen aus, mit denen eigene Codefragmente zur Ausführung gebracht werden können.

Bedeutung für Netzwerk- und Systemsicherheit

Durch den Einsatz gängiger Exploits können Computersysteme und Netzwerke auf Schwachstellen geprüft werden. Falls bereits Patches und Updates für bekannte Sicherheitslücken installiert sind, kann mit den entsprechenden Exploits die Wirksamkeit dieser Updates verifiziert werden. Neben einzelnen gibt es auch sogenannte „Exploit-Pakete“, die eine Vielzahl unterschiedlicher Schwachstellen in einem einzelnen Programm sammeln. Ein System lässt sich auf diese Weise auf eine Großzahl verschiedener Lücken prüfen. Für den Cyberkriminellen erhöht sich jedoch durch den Einsatz solcher Pakete die Wahrscheinlichkeit, dass er in ein System eindringt und dieses manipuliert.

Einteilung von Exploits nach Angriffsart und zeitlichen Aspekten

Abhängig von der eingesetzten Angriffsart und den zeitlichen Aspekten lassen sich Exploits in folgende Kategorien einteilen.

Remote-Exploits sind in erster Linie darauf ausgelegt, Schwachstellen in Netzwerksoftware auszunutzen. Sie basieren auf dem Einsatz manipulierter Datenpakete. Ein lokaler Exploit hingegen wird direkt auf dem Computersystem des Opfers ausgeführt. Eine auf den ersten Blick harmlos wirkende Datei kann beispielsweise mit einem bösartigen Codefragment versehen sein, der beim Ausführen der Datei eine Schwachstelle des Systems ausnutzt. Bei Denial-of-Service-Exploits (DoS-Exploits) wird kein eigener Programmcode auf den angegriffenen Computersystemen ausgeführt, sondern ein solcher Exploit verursacht eine Überlastung der Anwendung. Webanwendungen, die SQL-Datenbanken als Datastore verwenden, sind unter Umständen für Injection-Exploits anfällig. Ein Zero-Day-Exploit ist eine Sicherheitslücke, die erst kürzlich entdeckt wurde und die dem Hersteller des Computersystems noch nicht bekannt ist. Diese Art  ist besonders tückisch. Da sie frühestens beim ersten Angriff auf ein System entdeckt werden kann und für die kein entsprechendes Sicherheitsupdate existiert. Da die Hersteller erst einen Patch für den Exploit entwickeln müssen, erhalten die Angreifer mehr Zeit, um eine größere Zahl von Systemen zu infiltrieren und großen Schaden anzurichten.

Exploits als Hacker Tools

Exploits werden in vielen Fällen zusammengepackt, sodass der Hacker ein System auf eine große Zahl von Sicherheitslücken prüfen kann. Sollten eine oder mehrere Sicherheitslücken entdeckt werden, kommen die entsprechenden Exploits zum Einsatz. Solche Pakete verwenden zudem clevere Verschlüsselungsverfahren wie die sogenannte „Code-Obfuskation“, um es Sicherheitsforschern zu erschweren, ihre Funktionsweise nachzuvollziehen. Zu den bekanntesten und meistgenutzten Paketen gehören:

–     Neutrino: Hierbei handelt es sich um ein russisches Kit, das einige für die Java-Plattform enthält.

–     Nuclear Pack: Dieser  befällt seine Opfer mit PDF– und Java-Exploits und infiziert befallene Computer auch mit dem tückischen Bank-Trojaner „Caphaw“.

–     Blackhole Kit: Hierbei handelt es sich um eine der größten Gefahren des Jahres 2012, die ältere Browser-Versionen von Chrome, Firefox, Safari und Internet Explorer  Millionen von Rechnern infiziert hat.

–     Angler: Bei diesem handelt es sich um eines der hoch entwickelsten Kits, die auf dem Underground-Markt erhältlich sind.

Schutzmaßnahmen

Um sich  zu schützen, sollten regelmäßig veröffentlichte Patches und Updates auf das Computersystem installiert werden. So können Sie sicherstellen, dass der Rechner vor bereits bekannten Exploits geschützt ist und dass Sicherheitslücken geschlossen sind. Es können Firewalls, leistungsstarke Virenscanner, oder Intrusion Detection und Intrusion Prevention Systeme eingesetzt werden, die Hacker-Angriffe rechtzeitig erkennen und ungewollten Datenverkehr aus dem Internet automatisch unterbinden. Das Ausnutzen bisher unbekannter Sicherheitsprobleme durch Zero-Day-Exploits lässt sich jedoch kaum verhindern. Diese Hacker-Angriffe lassen sich nur dann abwehren, wenn bei der Programmierung der Anwendungen hohe Qualitätskriterien beachtet wurden. Durch durchdachte Testverfahren und ein hohes Maß an Sorgfalt können Design- und Programmierfehler bereits während der Entwicklungsphase entdeckt und behoben werden.

Der ROM Speicher – Entwicklung und Funktion

Die Bezeichnung ROM ist Ihnen sicher schon begegnet. Die CD-ROM trägt es in ihrem Namen. Die schon versierteren PC-Nutzer unter Ihnen kennen auch ROM in ihren PCs. Dort gibt es aber auch RAM. Wir bringen Klarheit in die Welt der IT-Kürzel.

Der „Nur-Lese-Speicher“

Die drei Buchstaben stehen für Read-Only-Memory. Er kennzeichnet einen Datenspeicher. Auf diesen wird im normalen Arbeitsbetrieb, etwa in einem PC, nur „lesend“ zugegriffen. Es werden die auf dem Medium gespeicherten Daten abgerufen. Diese Daten sind fest gespeichert und dafür nicht auf Stromzufuhr angewiesen. Das erklärt auch die eingangs erwähnte Bezeichnung für die Daten CD. Diese enthalten auf einer Kunststoffscheibe Daten in Form von winzigen und sich abwechselnden Erhöhungen und Vertiefungen, sogenannte pits und lands. Diese Codierungen werden mittels eines Lasers ertastet und übersetzt, etwa in Musik. Die klassische CD-ROM wird auch nur gelesen. Wenn Sie eine CD beschreiben, in dem Sie etwa Musik darauf „brennen“, ist diese jetzt eine CD-R. Hier steht R dann für rewriteable. Das bedeutet beschreibbar.

Speicher des BIOS

Diese weitere und sehr häufig auftauchende Abkürzung BIOS steht für Basic Input Output System. Dieses Kernstück eines Computers erkennt und verwaltet alle Komponenten eines PC. Es beinhaltet eine unveränderliche Software. Sie ist auch beim Starten des PC notwendig. Die Information bleibt auch ohne Stromzufuhr stets erhalten. Sie kann nur durch Austausch des Chips oder mittels von außen durchgeführter Umprogrammierung verändert werden.

Das macht auch den Unterschied zum erwähnten Begriff RAM aus. Dies ist der Arbeitsspeicher, der vollständig Random Access Memory heißt. Dieser Speicher mit freiem Zugriff, so die Bedeutung, wird als Ablageplatz für die Zeit der Verarbeitung abgelegt. Während ROM also nur ausgelesen werden kann, wird RAM auch beschrieben und als Zwischenspeicher benutzt.

Weitere Inhalte des ROM

Nicht nur das BIOS ist also im Nur-Lese-Speicher festgeschrieben und gesichert. Weitere Programme haben hier Ihren Platz:

Setup CMOS:

Dies bezeichnet die erkennbare Anzeige beim Startvorgang des PC. Die Systemparameter können damit verändert werden.

Bootlader:

Dies Programm, auch Urlader oder Startprogramm genannt, lädt das Betriebssystem in den Arbeitsspeicher RAM und startet dieses.

Power-On Self Test POST:

Dieses Programm wird automatisch beim Starten des Rechners ausgeführt und testet dabein das System.

Wie ein ROM im PC funktioniert

ROM ist als Basisbaustein eines PC zu verstehen, der fest vorprogrammiert ist. Diese Programmierung kann mehr oder weniger reversibel sein. Der lesende Zugriff ähnelt aber dem auf RAM oder Festplatte. Die Leistungsfähigkeit eines ROM Chip ergibt sich aus der Anzahl sogenannter Adresspins, von denen abgelesen werden kann. So hat ein 64-kb-ROM 216 = 65536 Adressen. An jede Adresse können 8 Bit gespeichert werden. ROM arbeiten bei einer Zugriffszeit von 150 Nanosekunden langsamer als RAM Speicher. Dieser weist Zugriffszeiten von 10 Nanosekunden auf.

Um einen PC Start schneller durchführen zu können, wird ein sogenanntes Shadowing durchgeführt. Wichtige ROM Befehle werden dann auf den schnelleren RAM Speicher „phantomgespeichert“.

Verschiedene Arten

Heute veraltete Speicher der ersten Generationen bekamen ihre Daten per Maske auf eine Siliziumplatte geschrieben

PROM Speicher

Mit den 1980er Jahren wurden ROM programmierbar durch ein Speichersystem, das aus Dioden bestand. Das P steht für programmable.

EPROM

PROMs, die auch gelöscht werden können, bekamen noch ein E für erasable dazu. Das Löschen funktionierte durch ultraviolette Strahlung, die gespeicherte Bits auf den Zustand 1 stellen.

EEPROM

EPROMs, die ganz einfach auch im PC elektronisch gelöscht werden können, bekamen noch ein E vorgestellt für electrically. Mit ihnen werden überwiegend Konfigurationsdaten gespeichert.

ROM Flash

Flash Speicher nutzen prob Bit statt zwei bis drei Transistoren nur einen. Sie können daher kompakter mehr Daten speichern und werden für komplexe Informatikprogramme genutzt.

 

 

Was ist eine Telefonanlage?

Telefonanlagen im Wandel – von Telefonisten zur Cloud-Telefonie

Telefonanlagen vereinfachten und beschleunigten schon lange vor dem Internet die Kommunikation. Mobile Telefonie ist auf dem Vormarsch. Dennoch sind Festnetzanschlüsse in 85 % der Haushalte zu finden. Vor allem junge Menschen verzichten immer häufiger auf eine Telefonanlage, auch Telekommunikationsanlage (TK-Anlage). In Zeiten von Smartphones, Instant Messaging und Sprachnachrichten werden sich Telefonanlagen wandeln. Welche Möglichkeiten bieten TK-Anlagen? Was steckt hinter VoIP und SIP? Und warum haben ISDN-Anlagen endgültig ausgesorgt?

Was ist eine Telefonanlage?

Herkömmliche TelefonanlageDie Zentrale, die alle eingehenden, ausgehenden und internen Telefonate verwaltet, wird als Telefonanlage (TK-Anlage) bezeichnet. Ein kurzer Blick auf die Geschichte der Telefonanlage zeigt, dass innerhalb von weniger als 100 Jahren viel passierte. Während sich kaum jemand an Telefonisten erinnert, deren Job in den 1930ern darin Bestand, dass Anrufer und Angerufener per Steckverbindung zueinander fanden, ist das durchringende Geräusch, das man am Hörer vernehmen konnte, wenn jemand mit dem 56K-Modem im Internet surfte, mehr Personen bekannt. Mit ISDN-Telefonie war es möglich, dass mehr als ein Teilnehmer per Telefon oder Computer Kontakt zur Außenwelt aufnahmen. Später diente das Session Initiation Protocol (SIP) dazu, die Bedingungen für ein Telefonat vollautomatisch zu bestimmen und moderne VoIP-TK-Anlagen ermöglichten den Verzicht auf herkömmliche Festnetzanschlüsse.

Wichtige Funktionen von Telefonanlagen

Ein privates Gespräch bietet den schnellen und klaren Austausch von Informationen. Die meisten Funktionen einer TK-Anlage werden erst in größeren Netzwerken mit mehreren Teilnehmern, wie in Unternehmen oder Callcentern genutzt. Welche Funktionen sind die beliebtesten und werden am meisten verwendet?

Parken, Halten

Ein Anrufer benötigt eine Auskunft, für die ein Kollege gefragt werden muss? Die Kinder spielen Fußball und die teure Vase, ein Erbstück der Urgroßmutter, steht im Schussfeld? Mit der Funktion Parken wird der Anrufer stumm und in der Leitung gehalten. Die Gesprächspartner können nun nicht mehr hören, was am anderen Ende passiert, bis alle Informationen eingeholt und Probleme geklärt sind. Auf Knopfdruck wird das Gespräch weitergeführt.

Weiterleiten, Verbinden

In einer Gruppe von Telefonen, die mit derselben Nummer erreichbar sind, oder wenn Anrufer sich verwählt haben, werden die Funktionen „Weiterleiten und Verbinden“ genutzt. Dafür werden die Anrufer zunächst gehalten, der gewünschte Gesprächspartner angewählt und das Gespräch verbunden. Vor dem Weiterleiten des Anrufers bietet die Telefonanlage die Möglichkeit, die Wunschperson des Anrufers kurz über das Gespräch zu informieren und den Anrufer dann entweder durchzustellen oder zurückzunehmen.

Heranholen

Ein anderes Telefon im Netz klingelt und die zugehörige Person ist grade nicht am Platz? Durch das Heranholen, auch Pickup, kann der Anrufer auf das eigene Telefon geholt werden. Die Funktion wird vor allem dann genutzt, wenn ein Kollege grade kurz nicht am Platz ist. Bei längerer Abwesenheit werden automatische Umleitungen eingestellt.

Nachtschaltung, Umleiten

Die Funktion ermöglicht, dass zu Zeiten, an denen ein Anschluss nicht besetzt ist, automatisch auf eine andere Nummer umgeleitet wird. Dies passiert entweder automatisch zu bestimmten Tageszeiten oder manuell per Einstellung am Telefon. Als Nummer kann entweder ein Anschluss innerhalb der Telefonanlage, also eine interne Nummer, oder eine externe Nummer, z.B. das Mobiltelefon eines Außendienstmitarbeiters, gewählt werden.

Makeln

Beim Makeln wird zwischen zwei verschiedenen Gesprächspartnern gewechselt, ohne dass ein Gespräch beendet wird. In Büros wird diese Funktion dann genutzt, wenn ein Anrufer eine Information benötigt, die man von einer Person aus einem anderen Raum oder einem Lieferanten einholen muss. Die beiden Gesprächspartner kommunizieren dabei nicht miteinander.

Konferenz, Meeting

Wenn mehrere Teilnehmer auf einmal kommunizieren sollen, bietet die Funktion Konferenz oder Meeting die Möglichkeit, dass die Anrufer alle auf einmal verbunden werden. Videokonferenzen lösen diese Funktion immer mehr ab.

Warteschlange und Music on Hold

Jeder war schon einmal in einer Warteschlange. Ob der Anruf bei einer staatlichen Einrichtung oder in einem Unternehmen, zu Stoßzeiten fallen mehr Anrufer an, als auf einmal bedient werden können. Statt ein Besetztzeichen zu hören, gelangen die Anrufer dann in eine Warteschlange. In dieser hören sie häufig eine Melodie, welche gelegentlich durch die Information unterbrochen wird, dass Gebühren für den Anruf anfallen oder man die Leitung halten soll (Please, hold the line.). Musik oder eine Melodie bieten Abwechslung für die Warteschlange. Music on Hold versichert dem Anrufer, dass die Verbindung noch besteht und das Telefon nicht auf Stumm geschaltet ist oder der Gegenüber schon mithört, ohne etwas zu sagen.

Do-not-Disturb

Obwohl der Angerufene nicht telefoniert, wird den Anrufern ein Besetztsignal gesendet. Die Funktion wird genutzt, wenn Mitarbeiter in höheren Positionen einen schlechten Tag haben oder sich wichtigen Aufgaben widmen, bei denen Sie nicht gestört werden wollen.

Der Anfang vom Ende klassischer Telefonie

Telefonanlagen ändern sich aufgrund neuer Techniken und wachsender Bedürfnisse. Immer größere Netzwerke erfordern das Handling wachsender Datenmengen und moderne MöglichkeitenFrauen mit Headset vereinfachen viele Aspekte der Telefonie und Datenübermittlung. Auf 56K-Modems folgten ISDN-Anlagen, auf diese folgen heute Voice-over-IP (VoIP-Anlagen) Telefone werden im System, so wie Computer, mit einer digitalen Adresse (einer IP) versehen und über diese kann dank VoIP telefoniert werden. Das Session Initiation Protocol (SIP) dient in diesem System der Steuerung und dem Aufbau von Sitzungen. Die Technik macht den klassischen Telefonanschluss überfällig, sodass beim Planen einer neuen Anlage nur noch der Internetanschluss berücksichtigt werden muss.

Nutzer von ISDN-Anlagen benötigen für die Umstellung meist neue Telefonanlagen oder richten eine digitale Telefonanlage in einer Cloud, einem Onlinespeicher, ein. Anrufer, interne Gespräche und die verschiedene Funktionen der klassischen TK-Anlagen werden dann von Software auf dem PC geregelt. Der Vorteil der Cloud-Telefonie besteht darin, dass keine Hardware, also Geräte für die Bewerkstelligung der Anrufe, mehr benötigt werden und sich alles auf einem Server abspielt.

Auch die Telefonie über einen Computer oder ein Notebook geht mit dieser Technik Hand in Hand. Ein mit dem Computer verbundenes Headset dient als Hörer und alle Funktionen werden per Mausklick über Software gesteuert. Die Option ist in Callcentern oder Unternehmen beliebt, da keine Telefone angeschafft werden müssen und Aspekte wie die Erhebung von Statistiken zur Telefonie mit abgedeckt sind. Die Funktion des Telefons ist dann zwar an die des Computers gekoppelt, an einem modernen Arbeitsplatz ist ein Telefonanschluss ohne PC für Informationen allerdings ohnehin nutzlos.

Goodbye Festnetz

Telefone und Festnetz werden in den nächsten Jahren nach und nach verschwinden. Der Computer und smarte Geräte lösen die Kommunikation im Privatbereich und in Unternehmen ab. Die Vorteile der Installation, die Ersparnis bei der Anschaffung und die einfache Administration der Systeme sorgt in Unternehmen für den Wandel. Im Privatbereich bieten Funktionen wie Videotelefonie oder das Versenden von Sprachnachrichten attraktive Funktionen, die das herkömmliche Telefonat bald abgelöst haben.

Switch

Mit der Spielekonsole des Japanischen Spielkonsolenherstellers hat dieser Switch nichts zu tun: Was ist ein Switch und was ist beim Kauf wichtig?

Für den Aufbau großer Computernetzwerke bietet ein Switch die beste Lösung. Da aufgrund moderner WLAN Technik Heimnetzwerke meist mit direkten Verbindungen bewerkstelligt werden, bietet sich die Verwendung von Switches entweder für Privatnutzer mit vielen Desktoprechnern und dem Bedürfnis, schnell Daten im Verbund auszutauschen oder für gewerbliche Nutzer mit dem Bedarf an unfangreichen und sicheren Netzwerken von Desktoprechnern mit LAN-Kabeln.

Was ist ein Switch?

SwitchEin Switch ist das verbindende Element für verschiedene Netzwerkrechner zueinander und zu einem Server. Die einzelnen Rechner müssen über eine Netzwerkkarte verfügen, an der ein LAN-Kabel/ Netzwerkkabel angeschlossen wird und dann die einzelnen Rechner mit den Ports der Switches verbindet.

Die Anzahl der Ports, also der freien Steckplätze, entscheidet darüber, wie viele Rechner Teil des Netzwerks sein können. Ein Switch verfügt in der Regel auch über eine Möglichkeit, mit dem DSL Modem Router verbunden zu werden.

Funktion im Vergleich zum Hub

Der bedeutendste Unterschied zu einem Hub liegt in der Möglichkeit Daten zu filtern und die einzelnen Netzwerkrechner anhand ihrer Netzwerkkennung zu unterscheiden: Das bedeutet im Detail, dass Datenpakete nicht mehr an alle Teilnehmer des Netzwerkes gesendet werden und die Empfänger sich die Daten herausfiltern, die für Sie bestimmt sind, wie es bei Verbindungen mit dem Hub der Fall ist. Das Netzwerk wird so effektiver und kann schneller größere Datenmengen bewerkstelligen.

Worauf sollte beim Kauf geachtet werden?

Für Netzwerkanfänger bieten einige Leistungskennziffern die Möglichkeit, das für Sie passende Gerät zu finden.

Anzahl Ports

Die Anzahl der Ports determiniert, wie viele Computer mit einem Gerät verbunden werden können. Während kleine Geräte Platz für bis zu 24 Einzelcomputer bieten, finden sich im Handel so genannte Rackmount Switches, die bis zu 96 freie Ports für Rechner und entsprechende Leistungsmerkmale bieten.

Rack oder Desktop?

Desktop Lösungen bieten sich für kleinere Netzwerke an, während Rack-Lösungen dafür vorgesehen sind, in Server-Racks eingebaut zu werden. Der Einbau in Server-Racks ist oft nur notwendig, wenn mehrere Geräte kombiniert werden sollen und Netzwerke sehr viele verschiedene Teilnehmer haben.

Um die Leistungen effektiv zu vergleichen, sollten die Ausgangswerte genommen und durch die Anzahl der Ports dividiert werden. So erhält man einen einfachen Vergleich für den ersten Überblick ähnlicher Geräte.

Leistung

Die Leistung der Switches wird anhand mehrerer Kennziffern gemessen. Man unterscheidet zwischen Switch-Kapazität, Paket-Weiterleitungsrate, Frame-Größe und MAC-Adressen.

Switch-Kapazität

Diese Kennziffer gibt an, welche Datenmengen pro Sekunde bewältigt werden können und wird in Gb/s gemessen. Während kleine Netzwerke in Büros meist mit Leistungen bis zu 10 Gb/s arbeiten können, um einfache Daten auszutauschen, erfordern Grafikanwendungen und Games Switch-Kapazitäten von bis zu 56 Gb/s und 176 Gb/s für gute Rack-Mount Lösungen.

Paket-Weiterleitungsrate

Die Weiterleitungsrate gemessen in Mpps gibt an, wie viele Millionen Datenpakete pro Sekunde vom Gerät verarbeitet werden können. Auch hier variieren die Größen von etwa 7,5 Mpps bei den günstigsten Geräten für Netzwerke mit bis zu 5 Rechnern und geringen Anforderungen, z.B. beim Austausch von Textdateien und kleinen Bildern, bis hin zu 112 Mpps bei Geräten für den größeren Bedarf.

Framesgröße

Der Jumbo-Frames Size gibt an, wie groß Datenpakete geschnürt werden können. Erforderlich wird dies bei Servern, bei denen große Mengen Daten z.B. bei der Sicherung aufkommen. Umso größer der Wert in Bytes, umso effektiver der Datenaustausch und umso geringer die Auslastung der einzelnen Komponenten im Netzwerk.

MAC-Adressen

MAC-Adressen sind die Kennungen einzelner Komponente im Netzwerk. Umso größer das Netzwerk sein soll, umso größer ist das Aufkommen verschiedener MAC-Adressen, die der Switch für die Zuordnung speichern muss. Die Mögliche Anzahl von MAC-Adressen ist in der Regel so abgestimmt, dass es nicht zu Engpässen kommen kann: Ein Einstiegsgerät hat bereits Platz für 4 k MAC-Adressen.

PoE

Power-over-Ethernet bedeutet, dass der Switch die Elektrizität über das Ethernetkabel bezieht. Das hat den Vorteil, dass kein bedarf an einem Steckdosenplatz anfällt und spielt bei der Planung größerer Switch-Verbände eine Rolle.

Verwaltbar

Bei einem verwaltbaren Gerät lassen sich verschiedene Einstellungen manuell vornehmen. Während für die private Anwendung oder bei der Verwendung in kleinen Netzwerken nicht verwaltbare Lösungen für Anfänger anbieten, sind bei größeren Racks und aufwändigen Lösungen Faktoren der Verwaltbarkeit von Bedeutung.

Ein Switch bietet die Möglichkeit der Vernetzung größerer Netzwerkstrukturen mit optimalen Leistungsmerkmalen und maximaler Einflussnahme. Für die Pflege großer Netzwerke ist ein Fachmann bereits bei der Planung notwendig und kommt zum Einsatz, um z.B. Fehler im Netzwerk zu beheben. Für private Anwender genügen kleine Lösungen vom Gerät mit bis zu acht Ports oder einem WLAN Switch.