Terminalserver

Ein Virtueller Server ist definiert als eine virtuelle Maschine (VM), die von einer speziellen Software auf einem physischen Server erstellt wird. Ein Virtueller Server nutzt die Ressourcen eines physischen Servers gemeinsam mit weiteren Virtuellen Servern. Die auch als VPS (Virtual Private Server) bezeichnete virtuelle Maschine stellt den Benutzern die gleichen Serverfunktionen wie ein dedizierter Server zur Verfügung.

Die Funktionsweise virtueller Server

Ein Virtueller Server ist eine Computerdatei, die meist als Image bezeichnet wird und sich wie ein realer Computer verhält. Die VM läuft wie jedes andere Programm in einem Fenster und bietet dem Endbenutzer auf einer virtuellen Maschine das gleiche Erlebnis wie auf einem physischen Server.

Die virtuelle Maschine ist vom Rest des Systems getrennt, was bedeutet, dass die Software in einer virtuellen Maschine den Computer selbst nicht manipulieren kann. Dies bietet eine ideale Umgebung zum Testen anderer Betriebssysteme oder den Zugriff auf vireninfizierte Daten. Virtuelle Server ermöglichen das Erstellen von Betriebssystemsicherungen und das Ausführen von Software oder Anwendungen auf Betriebssystemen, für die sie ursprünglich nicht vorgesehen waren.

Mehrere Virtuelle Server können gleichzeitig auf demselben physischen Computer ausgeführt werden. Bei Servern laufen die verschiedenen Betriebssysteme nebeneinander mit einer als Hypervisor bezeichneten Software. Desktop-Computer verwenden normalerweise ein Betriebssystem, um die anderen Betriebssysteme in ihren Programmfenstern auszuführen.

Jede virtuelle Maschine stellt ihre eigene virtuelle Hardware bereit, einschließlich CPUs, Arbeitsspeicher, Festplatten, Netzwerkschnittstellen und anderen Geräten. Die virtuelle Hardware wird dann der realen Hardware auf der physischen Maschine zugeordnet. Dies spart Kosten, da der Bedarf an physischen Hardwaresystemen zusammen mit den damit verbundenen Wartungskosten sowie der Strom- und Kühlungsbedarf reduziert wird.

Die Arten der Server-Virtualisierung

virtueller ServerEs gibt drei Möglichkeiten, virtuelle Server zu erstellen: vollständige Virtualisierung, Paravirtualisierung und Virtualisierung auf Betriebssystemebene. Sie alle haben einige gemeinsame Merkmale. Der physische Server wird als Host bezeichnet. Die virtuellen Server werden als Gäste bezeichnet. Die virtuellen Server verhalten sich wie physische Maschinen. Jedes System verwendet einen anderen Ansatz, um physische Serverressourcen den Anforderungen virtueller Server zuzuweisen.

Die vollständige Virtualisierung

Bei der vollständigen Virtualisierung wird eine spezielle Art von Software verwendet, die als Hypervisor bezeichnet wird. Der Hypervisor interagiert direkt mit der CPU und dem Festplattenspeicher des physischen Servers. Es dient als Plattform für die Betriebssysteme der virtuellen Server. Der Hypervisor hält jeden virtuellen Server vollständig unabhängig von den anderen virtuellen Servern, die auf dem physischen Computer ausgeführt werden. Jeder Gastserver läuft auf einem eigenen Betriebssystem – User können sogar einen Gast unter Linux und einen anderen unter Windows ausführen.

Der Hypervisor überwacht die Ressourcen des physischen Servers. Wenn virtuelle Server Anwendungen ausführen, leitet der Hypervisor Ressourcen von der physischen Maschine an den entsprechenden virtuellen Server weiter. Hypervisoren haben ihre eigenen Verarbeitungsanforderungen, was bedeutet, dass der physische Server Verarbeitungsleistung und Ressourcen für die Ausführung der Hypervisoranwendung reservieren muss. Dies kann die allgemeine Serverleistung beeinträchtigen und Anwendungen verlangsamen.

Die Paravirtualisierung

Im Gegensatz zur vollständigen Virtualisierungstechnik kennen sich die Gastserver in einem Paravirtualisierungssystem gegenseitig. Ein Para-Virtualisierungs-Hypervisor benötigt für die Verwaltung der Gastbetriebssysteme weniger Rechenleistung, da jedes Betriebssystem bereits die Anforderungen kennt, die die anderen Betriebssysteme an den physischen Server stellen. Das gesamte System arbeitet als zusammenhängende Einheit.

Die Virtualisierung auf Betriebssystemebene

Bei einem Virtualisierungsansatz auf Betriebssystemebene wird kein Hypervisor verwendet. Stattdessen ist die Virtualisierungsfunktion Teil des Host-Betriebssystems, das alle Funktionen eines vollständig virtualisierten Hypervisors ausführt.

Die größte Einschränkung dieses Ansatzes besteht darin, dass auf allen Gastservern dasselbe Betriebssystem ausgeführt werden muss. Jeder virtuelle Server bleibt zwar unabhängig von allen anderen, Nutzer können jedoch keine Betriebssysteme miteinander kombinieren. Da alle Gastbetriebssysteme gleich sein müssen, spricht man von einer homogenen Umgebung.

Anwendung virtueller Server

TerminalserverVirtuelle Server werden zum Betrieb einer Website oder eines Onlineshops genutzt, sind aber nicht auf diese Anwendungen beschränkt. Datenbank- und E-Mail-ServicesWebapplikationen und Groupware-Services sind ebenfalls Einsatzgebiete der VPS. Im Cloud-Computing ermöglichen sie eine schnelle Skalierung bei einem erhöhten Ressourcenbedarf und die nutzungsabhängige Abrechnung der in Anspruch genommenen Hardware-Ressource.

Vor- und Nachteile virtueller Server

Durch die Verwendung virtueller Server ergeben sich verschiedene Vorteile. Die Hardware-Ressourcen werden vollständig genutzt. Durch die Verwendung der Virtualisierung werden Server in mehrere virtuelle Server aufgeteilt, von denen jeder unabhängig ist und unterschiedliche Betriebssysteme für verschiedene Anwendungen installiert.

Untersuchungen haben gezeigt, dass es kostengünstiger ist, wenige, gut ausgelastete Server zu betreiben und zu managen als viele Server, die im Durchschnitt zu weniger als 15 % ausgelastet sind. Die Servervirtualisierung ermöglicht es, Server zu konsolidieren und so die vorhandene Hardware besser zu nutzen.

Die Betriebskosten werden reduziert. Nach der Integration der Virtualisierungsplattform führt diese Technologie zu erheblichen Einsparungen, einschließlich des Server-Energieverbrauchs, des Platzbedarfs und des Energieverbrauchs der Klimaanlagen. Gleichzeitig sinkt die Anzahl der physischen Server, was die Wartung und den Betrieb des gesamten Hardwaresystems einfacher macht.

Verbesserte Sicherheit

Virtuelle Server führen zu einer Verbesserung der Sicherheit des Gesamtsystems. Ohne zusätzliche Investitionen in Hardware kann die virtuelle Plattform einige Anwendungsmodi wie Lastausgleich und Hot-Standby-System bereitstellen. Dadurch steigt die Sicherheit und Kontinuität aller Anwendungssysteme in erheblichem Maße.

Virtuelle Server verbessern die Systemflexibilität. Je nach den unterschiedlichen Anforderungen von Anwendungssystemen können Administratoren mithilfe der Virtualisierungsserverplattform den Ressourcenzustand des virtuellen Servers anpassen.

Ein virtueller Server kann die Migration zwischen physischen Servern innerhalb weniger Sekunden durchführen, und die Anwendung wird nicht unterbrochen. Der Vorteil der Virtualisierungsplattform ist unabhängig von physischer Hardware.

Kontinuität der Anwendung

Unabhängig davon, ob der Server beschädigt ist oder zur Wartung ausfällt, kann der virtuelle Server dynamisch verschoben werden, um die Kontinuität der Anwendung zu gewährleisten. Cloud-Anbieter wie Google Cloud oder Amazon Web Services nutzen diesen Vorteil und migrieren den VPS bei Hardwareproblemen auf einen anderen physikalischen Server. Das bedeutet, dass die VM in der Regel nur für kurze Zeit nicht erreichbar ist. Im Gegensatz dazu kann ein dedizierter Server bei Hardwaredefekten gegebenenfalls für mehrere Stunden ausfallen.

Durch den gleichzeitigen Betrieb mehrerer Virtueller Server auf einem physischen Server kann es bei einer hohen Auslastung jeder virtuellen Maschine zu einer instabilen Leistung der einzeln Server kommen. Generell sind Virtuelle Server beim Zugriff auf die Hardware nicht so effizient wie ein physischer Server.

Daher kann es zu kleinen Leistungseinbußen kommen, wenn mehrere Virtuelle Server versuchen, gleichzeitig auf die Ressourcen des physischen Servers zuzugreifen. Wird der Basisserver neu gestartet, müssen alle auf diesem Server laufende VM ebenfalls neu gestartet werden. Dies ist jedoch nur selten erforderlich, das die VPS vorher auf andere Server verschoben werden können.

Bei Office 365 handelt es sich um eine Kombination aus Desktop-Anwendung und Online-Service. Es sind unterschiedliche Office-Pakete erhältlich, die sich in ihrem Funktionsumfang unterscheiden und auf unterschiedliche Anforderungen zugeschnitten sind. Office 365 beruht auf einem Abo-Abrechnungsmodell. Das bedeutet, dass Sie Office 365 nicht wie eine traditionelle Desktop-Software kaufen, sondern lediglich über einen bestimmten Zeitraum als „Software as a Service“ mieten können.

Microsoft Office in der Cloud

cmd-BefehlMicrosoft Office 365 zeichnet sich aus durch die Kombination verschiedener Online-Anwendungen und -Services mit traditioneller Office-Software. Das Software-Paket ist in unterschiedlichen Versionen erhältlich. Die einzelnen Versionen unterscheiden sich in erster Linie durch ihren Funktionsumfang und Tarife. Den Kernbestandteil von Office 365 stellen die Online-Versionen von Word, Excel, Outlook und PowerPoint dar. Sowohl die Webanwendungen als auch die Desktopanwendungen basieren auf einem Abo-Bezahlmodell.

Die Online-Anwendungen von Office 365 werden über eine Onlineverbindung im Internetbrowser ausgeführt und können in Kombination mit allen modernen Betriebssystemen genutzt werden. Je nach Tarif werden Nutzern zusätzliche Tools und Anwendungen zur Verfügung gestellt. Hierzu gehören neben den bereits erwähnten Office-Anwendungen Leistungen wie Cloud-Speicher, E-Mail oder Werkzeuge für die Zusammenarbeit und Kommunikation in Firmen, wie beispielsweise SharePoint und Skype.

Der wesentliche Vorteil von Office 365 spiegelt sich in der Tatsache wider, dass Privat- und Business-Anwendern immer die aktuellste Office-Version zur Verfügung gestellt wird. Die Anwendung ist nicht an einen bestimmten Rechner, sondern an das Nutzerkonto des Abonnenten gebunden.

Sie können die Desktop-Anwendungen des 365-Pakets auf mehreren Rechnern installieren und nutzen. Für die Dauer des Abonnements werden alle Anwendungen des Office 365-Pakets automatisch aktualisiert. Office-Anwendungen, die lokal auf einem Rechner installiert sind, erlauben die lokale Nutzung und Speicherung der Daten unabhängig von den Cloud-Diensten von Microsoft.

Die einzelnen Komponenten im Überblick

Die Komponenten von Microsoft Office 365 lassen sich in Cloud- und Web-Services sowie in lokal installierbare Anwendungen unterteilen. Bei den Cloud-Diensten handelt es sich um Online-Versionen bekannter Office-Anwendungen von Microsoft wie PowerPoint, Excel, Word, OneDriveOneNote. Diese werden unter dem Namen Microsoft Online Office zusammengefasst. Die einzelnen Dienste können betriebssystemunabhängig auf jedem Rechner mit Internetbrowser und Internetverbindung genutzt werden, der die minimalen Systemanforderungen erfüllt.

Da Microsoft mit Online Office ein großer Erfolg gelungen ist, hat diese Tatsache das Interesse anderer IT-Giganten geweckt, die im Laufe der Jahre eigene Online-Office-Lösungen auf den Markt gebracht haben. Neben dem Angebot von Microsoft bietet Google mit Google DocsSheets und Slides einen ähnlichen Cloud-Office-Service an.

Microsoft stellt die Cloud-Versionen seiner Office-Anwendungen jedem Nutzer mit einem Microsoft-Konto kostenlos zur Verfügung. Allerdings verfügen diese kostenlosen Versionen über einen geringeren Funktionsumfang. Neben den bereits erwähnten Online Office-Anwendungen gehören auch weitere Cloud-Dienste zum Bestandteil des kostenpflichtigen Office 365-Angebots. Je nach Abo-Modell gehören SharePoint-Online, E-Mail-DiensteYammerCloudspace für professionelle Webauftritte und weitere Leistungen zum Umfang.

Das lokal installierbare Software-Paket von Office 365 umfasst die Desktop-Versionen von MS Excel, Word, PowerPointAccessPublisherInfoPath und Skype. Das Paket können Sie auf allen aktuellen Versionen der beiden Betriebssysteme MacOS und Microsoft Windows installieren. Während der Dauer des Abonnements aktualisieren sich die Anwendungen automatisch.

Die verschiedenen Microsoft Office 365-Versionen

Der Zugriff ist von überall aus möglich

Die Leistungspakete von Office 365 lassen sich im Großen und Ganzen in Abonnements für private Kunden und Business-Abonnements für Unternehmen unterteilen. Je nach Bereich werden verschiedene Tarife mit unterschiedlichem Leistungsumfang angeboten. Eigens für die speziellen Anforderungen und Bedürfnisse von privaten Nutzern hat Microsoft die beiden Versionen Home und Office entwickelt. Das größte Alleinstellungsmerkmal dieser beiden Tarife spiegelt sich in der Tatsache wider, wie viele Personen das Office-Paket nutzen können.

Während die Anwendungen von Office Personal für die Nutzung einer einzelnen Person vorgesehen sind, können Office Home-Anwendungen von bis zu fünf unterschiedlichen Personen genutzt werden. Konkret bedeutet das, dass Sie die Office-Anwendungen Word, Excel, Access und PowerPoint auf bis zu fünf unterschiedlichen Rechnern installiert und gleichzeitig benutzen können.

Bei der Entwicklung der Benutzeroberfläche hat Microsoft einen großen Wert darauf gelegt, diese für die Nutzung auf mobilen Geräten zu optimieren. Aus diesem Grund können Sie Office 365 auch auf Tablets und Smartphones nutzen. Jedem Nutzer wird zudem ein Cloudspeicher mit einem Terrabyte zur Verfügung gestellt, um Office-Projekte und andere wichtige Daten in der Microsoft-Cloud speichern zu können.

Bei dem Office-Angebot für Unternehmen gibt es zwei Varianten, und zwar Office 365 Business und Enterprise. Die drei Business-Tarife Business, Business-Premium und Business-Essentials lassen sich jeweils maximal von 300 Usern nutzen. Die Enterprise-Version ist nicht auf 300 User beschränkt und beinhaltet zusätzliche Funktionalitäten wie die Bereitstellung unterschiedlicher Services auf einem Terminalserver, Business Intelligence und vieles mehr.

Abgrenzung des Online-Angebots zur Dauerlizenz des Microsoft Office-Pakets

Mit dem Namen Microsoft Office werden verschiedene Büroanwendungen bezeichnet, die seit Jahren von Microsoft kontinuierlich weiterentwickelt werden. Diese haben sich im Laufe der Zeit als eine Art Standard im Bereich der Textverarbeitung und Tabellenkalkulation in Unternehmen etabliert. Die Anwendungen sind in unterschiedlichem Funktionsumfang erhältlich und sind als Dauerlizenz oder als Abonnement erhältlich.

Käuflich erworbene Lizenzen können Sie auf einem Mac- oder Windows-Computer installieren und unbegrenzt lange nutzen. Wenn eine neue Office Version erscheint, wird die einmal erworbene Anwendung jedoch nicht aktualisiert. Um die neueste Office-Version nutzen zu können, müssen Sie das neueste Office-Paket kaufen. Darüber hinaus beinhaltet die Kaufversion des Office-Pakets keine zusätzlichen Online-Services.

Office 365Office 365 steht nicht zum einmaligen Kauf zur Verfügung, sondern der Online-Service wird als Abonnement mit unterschiedlichen Tarifoptionen angeboten. Je nach gewählter Option erfolgt die Abrechnung monatlich oder jährlich und beinhaltet je nach Tarif unterschiedliche Webservices und Anwendungen. Im Rahmen des Abonnements werden Nutzern stets die neuesten Office-Versionen ohne zusätzliche Gebühren zu Verfügung gestellt. Das installierte Software-Paket aktualisiert sich in der Regel automatisch.

Vor- und Nachteile eines Office 365-Abonnements

Obwohl Office 365 gegenüber der traditionellen Kauflizenz des Office-Pakets etliche Vorteile bietet, bringt die Nutzung des Cloud-Angebots von Microsoft aber auch einige Nachteile mit sich. Office 365 bietet Ihnen neben den installierbaren Office-Anwendungen zusätzliche Web- und Onlineservices. Dies ist insbesondere für Unternehmen interessant, da sie die Kosten für den Betrieb einer eigenen Office-Services-Infrastruktur eliminieren können.

Anwender profitieren zudem von der Tatsache, dass sie die Dienste geräteunabhängig von jedem Ort mit Internetzugang nutzen können. Die Lizenz des Office 365-Pakets ist nicht an einen einzelnen Rechner, sondern vielmehr an den Nutzer gebunden. Je nach gebuchtem Tarif lässt sich die Software an mehreren Computern installieren und nutzen. Darüber hinaus haben Sie als Nutzer von Office 365 stets Zugriff auf die aktuellste Office-Version, sodass Sie keine neuen Versionen kaufen und installieren müssen.

Der wesentliche Nachteil von Office 365 ist die Tatsache, dass nach dem Ablauf eines Abonnements Ihre Nutzungsrechte für das Office-Paket deaktiviert werden. Sie können zwar Ihre Daten lokal speichern, aber die Office-Anwendungen nicht mehr starten. Bei dem Kauf einer Lizenz bleibt Ihnen die Software unbegrenzt erhalten.

Penetrationstest

Ein Penetrationstest, abgekürzt als PEN-Test bezeichnet, ist ein Test zur Bewertung der Sicherheit einer IT-Infrastruktur. Ein IT-Experte führt den Test durch indem er einen Angriff simuliert und damit die externen und internen Bedrohungen.

Ein PEN-Test beinhaltet eine aktive Analyse des Systems durch IT-Experten auf mögliche Sicherheitslücken. Sicherheitslücken in einer IT-Infrastruktur können durch eine falsche Systemkonfiguration, Hardware- oder Softwarefehler oder organisatorische Schwachstellen entstehen. Die im Laufe des Penetrationstests gefundenen Sicherheitsprobleme werden analysiert und im Hinblick auf mögliche Auswirkungen auf die gesamte Organisation bewertet. Auf Grundlage dieser Analyse und Bewertung können gegebenenfalls Maßnahmen zur Verbesserung der IT-Sicherheit vorgenommen werden.

Angriffe von außen verursachen schwerwiegende Schäden

Die Vorteile von Penetrationstest

Die wichtigsten Vorteile von Penetrationstests sind:

  • Identifizierung von Fehlern, die mit einer Fehlererkennungssoftware nicht oder nur schwer identifiziert werden können
  • Identifizieren von Fehlern mit einem hohen Risiko für das System, die sich aus einer Verkettung von Schwachstellen mit einem geringen Sicherheitsrisiko ergeben und von Angreifern in einer bestimmten Reihenfolge ausgenutzt werden können
  • Beurteilung, welche geschäftlichen und betrieblichen Auswirkungen ein erfolgreicher Angriff auf die IT-Infrastruktur haben kann
  • Testen der Fähigkeit von Netzwerkadministratoren und internen IT-Experten, Angriffe zu erkennen und auf diese Angriffe richtig zu reagieren

Wie wird ein Pentest durchgeführt?

Für die Durchführung eines PEN-Test werden drei verschiedene Testszenarien genutzt.

Der Black-Box Pen-Test

Bei einem Black-Box Test wird der Penetrationstester in die Rolle eines durchschnittlichen Hackers versetzt, dem das interne Zielsystem nicht bekannt ist. Die für den Test eingesetzten IT-Experten erhalten keine Architekturdiagramme, keine Systeminformationen oder Quellcodes, die nicht öffentlich verfügbar sind. Ein Black-Box Penetrationstest ermittelt die Schwachstellen in einem System, die von außerhalb des Netzwerks ausgenutzt werden können.

Dies bedeutet, dass ein Black-Box Penetrationstest auf einer dynamischen Analyse der aktuell ausgeführten Programme und Systeme innerhalb des Zielnetzwerks basiert. Black-Box Penetrationstester müssen mit automatisierten Scan-Tools und Methoden für manuelle Penetrationstests gleichermaßen vertraut sein. Zudem müssen sie als IT-Experten in der Lage sein, auf der Grundlage ihrer Beobachtungen eine eigene Karte eines Zielnetzwerks zu erstellen, da ihnen kein solches Diagramm zur Verfügung gestellt wird.

Der Hauptnachteil dieses Ansatzes besteht darin, dass alle Schwachstellen interner Services unentdeckt bleiben und nicht gepatcht werden, wenn die IT-Experten nicht in das System eindringen können.

Penetrationstest

Bei PEN-Tests werden Angriffe simuliert

Der Gray-Box Pen-Test

Bei dieser Testmethode kennt der Tester die Zugriffs- und Wissensebenen eines Benutzers, möglicherweise mit erhöhten Rechten auf einem System. Gray-Box Pentester haben normalerweise ein gewisses Wissen über die Interna eines Netzwerks, möglicherweise einschließlich der Design- und Architekturdokumentation und eines internen Accounts im Netzwerk.

Der Zweck des Gray-Box-Pentesting besteht darin, die Sicherheit eines Netzwerks gezielter und effizienter zu bewerten als bei einem Black-Box-Test möglich ist. Die IT-Experten können sich auf Grundlage der Vorkenntnisse von Anfang an auf die Systeme mit dem größten Risiko und dem größten Wert konzentrieren, anstatt diese Informationen selbst ermitteln zu müssen.

Der White-Box Pen-Test

White-Box-Tests werden unter verschiedenen Namen wie „Clear-Box„, „Open-Box„, „Auxiliary“ und „Logic-Driven“ durchgeführt. Die Penetration Tester erhalten bei dieser Methode vollen Zugriff auf Quellcodes, Architektur-Dokumentation, Anwendungssoftware, Hardwarespezifikationen und mehr. Die größte Herausforderung bei White-Box-Tests besteht darin, die große Menge an verfügbaren Daten zu durchforsten, um potenzielle Schwachstellen zu identifizieren. Whitebox-Pen-Test ist die zeitaufwendigste Art von Penetrationstests.

Im Gegensatz zu Black-Box– und Gray-Box-Tests sind Whitebox-Penetration-Tester in der Lage, statische Code-Analysen durchzuführen und sich mit Quellcode-Analysatoren, Debuggern und ähnlichen Tools vertraut zu machen, die für diese Art von Tests wichtig sind. Dynamische Analysewerkzeuge und –techniken sind jedoch auch für White-Box-Tester wichtig, da die statische Analyse Schwachstellen ausschließen kann, die durch Fehlkonfigurationen von Zielsystemen entstehen. Ein White-Box Penetrationstest ermöglicht eine umfassende Bewertung interner und externer Schwachstellen.

Die Vor- und Nachteile der verschiedenen Testmethoden

Die wichtigsten Unterschiede zwischen einem Blackbox-, Gray-Box– und White-BoxPEN-Test bestehen in der Genauigkeit des Tests sowie in seiner Geschwindigkeit, Effizienz und Abdeckung.

PEN-Tests sollen Schwachstellen aufzeigen

Der Zweck eines Penetrationstests besteht darin, Schwachstellen zu identifizieren und zu patchen, die von einem Angreifer ausgenutzt werden können. Daher wäre die ideale Form des Penetrationstests eine Blackbox, da die Mehrheit der Angreifer vor Beginn ihres Angriffs keine Kenntnis über die internen Abläufe ihres Zielnetzwerks hat. Der durchschnittliche Angreifer hat jedoch viel mehr Zeit für seinen Prozess als der durchschnittliche Pentester. Die anderen Arten von Penetrationstests wurden daher entwickelt, um die Eingriffszeit zu verkürzen, indem das dem Tester zur Verfügung gestellte Informationsniveau erhöht wird.

Das Gegenteil zum Black-Box-Test ist der White-Box-Test, bei dem die IT-Experten vollständige Informationen über das Zielsystem erhalten. Die Befürchtung bei dieser Art von PEN-Test besteht darin, dass die erhöhten Informationen dazu führen, dass die Tester sich anders verhalten als Blackbox-Hacker. Dies könnte dazu führen, dass sie Sicherheitslücken übersehen, die ein weniger informierter Angreifer ausnutzen würde.

Gray-Box-Tests sind ein Kompromiss zwischen White-Box– und Black-Box-Tests. Durch die Bereitstellung eines Testers mit begrenzten Informationen über das Zielsystem simulieren Gray-Box-Tests den Wissensstand, den ein Hacker mit langfristigem Zugriff auf ein System durch Forschung und System-Footprint erreichen könnte.

Geschwindigkeit, Effizienz und Reichweite von Penetartionstests

Die drei Penetrationstests stellen einen Kompromiss zwischen Geschwindigkeit, Effizienz und Reichweite her. Im Allgemeinen ist der Blackbox-Penetrationstest der schnellste Penetrationstest. Die begrenzten Informationen, die den Testern zur Verfügung stehen, erhöhen jedoch die Wahrscheinlichkeit, dass Verwundbarkeiten übersehen werden, und verringern die Effizienz des Tests. Die Tester verfügen nicht über die Informationen, die notwendig sind, um ihre Angriffe auf die wertvollsten oder wahrscheinlich verletzlichsten Ziele zu richten.

Beim Grey-Box-Test kommt es im Vergleich zu Black-Box Penetrationstest zu einem leichten Kompromiss im Hinblick auf höhere Effizienz und Abdeckung. Der Zugriff auf die Design-Dokumentation ermöglicht es den IT-Experten, ihre Bemühungen besser zu fokussieren und der interne Zugriff auf das Netzwerk erhöht die Abdeckung der Analyse. Dies gilt insbesondere im Vergleich zu Black-Box-Tests, bei denen Tester keine Schwachstelle finden, die ihnen den Zugriff innerhalb des Netzwerk-Perimeters ermöglicht.

White-Box-Tests sind die langsamste und umfassendste Form des PEN-Test. Die große Menge an Daten, die den IT-Experten zur Verfügung stehen, benötigt Zeit für die Verarbeitung und Analyse. Das hohe Zugriffsniveau verbessert jedoch die Wahrscheinlichkeit, dass sowohl interne als auch nach außen gerichtete Schwachstellen identifiziert und behoben werden können.

Hinter dem Begriff der Faktura verbirgt sich die Stellung einer Rechnung. Umgekehrt bezeichnet der Buchhalter die Rechnungsstellung gern als Fakturierung. So stellt sich die Frage, ob es zwischen beiden Begrifflichkeiten einen bedeutungsvollen Unterschied gibt oder ob es nur Varianten für die Beziehung von ein und demselben Vorgang sind. Beides ist richtig. Sie können bei der Rechnungsstellung von einer Faktura sprechen, was vor allem in Österreich und in der Schweiz häufig praktiziert wird. Im Deutschen gibt es jedoch einen kleinen Unterschied zwischen beiden Begrifflichkeiten, den Sie vor allem dann kennen sollten, wenn Sie sich in der Finanzwelt sicher bewegen möchten.

Rechnungen für Waren oder Dienstleistungen empfangen

Mit der Rechnungsstellung erhebt der Händler oder Dienstleister den Betrag, der den Gegenwert seiner Leistung darstellt. Eine Rechnung enthält die einzelnen Posten für Waren oder für Tätigkeiten, die Sie beim Dienstleister in Auftrag gegeben haben. Rechnungen gehören zum täglichen Leben dazu. Wenn Sie einkaufen gehen, bekommen Sie einen Kassenbon, der nichts weiter darstellt als eine Rechnung für die Produkte, die Sie im Ladengeschäft gekauft haben. Jeder Händler und Dienstleister ist verpflichtet, Ihnen auf Nachfrage eine Rechnung auszuhändigen. Diese kann handschriftlich formuliert sein oder als Ausdruck vorliegen. Beim Online-Handel ist es außerdem üblich, eine Rechnung als PDF zum Download zu überstellen.

Haben Sie in Österreich oder in der Schweiz einmal Ihren Urlaub verbracht oder Kontakt zu Händlern aus diesen Ländern gehabt, ist Ihnen vielleicht aufgefallen, dass der Begriff Rechnung in diesen Ländern nicht so benutzt wird wie in Deutschland. Dort sprechen Händler von der Faktura, die sie Ihnen ausstellen. Gemeint ist jedoch die klassische deutsche Rechnung. Sprechen Sie hingegen hierzulande von einer Faktura, benutzen Sie eine Begrifflichkeit aus dem Finanzwesen. Die Faktura umfasst in unserem Sprachgebrauch nicht nur die klassische Rechnung, sondern weitere Dokumente, die in der Finanzwelt einen wichtigen Stellenwert haben.

Faktura – Oberbegriff für verschiedene Dokumente

Eine Rechnungsstellung kann handschriftlich oder elektronisch erfolgen

Der Begriff der Faktura kann grundsätzlich allein für eine Rechnung stehen. Genau genommen handelt es sich im Deutschen jedoch um einen Oberbegriff, der mehrere Dokumente umfassen kann. Der Begriff der Fakturierung entstammt der Rechnungslegung. Die klassische Rechnung ist einer von drei Belegen, die im Rahmen der Fakturierung als Dokument einen Auftrag belegen. Auf der Rechnung ist ersichtlich, welche Dienstleistungen der Auftragnehmer zu welchem Preis erbracht hat. Darüber hinaus werden die Mehrwertsteuer und eventuelle Zusatzkosten ausgewiesen.

Neben der Rechnung gibt es auch Quittungen und Eigenbelege, die ebenfalls unter dem Oberbegriff der Fakturierung zusammengefasst werden. Auch diese beiden Belege unterscheiden sich in ihren Details, sodass in der Rechnungslegung alle drei Elemente einen wichtigen Stellenwert einnehmen. Möchten Sie sich Grundkenntnisse in der Finanzwelt aneignen, ist es wichtig, dass Sie den Unterschied kennen.

Die klassische Rechnung

Kaufleute und Dienstleister arbeiten trotz der Digitalisierung nach wie vor mit einer Rechnung. Zwar hat sich die Art der Rechnungslegung verändert, nicht aber der Zweck und Nutzen. Immer weniger Rechnung werden handschriftlich auf dem Papier gestellt, obwohl dies theoretisch immer noch möglich und erlaubt ist. Ein Problem ergibt sich aus der Archivierung und Vervielfältigung der handschriftlichen Rechnungen. Oftmals gibt es nur ein einziges Exemplar. Sollte dies abhanden kommen, ist es sowohl für den Händler als auch für den Kunden schwierig, die Dienstleistung nachzuweisen. Auch erweist sich das Stellen einer handschriftlichen Rechnung schwieriger als die elektronische Form.

Die elektronische Rechnung hat sich mittlerweile im Handel und im Dienstleistungsbereich etabliert. Neben der einfachen und automatischen Erstellung ergeben sich weitere Vorteile aus der elektronischen Rechnungsstellung. Diese kann beliebig oft vervielfältigt werden. Auch das Archivieren gestaltet sich einfacher, als dies bei einer handschriftlichen Rechnung möglich ist. Darüber hinaus ist es sehr einfach möglich, die Dokumente an die Finanzämter oder an eine andere Stelle zur Rechnungslegung zu überführen. Aus diesen Gründen konnte sich die elektronische Rechnungsstellung mittlerweile in der Finanzwelt durchsetzen.

Erstellen einer Quittung

Faktura

Quittungen sind Zahlungsbelege

Eine Quittung dient als Beleg für eine Zahlung, die sofort und in bar ausgeführt wird. Da sich der Anteil der Barzahlungen zugunsten des elektronischen und bargeldlosen Zahlungsverkehrs in den letzten Jahren deutlich verringert hat, gibt es auch immer weniger Quittungen.

Eine Quittung kann handschriftlich erstellt oder über einen PC oder Laptop ausgedruckt werden. Sie enthält den gezahlten Betrag und den Verwendungszweck. Der Empfänger der Geldleistung unterschreibt auf der Quittung. Handelt es sich um eine Zahlung an die Behörden, ist die Quittung nur mit einem Stempel und der entsprechenden Unterschrift gültig.

Es ist empfehlenswert, wenn Sie Quittungen mindestens drei Jahre aufheben. Die Quittung ist neben der Anwesenheit eines Zeugen die einzige Möglichkeit, eine Barzahlung nachzuweisen. Ausstehende Zahlungen können mindestens drei Jahre eingefordert werden. Erst danach gelten sie als verjährt. Bevor Sie eine Quittung verwerfen, sollten Sie beachten, dass die Verjährungsfrist erst ab dem Ende des Jahres beginnt, in dem die Quittung erstellt wurde. Haben Sie im Januar eines Jahres eine Quittung für eine Barzahlung erhalten, beginnt die Verjährungsfrist erst am ersten Januar des darauffolgenden Jahres zu laufen und währt somit fast vier Jahre.

Eigenbeleg ausstellen

In der Buchhaltung ist es ein wichtiger Grundsatz, dass alle Posten eines Belegs bedürfen. Kann für einen Posten kein Beleg nachgewiesen werden, ist eine Verbuchung nicht möglich. Dies gilt nicht nur für größere Posten, sondern auch für Kleinbeträge. Möchten Sie eine von Ihnen geleistete Zahlung nachweisen, ist es erlaubt, einen Eigenbeleg auszustellen. Auf diesem Eigenbeleg stellen Sie dar, wie hoch die Zahlung war, die Sie verbuchen lassen möchten, und wer diese Zahlung empfangen hat.

Die Ausstellung von Eigenbelegen ist grundsätzlich anerkannt. Es gibt jedoch eine Einschränkung, und diese betrifft die Nachweispflicht. Da Sie den Eigenbeleg selbst unterschreiben, ist eine Willkürlichkeit in jedem Fall auszuschließen. Möchten Sie beispielsweise ein Trinkgeld steuerlich absetzen und dafür einen Eigenbeleg ausstellen, weil Sie das Trinkgeld bar entrichtet haben, ist es empfehlenswert, wenn Sie auch eine Kopie der Rechnung einreichen. So gelingt Ihnen der Nachweis, dass Sie das Restaurant zur angegebenen Zeit auch tatsächlich besucht haben.

Für die Anerkennung eines Eigenbelegs fordern die Finanzämter häufig eine Begründung. Diese stellt die Grundlage für die Akzeptanz des geltend gemachten Betrages. Möchten Sie keine Zweifel und Nachfragen aufkommen lassen, liefern Sie diese Begründung für den Eigenbeleg sofort bei der Geltendmachung des Betrages. So beugen Sie Nachfragen vor und stellen eine schnelle Bearbeitung sicher.

Bargeld als wichtiges Zahlungsmittel in Deutschland

Bargeld ist in Deutschland noch sehr beliebt

Neben der Rechnung sind die Quittung und der Eigenbeleg gerade in Deutschland wichtige Elemente der Faktura. Im Gegensatz zu anderen Ländern ist Bargeld in Deutschland trotz moderner elektronischer Zahlungsvarianten sehr beliebt und kommt weiterhin in allen Bereichen zum Einsatz. Dies ist einer der Gründe dafür, dass der Begriff der Faktura in Deutschland weiter differenziert wird, während er in anderen Länder ausschließlich für die Rechnungsstellung verwendet wird. Deutschland ist eines der wenigen europäischen Länder, in denen Bargeld nach wie vor einen sehr großen Stellenwert hat.

Fakturierung – ein Element der Buchhaltung

In der Finanzwelt umfasst die Fakturierung alle Abläufe, die mit der Zahlung von Rechnungen in Zusammenhang stehen. Bei pünktlicher Begleichung der Rechnung wird diese auf das Konto des Kunden gebucht, sodass es ausgeglichen ist. Aber auch Mahnverfahren, die notwendig sind, wenn ein Kunde nicht zahlt, werden zu der Fakturierung hinzugezählt.

Die Fakturierung umfasst auch weitere Tätigkeiten, die im Rahmen der Rechnungslegung anfallen. Dazu gehört unter anderem die Erstellung von Gutschriften, wenn Kunden eine Ware zurückgesendet oder per Vorlasse bezahlt haben. Bei der Arbeit mit Rabattsystemen ist es ebenfalls wichtig, die entsprechenden Vorteile auf die Konten der Kunden einzuspielen.

Fazit:

Der Unterschied zwischen einer Rechnung und der Faktura kann in der Finanzwelt definiert werden. Im allgemeinen Sprachgebrauch ist es jedoch auch üblich, die Begriffe Rechnung und Faktura einheitlich zu verwenden. Dies ist vor allem in Ländern wie Österreich und der Schweiz zu beobachten, weil sich der Sprachgebrauch von dem in Deutschland in Details unterscheidet.

WLAN ist die geläufige Abkürzung für „Wireless Local Area Network“ und beschreibt sämtliche drahtlosen Netzwerke. In der Regel sind damit Funknetz-Standards aus einer bestimmten Normreihe gemeint. In manchen Ländern außerhalb Deutschlands werden diese WLAN-Standards unter der Bezeichnung Wi-Fi zusammengefasst. Zum WLAN gehören im Prinzip sämtliche Techniken und Standards, mit denen Sie lokale Funknetzwerke aufbauen können, darunter auch Bluetooth und Home RF.

Warum hat das WLAN sich so deutlich durchgesetzt?

Das digitale Zeitalter setzt nicht nur in der Arbeitswelt eine nachhaltige Mobilität voraus. Selbst wenn es hier in erster Linie um die Verarbeitung und Übertragung von Daten betrifft, nimmt das Funknetz auch im privaten Bereich immer größeren Raum ein. Das Wireless LAN erfüllt dabei gleich wenigstens drei unterschiedliche Anforderungen:

1. Der Zugang zum Netz wird für mobile Endgeräte deutlich vereinfacht.
2. Die Reichweite kabelgebundener Netzwerke kann vor allem an Stellen effektiv erweitert werden, die nur schwer zugänglich sind.
3. Für den provisorischen Aufbau eines Netzwerks auf Funktechnik-Basis ist WLAN eine häufig genutzte Option.

Der IEEE-Standard

WLAN

Mithilfe des WLAN das ganze Haus steuern

Der Begriff WLAN wird ausdrücklich für Funknetzwerke verwendet, die auf der IEEE-Norm aufbauen. Die Abkürzung IEEE steht für „Institute of Electrical and Electronics Engineers. Dieses Institut hat im Jahr 1997 zum ersten Mal den heute noch genutzten IEEE 802.11-Standard verabschiedet.

Der mehr als 20 Jahre alte Standard ist längst überholt und wurde zwischenzeitlich mehrfach ergänzt und aktualisiert. So existiert heute zum Beispiel der 802.11 ad. Er ermöglicht sehr hohe Bandbreiten, erlaubt aber lediglich eine Reichweite von einigen Metern.

Seit der Einführung des Standards 802.11 n kann WLAN häufiger auf ein 5 GHz-Band zurückgreifen. Bis dahin stand lediglich das 2,4 GHz-Band zur Verfügung, die Übertragungsraten lagen unter zwei Mbit/s.

Die so genannten Mesh-Netzwerke sind die neueste Entwicklung und tragen die Bezeichnung IEEE 802.11s. Es handelt sich dabei um vermaschte bzw. sich selbst vermaschende Netzwerke, die niemals aus nur einem Access Point bzw. WLAN-Router bestehen, sondern sich immer aus mehreren Access Points zusammensetzen.

Die unterschiedlichen Modi der Datenübertragung

Hinsichtlich der Art und Weise, wie Sie Daten zwischen den Clients im Netzwerk übertragen möchten, stehen Ihnen im WLAN-Betrieb zwei unterschiedliche Modi zur Verfügung: der Infrastruktur-Modus und der Ad-hoc-Modus.

1. WLAN im Infrastruktur-Modus

Den Datenverkehr koordinieren WLAN-Router oder ein Access Point. Diese stellen die so bezeichnete Basisstation dar und steuern grundsätzlich die Kommunikation. Für die Einbindung von Clients in solche Netzwerke benötigen Sie sowohl den Namen des Netzwerks als auch die verwendete Verschlüsselung.

Im Infrastruktur-Modus können Sie die Reichweite des Funknetzes per WLAN-Repeater jederzeit erweitern.

2. Wireless LAN im Ad-hoc-Modus

Sicherheit spielt hier auch eine Rolle

Im Ad-hoc-Netzwerk können sämtliche Clients direkt miteinander Daten austauschen, ohne dass sie auf einen Access Point oder einen Router zugreifen müssen. Die Einrichtung dieses Netzwerks ist vergleichsweise einfach, außerdem zeichnet sich dieser Modus durch ein hohes Übertragungstempo aus.

Auch hier müssen sich die Teilnehmer über den Netzwerknamen sowie über eine Verschlüsselung identifizieren, um sich einschalten zu können. Aufgrund der direkten Kommunikation der einzelnen Clients ist die Reichweite eines Ad-hoc-Netzwerks allerdings stark eingeschränkt.

Die Grundlagen für ein Ad-hoc-Netzwerk schafft ein Wireless Distribution System (WDS). Dabei handelt es sich um ein Adressierungs-Verfahren, das dem IEEE-Standard 802.11 entspricht und auch anspruchsvolle Netzwerk-Aufbauten ermöglicht.

Sicherheit und Verschlüsselung

WLAN-Netze müssen insofern abgesichert werden, dass weder ein unerlaubter Zugriff von außen noch ein Abfangen der Datenströme möglich ist. Handelsübliche Router ermöglichen dem Nutzer dazu drei unterschiedliche Verschlüsselungs-Varianten:

– WPA
– WPA2
– WPA + WPA2

Die drei Standards wirken sich sowohl auf die Sicherheit des Netzwerks aus als auch auf die Geschwindigkeit der Datenübertragung im WLAN. WPA steht für Wireless Protected Access.

Mit WPA nutzen Sie die Methode TKIP zur Verschlüsselung. TKIP steht für Temporal Key Integrity Protocol. Die Übertragungsgeschwindigkeit ist hier auf 54 Mbit/s beschränkt. Die aktuell sicherste Verschlüsselung erreichen Sie mit WPA2. Diese nutzt die Methode CCMP. Hier sind Geschwindigkeiten von mehr als 150 Mbit/s möglich.

Darüber hinaus gibt es den Mixed Mode, der sich aus WPA und WPA2 zusammensetzt. Damit können Sie sowohl ältere als auch moderne Geräte ins Netzwerk einbinden. Die Geschwindigkeit der Funkverbindung ist allerdings langsamer.

WEP: veraltet und nicht sicher

Das WLAN sollte verschlüsselt sein

WEP steht für Wired Equivalent Privacy. Dieser Verschlüsselungsstandard stammt aus dem Jahr 1999 und entspricht dem Standard IEEE 802.11. Seit 2013 dürfen Access Points die Verschlüsselung per WEP nicht mehr anbieten; seit 2014 dürfen auch WLAN-Geräte wie Sticks und Notebooks kein WEP mehr unterstützen.

Das grundsätzliche Problem liegt darin, dass WEP für die Verschlüsselung, für die Authentifizierung und für die Integritätsprüfung immer die gleichen Schlüssel verwendet. Der WEP-Schlüssel lässt sich verhältnismäßig einfach berechnen, und selbst ein nicht professioneller Hacker hat sich innerhalb weniger Minuten Zugriff zum WLAN verschafft.

Der neue Standard: WPA3

Dieser Standard stammt aus dem Jahr 2018 und kann als Update des WPA2 betrachtet werden. Er enthält neue Funktionen, vereinfacht die Authentifizierung und erhöht die Sicherheit der Verschlüsselung.

Insgesamt bietet der neue Standard folgende Vorteile:

– Die Authentifizierung ist robuster, die Kryptografie deutlich verbessert.
– Jedes einzelne Gerät lässt sich individuell verschlüsseln.
– Die Verschlüsselung der Geräte ohne Bedienelemente lässt sich einfacher konfigurieren.
– WPA3-Geräte können mit WPA2-Geräten zusammenarbeiten.

Optimierung des WLAN durch effiziente Maßnahmen

1. MIMO-Technologie (MIMO = Multiple Input Multiple Output)

WLAN ist kabellos

WLAN-Router arbeiten mit Funkwellen, die gelegentlich interferiert und reflektiert werden. Trifft ein Funkwellenberg auf ein Wellental, löschen die Wellen einander aus, der Funkverkehr bricht zusammen.

Router mit der MIMO-Technik verfügen über mehrere Antennen und können die Reflexionen aktiv für die Datenübertragung nutzen. Aktuell sind Router mit der Multi-User-MIMO-Technik auf dem Markt. Diese Technologie ermöglicht es den Basis-Stationen, bis zu vier Clients gleichzeitig anzufunken. Bei Bedarf können Sie entsprechende Repeater nutzen, um die Reichweite zu verstärken.

2. Band Steering

Das Band Steering ist die aktuellste Entwicklung, mit der sowohl die Stabilität als auch die Leistungsfähigkeit eines Wireless LAN signifikant verbessert werden. Diese Technik konzentriert vor allem auf Dual-Band-Geräte wie Smartphones und Tablets: Entweder werden diese mobilen Endgeräte gleich einer weniger stark belasteten WLAN-Frequenz zugeordnet, oder sie werden bei Bedarf dorthin umgebucht.

Die beiden Frequenzbänder weisen unterschiedliche Reichweiten auf. Nutzen Sie einen Router oder einen Access Point mit integriertem Band Steering, berücksichtigt er dies. Er weist den Dual-Band-Geräten das jeweils optimale Frequenzband zu – auch in Abhängigkeit der jeweiligen Signalstärke.

SSD

Die drei Buchstaben SSD sind das Akronym für „Solid State Drive“. Eine SSD ist ein Massenspeicher für Daten ähnlich einer Festplatte (HDD). Im Gegensatz zu einer HDD nutzt eine SSD jedoch keine rotierenden Scheiben und bewegliche Schreib- / Leseköpfe sondern spezielle Chips, um Daten zu speichern. SSDs sind daher in der Regel weniger anfällig für Erschütterungen und Stöße. Sie sind zudem leise und bieten schneller Zugriffszeiten sowie geringere Latenzzeiten als eine HDD.

Geschichte der SSD

SSDs haben ihren Ursprung in den 50ern

Solid State Drives haben ihren Ursprung in den 1950er Jahren. Die ersten Geräte nutzten Magnetkernspeicher und sogenannte Card Capacitor Read-Only Store (CCROS). Diese damals noch als Hilfsspeichereinheiten bezeichneten SSDs entstanden während der Ära der Vakuumröhrencomputer. Mit der Einführung von billigeren Trommelspeichersystemen und den darauf folgenden HDDs wurde diese Technik wegen der hohen Kosten jedoch wieder aufgegeben.

In den 1970er und 1980er Jahren wurden SSDs in Halbleiterspeichern für frühe IBM-, Amdahl– und Cray-Supercomputer genutzt. Sie wurden wegen des unerschwinglich hohen Preises jedoch nur selten verwendet. Anfang 1995 wurde die Einführung der ersten Flash-basierten Solid-State-Laufwerken angekündigt. Diese Speicher hatten den Vorteil, dass keine Batterien erforderlich waren, um die Daten im Speicher zu halten, was bei den früheren flüchtigen Speichersystemen erforderlich war.

Ab diesem Zeitpunkt wurden SSDs zunehmend als Ersatz für Festplatten zunächst durch die Militär- und Luftfahrtindustrie sowie für unternehmenskritische Anwendungen eingesetzt. Diese Anwendungen erfordern eine außergewöhnlich lange Zeit zwischen Ausfällen (MTBF) des Speichermediums. Diese Eigenschaft bieten Solid-State-Drives aufgrund ihrer Fähigkeit, extremen Schock-, Vibrations– und Temperaturbereichen zu widerstehen.

Wie funktioniert eine SSD?

Im Prinzip besteht eine SSD nur aus einigen Speicherchips auf einer Platine mit einer In / Out-Schnittstelle, die Energie zuführt und Daten überträgt. Im Gegensatz zu herkömmlichen Festplattenlaufwerken gibt es bei einer SSD keinen Aktuatorarm, der sich über eine drehende Magnetplatte bewegen muss, um Daten zu lesen oder zu schreiben.

Die meisten SSDs verwenden „Negative AND“ Speicherchips, die sogenannten NAND-Flash-Speicher. NAND-Speicher sind relativ stabil und halten jahrelang. In diesen Speichern werden die Daten als Bits gespeichert. Es gibt drei Arten von Speichern, die bei SSDs verwendet werden:

Single-level cell (SLC)
Multi-level cell (MLC)
Triple-level cell (TLC)

Erläuterung der drei Arten

SSD-Zellen können ein bis drei Datenbits speichern

Single-level cell (SLC): Diese Zellen können jeweils nur ein Daten-Bit speichern – entweder eine 1 oder eine 0. Es gibt also nur zwei mögliche Werte, die in jeder Zelle gespeichert und wieder gelesen werden können. Aus diesem Grund ist der SLC-Speicher beim Schreiben von Daten sehr schnell und präzise. Zudem benötigen sie von allen NAND-Flash-Speichern die geringste Menge an Energie und halten am längsten. Allerdings ist diese Technologie auch die teuersteSLCSSDs werden normalerweise aufgrund ihres hohen Preises in Unternehmen verwendet, sind jedoch auch für private Nutzer für verfügbar.

Multi-level cell (MLC): Diese Zellen können jeweils zwei Datenbits pro Zelle speichern – eine 1 und eine 0. Da eine Multi-Level-Zelle beide Bits enthalten kann, gibt es vier mögliche Werte: 00, 01, 10 und 11. Ein MLC-Speicher kann somit eine größere Datenmenge speichern, ohne dass die physikalische Größe des Speichers zunimmt. Sie sind zu einem günstigeren Preis verfügbar, haben jedoch langsamere Schreibgeschwindigkeiten und sind weniger genau. Sie verbrauchen zudem mehr Strom und verschleißen aufgrund des erhöhten Stromverbrauchs etwa 10 mal schneller als der SLC-Speicher.

Triple-level cell (TLC): Diese Zellen können jeweils drei Datenbits pro Zelle speichern und sind in großen Speichergrößen zu einem günstigen Preis verfügbar. Der Kompromiss besteht bei Triple-Level-Zellen in einer langsameren Lese- und Schreibgeschwindigkeit und einer geringeren Präzision sowie in einer verringerten Lebensdauer durch den erhöhten Stromverbrauch.

Mehr Speicherkapazität durch neue Technologien

Die ersten SSDs enthielten nur 5 bis maximal 10 NAND-Chips mit einer ansprechend begrenzten Speicherkapazität. Zudem waren diese SSD noch sehr teuer. Neue Technologien ermöglichen NAND-Chips mit einer wesentlich größeren Speicherkapazität. Vertikales NAND (V-NAND) ist ein relativ neuer Ansatz, bei dem die Zellen übereinander gestapelt werden. Die Zellen behalten dabei die gleiche Leistung. Dadurch können große Speicherkapazitäten erreicht werden, ohne, dass die Chips selbst wesentlich größer werden. Beispielsweise kann ein einzelner V-NAND-Chip mit 48 Ebenen 32 GB Daten speichern. Eine 4 TB SSD enthält dementsprechend 125 separate V-NAND-Chips.

Alle NAND-Speicher sind mit einem sogenannten ECC (Error Correcting Code) ausgestattet. Der ECC dient zur Behebung von Fehlern, die beim Schreiben und Lesen von Daten auf der SSD auftreten. Die Zellen funktionieren dadurch weiterhin ordnungsgemäß, und die Funktionsfähigkeit der SSD bleibt erhalten.

Die Vorteile von SSDs

SSD

SSDs arbeiten zuverlässig und sind langlebiger

Solid State Drives bieten viele Vorteile gegenüber herkömmlichen mechanischen Festplattenlaufwerken. Die meisten dieser Vorteile ergeben sich aus der Tatsache, dass SSDs keine beweglichen Teile verwenden. Sie arbeiten daher sehr zuverlässig in Umgebungen mit hohen Schock- und Vibrationsbelastungen und extremen Temperaturen. Dieses Merkmal ist für tragbare Systeme ein wichtiger Faktor. Das Risiko eines mechanischen Versagens wird durch den Mangel an beweglichen Teilen nahezu vollständig eliminiert.

In Bezug auf Messungen, Tests und industrielle Anwendungen sind Datenzugriffszeiten von großer Bedeutung. Da eine SSD keine Laufwerksköpfe wie bei einer herkömmlichen Festplatte bewegen oder hochfahren muss, können Daten fast ohne Verzögerung abgerufen werden. Aufgrund des Fehlens der mechanischen Verzögerungen zeigen SSDs signifikant höhere Lese- und Schreibraten.

Dieser Leistungsschub erhöht die Benutzerproduktivität, da durch die hohen Datenlese– und –schreibgeschwindigkeiten ein schnelleres Laden von Anwendungen und eine geringere Systemstartzeit möglich sind. SSDs bieten nicht nur schnellere Lese- und Schreibgeschwindigkeiten als herkömmliche Festplatten, sondern auch eine bessere deterministische Leistung. Im Gegensatz zu normalen HDDs ist die Leistung einer SLC SSD über den gesamten Speicherplatz nahezu konstant. Dies liegt an den konstanten Suchzeiten, die ein Solid-State-Laufwerk bietet.

Für tragbare Systeme, die von Akkus mit Energie versorgt werden, spielt der Stromverbrauch eine wichtige Rolle. In diesem Punkt sind SSDs den HDDs deutlich überlegen. SSDs verbrauchen wesentlich weniger Energie als herkömmliche HDDs, da kein Strom zum Antrieb von Motoren benötigt wird.

Nachteile von SSDs

Nach wie vor sind Consumer-SSDs teurer als HDDs mit gleicher Speicherkapazität. Der Preis pro GB Speicher ist bei SSDs immer noch höher. Die Speicherchips in einer SSD ermöglichen zudem nur eine begrenzte Anzahl von Schreibzyklen, was zu einem nicht wiederherstellbaren Datenverlust führen kann. Eine SSD kann kein einzelnes Informationsbit schreiben, ohne zuerst sehr große Datenblöcke zu löschen und dann erneut zu schreiben. Wenn eine Zelle diesen Zyklus durchläuft, „verschleißt“ sie ein wenig.
Dieser langsam voranschreitende Prozess beeinflusst jedoch nicht die Lesefähigkeit der gesamten SSD. Zudem übersteigt die Lebensdauer einer SSD aufgrund technologischer Fortschritte in der Regel den Produktlebenszyklus eines Computers, sodass dieser Nachteil kaum zum Tragen kommt. Allerdings, wenn der Controller-Chip, der Speichercache oder einer der Speicherchips physisch beschädigt wurde, sind die Daten möglicherweise vollständig unzugänglich.