Vielen Dank für Ihre Newsletter-Anmeldung.
Zur Verifizierung Ihrer E-Mail-Adresse haben wir Ihnen eine E-Mail zugeschickt. Bitte klicken Sie auf den darin enthaltenen Link.
Falls Sie die Mail nicht innerhalb der nächten Minuten erhalten, prüfen Sie bitte auch Ihren Spam-Ordner.

Wenn Sie Anregungen oder Fragen an das Team der IT-Spezialisten der Biteno GmbH haben, so freuen wir uns auf Ihr Feedback:

Was ist ein Penetrationstest?

,
Penetrationstest

Ein Penetrationstest, abgekürzt als PEN-Test bezeichnet, ist ein Test zur Bewertung der Sicherheit einer IT-Infrastruktur. Ein IT-Experte führt den Test durch indem er einen Angriff simuliert und damit die externen und internen Bedrohungen.

Ein PEN-Test beinhaltet eine aktive Analyse des Systems durch IT-Experten auf mögliche Sicherheitslücken. Sicherheitslücken in einer IT-Infrastruktur können durch eine falsche Systemkonfiguration, Hardware- oder Softwarefehler oder organisatorische Schwachstellen entstehen. Die im Laufe des Penetrationstests gefundenen Sicherheitsprobleme werden analysiert und im Hinblick auf mögliche Auswirkungen auf die gesamte Organisation bewertet. Auf Grundlage dieser Analyse und Bewertung können gegebenenfalls Maßnahmen zur Verbesserung der IT-Sicherheit vorgenommen werden.

Angriffe von außen verursachen schwerwiegende Schäden

Die Vorteile von Penetrationstest

Die wichtigsten Vorteile von Penetrationstests sind:

  • Identifizierung von Fehlern, die mit einer Fehlererkennungssoftware nicht oder nur schwer identifiziert werden können
  • Identifizieren von Fehlern mit einem hohen Risiko für das System, die sich aus einer Verkettung von Schwachstellen mit einem geringen Sicherheitsrisiko ergeben und von Angreifern in einer bestimmten Reihenfolge ausgenutzt werden können
  • Beurteilung, welche geschäftlichen und betrieblichen Auswirkungen ein erfolgreicher Angriff auf die IT-Infrastruktur haben kann
  • Testen der Fähigkeit von Netzwerkadministratoren und internen IT-Experten, Angriffe zu erkennen und auf diese Angriffe richtig zu reagieren

Wie wird ein Pentest durchgeführt?

Für die Durchführung eines PEN-Test werden drei verschiedene Testszenarien genutzt.

Der Black-Box Pen-Test

Bei einem Black-Box Test wird der Penetrationstester in die Rolle eines durchschnittlichen Hackers versetzt, dem das interne Zielsystem nicht bekannt ist. Die für den Test eingesetzten IT-Experten erhalten keine Architekturdiagramme, keine Systeminformationen oder Quellcodes, die nicht öffentlich verfügbar sind. Ein Black-Box Penetrationstest ermittelt die Schwachstellen in einem System, die von außerhalb des Netzwerks ausgenutzt werden können.

Dies bedeutet, dass ein Black-Box Penetrationstest auf einer dynamischen Analyse der aktuell ausgeführten Programme und Systeme innerhalb des Zielnetzwerks basiert. Black-Box Penetrationstester müssen mit automatisierten Scan-Tools und Methoden für manuelle Penetrationstests gleichermaßen vertraut sein. Zudem müssen sie als IT-Experten in der Lage sein, auf der Grundlage ihrer Beobachtungen eine eigene Karte eines Zielnetzwerks zu erstellen, da ihnen kein solches Diagramm zur Verfügung gestellt wird.

Der Hauptnachteil dieses Ansatzes besteht darin, dass alle Schwachstellen interner Services unentdeckt bleiben und nicht gepatcht werden, wenn die IT-Experten nicht in das System eindringen können.

Penetrationstest

Bei PEN-Tests werden Angriffe simuliert

Der Gray-Box Pen-Test

Bei dieser Testmethode kennt der Tester die Zugriffs- und Wissensebenen eines Benutzers, möglicherweise mit erhöhten Rechten auf einem System. Gray-Box Pentester haben normalerweise ein gewisses Wissen über die Interna eines Netzwerks, möglicherweise einschließlich der Design- und Architekturdokumentation und eines internen Accounts im Netzwerk.

Der Zweck des Gray-Box-Pentesting besteht darin, die Sicherheit eines Netzwerks gezielter und effizienter zu bewerten als bei einem Black-Box-Test möglich ist. Die IT-Experten können sich auf Grundlage der Vorkenntnisse von Anfang an auf die Systeme mit dem größten Risiko und dem größten Wert konzentrieren, anstatt diese Informationen selbst ermitteln zu müssen.

Der White-Box Pen-Test

White-Box-Tests werden unter verschiedenen Namen wie „Clear-Box„, „Open-Box„, „Auxiliary“ und „Logic-Driven“ durchgeführt. Die Penetration Tester erhalten bei dieser Methode vollen Zugriff auf Quellcodes, Architektur-Dokumentation, Anwendungssoftware, Hardwarespezifikationen und mehr. Die größte Herausforderung bei White-Box-Tests besteht darin, die große Menge an verfügbaren Daten zu durchforsten, um potenzielle Schwachstellen zu identifizieren. Whitebox-Pen-Test ist die zeitaufwendigste Art von Penetrationstests.

Im Gegensatz zu Black-Box– und Gray-Box-Tests sind Whitebox-Penetration-Tester in der Lage, statische Code-Analysen durchzuführen und sich mit Quellcode-Analysatoren, Debuggern und ähnlichen Tools vertraut zu machen, die für diese Art von Tests wichtig sind. Dynamische Analysewerkzeuge und –techniken sind jedoch auch für White-Box-Tester wichtig, da die statische Analyse Schwachstellen ausschließen kann, die durch Fehlkonfigurationen von Zielsystemen entstehen. Ein White-Box Penetrationstest ermöglicht eine umfassende Bewertung interner und externer Schwachstellen.

Die Vor- und Nachteile der verschiedenen Testmethoden

Die wichtigsten Unterschiede zwischen einem Blackbox-, Gray-Box– und White-BoxPEN-Test bestehen in der Genauigkeit des Tests sowie in seiner Geschwindigkeit, Effizienz und Abdeckung.

PEN-Tests sollen Schwachstellen aufzeigen

Der Zweck eines Penetrationstests besteht darin, Schwachstellen zu identifizieren und zu patchen, die von einem Angreifer ausgenutzt werden können. Daher wäre die ideale Form des Penetrationstests eine Blackbox, da die Mehrheit der Angreifer vor Beginn ihres Angriffs keine Kenntnis über die internen Abläufe ihres Zielnetzwerks hat. Der durchschnittliche Angreifer hat jedoch viel mehr Zeit für seinen Prozess als der durchschnittliche Pentester. Die anderen Arten von Penetrationstests wurden daher entwickelt, um die Eingriffszeit zu verkürzen, indem das dem Tester zur Verfügung gestellte Informationsniveau erhöht wird.

Das Gegenteil zum Black-Box-Test ist der White-Box-Test, bei dem die IT-Experten vollständige Informationen über das Zielsystem erhalten. Die Befürchtung bei dieser Art von PEN-Test besteht darin, dass die erhöhten Informationen dazu führen, dass die Tester sich anders verhalten als Blackbox-Hacker. Dies könnte dazu führen, dass sie Sicherheitslücken übersehen, die ein weniger informierter Angreifer ausnutzen würde.

Gray-Box-Tests sind ein Kompromiss zwischen White-Box– und Black-Box-Tests. Durch die Bereitstellung eines Testers mit begrenzten Informationen über das Zielsystem simulieren Gray-Box-Tests den Wissensstand, den ein Hacker mit langfristigem Zugriff auf ein System durch Forschung und System-Footprint erreichen könnte.

Geschwindigkeit, Effizienz und Reichweite von Penetartionstests

Die drei Penetrationstests stellen einen Kompromiss zwischen Geschwindigkeit, Effizienz und Reichweite her. Im Allgemeinen ist der Blackbox-Penetrationstest der schnellste Penetrationstest. Die begrenzten Informationen, die den Testern zur Verfügung stehen, erhöhen jedoch die Wahrscheinlichkeit, dass Verwundbarkeiten übersehen werden, und verringern die Effizienz des Tests. Die Tester verfügen nicht über die Informationen, die notwendig sind, um ihre Angriffe auf die wertvollsten oder wahrscheinlich verletzlichsten Ziele zu richten.

Beim Grey-Box-Test kommt es im Vergleich zu Black-Box Penetrationstest zu einem leichten Kompromiss im Hinblick auf höhere Effizienz und Abdeckung. Der Zugriff auf die Design-Dokumentation ermöglicht es den IT-Experten, ihre Bemühungen besser zu fokussieren und der interne Zugriff auf das Netzwerk erhöht die Abdeckung der Analyse. Dies gilt insbesondere im Vergleich zu Black-Box-Tests, bei denen Tester keine Schwachstelle finden, die ihnen den Zugriff innerhalb des Netzwerk-Perimeters ermöglicht.

White-Box-Tests sind die langsamste und umfassendste Form des PEN-Test. Die große Menge an Daten, die den IT-Experten zur Verfügung stehen, benötigt Zeit für die Verarbeitung und Analyse. Das hohe Zugriffsniveau verbessert jedoch die Wahrscheinlichkeit, dass sowohl interne als auch nach außen gerichtete Schwachstellen identifiziert und behoben werden können.

Faktura oder Rechnungsstellung – der kleine Unterschied

Hinter dem Begriff der Faktura verbirgt sich die Stellung einer Rechnung. Umgekehrt bezeichnet der Buchhalter die Rechnungsstellung gern als Fakturierung. So stellt sich die Frage, ob es zwischen beiden Begrifflichkeiten einen bedeutungsvollen Unterschied gibt oder ob es nur Varianten für die Beziehung von ein und demselben Vorgang sind. Beides ist richtig. Sie können bei der Rechnungsstellung von einer Faktura sprechen, was vor allem in Österreich und in der Schweiz häufig praktiziert wird. Im Deutschen gibt es jedoch einen kleinen Unterschied zwischen beiden Begrifflichkeiten, den Sie vor allem dann kennen sollten, wenn Sie sich in der Finanzwelt sicher bewegen möchten.

Rechnungen für Waren oder Dienstleistungen empfangen

Mit der Rechnungsstellung erhebt der Händler oder Dienstleister den Betrag, der den Gegenwert seiner Leistung darstellt. Eine Rechnung enthält die einzelnen Posten für Waren oder für Tätigkeiten, die Sie beim Dienstleister in Auftrag gegeben haben. Rechnungen gehören zum täglichen Leben dazu. Wenn Sie einkaufen gehen, bekommen Sie einen Kassenbon, der nichts weiter darstellt als eine Rechnung für die Produkte, die Sie im Ladengeschäft gekauft haben. Jeder Händler und Dienstleister ist verpflichtet, Ihnen auf Nachfrage eine Rechnung auszuhändigen. Diese kann handschriftlich formuliert sein oder als Ausdruck vorliegen. Beim Online-Handel ist es außerdem üblich, eine Rechnung als PDF zum Download zu überstellen.

Haben Sie in Österreich oder in der Schweiz einmal Ihren Urlaub verbracht oder Kontakt zu Händlern aus diesen Ländern gehabt, ist Ihnen vielleicht aufgefallen, dass der Begriff Rechnung in diesen Ländern nicht so benutzt wird wie in Deutschland. Dort sprechen Händler von der Faktura, die sie Ihnen ausstellen. Gemeint ist jedoch die klassische deutsche Rechnung. Sprechen Sie hingegen hierzulande von einer Faktura, benutzen Sie eine Begrifflichkeit aus dem Finanzwesen. Die Faktura umfasst in unserem Sprachgebrauch nicht nur die klassische Rechnung, sondern weitere Dokumente, die in der Finanzwelt einen wichtigen Stellenwert haben.

Faktura – Oberbegriff für verschiedene Dokumente

Eine Rechnungsstellung kann handschriftlich oder elektronisch erfolgen

Der Begriff der Faktura kann grundsätzlich allein für eine Rechnung stehen. Genau genommen handelt es sich im Deutschen jedoch um einen Oberbegriff, der mehrere Dokumente umfassen kann. Der Begriff der Fakturierung entstammt der Rechnungslegung. Die klassische Rechnung ist einer von drei Belegen, die im Rahmen der Fakturierung als Dokument einen Auftrag belegen. Auf der Rechnung ist ersichtlich, welche Dienstleistungen der Auftragnehmer zu welchem Preis erbracht hat. Darüber hinaus werden die Mehrwertsteuer und eventuelle Zusatzkosten ausgewiesen.

Neben der Rechnung gibt es auch Quittungen und Eigenbelege, die ebenfalls unter dem Oberbegriff der Fakturierung zusammengefasst werden. Auch diese beiden Belege unterscheiden sich in ihren Details, sodass in der Rechnungslegung alle drei Elemente einen wichtigen Stellenwert einnehmen. Möchten Sie sich Grundkenntnisse in der Finanzwelt aneignen, ist es wichtig, dass Sie den Unterschied kennen.

Die klassische Rechnung

Kaufleute und Dienstleister arbeiten trotz der Digitalisierung nach wie vor mit einer Rechnung. Zwar hat sich die Art der Rechnungslegung verändert, nicht aber der Zweck und Nutzen. Immer weniger Rechnung werden handschriftlich auf dem Papier gestellt, obwohl dies theoretisch immer noch möglich und erlaubt ist. Ein Problem ergibt sich aus der Archivierung und Vervielfältigung der handschriftlichen Rechnungen. Oftmals gibt es nur ein einziges Exemplar. Sollte dies abhanden kommen, ist es sowohl für den Händler als auch für den Kunden schwierig, die Dienstleistung nachzuweisen. Auch erweist sich das Stellen einer handschriftlichen Rechnung schwieriger als die elektronische Form.

Die elektronische Rechnung hat sich mittlerweile im Handel und im Dienstleistungsbereich etabliert. Neben der einfachen und automatischen Erstellung ergeben sich weitere Vorteile aus der elektronischen Rechnungsstellung. Diese kann beliebig oft vervielfältigt werden. Auch das Archivieren gestaltet sich einfacher, als dies bei einer handschriftlichen Rechnung möglich ist. Darüber hinaus ist es sehr einfach möglich, die Dokumente an die Finanzämter oder an eine andere Stelle zur Rechnungslegung zu überführen. Aus diesen Gründen konnte sich die elektronische Rechnungsstellung mittlerweile in der Finanzwelt durchsetzen.

Erstellen einer Quittung

Faktura

Quittungen sind Zahlungsbelege

Eine Quittung dient als Beleg für eine Zahlung, die sofort und in bar ausgeführt wird. Da sich der Anteil der Barzahlungen zugunsten des elektronischen und bargeldlosen Zahlungsverkehrs in den letzten Jahren deutlich verringert hat, gibt es auch immer weniger Quittungen.

Eine Quittung kann handschriftlich erstellt oder über einen PC oder Laptop ausgedruckt werden. Sie enthält den gezahlten Betrag und den Verwendungszweck. Der Empfänger der Geldleistung unterschreibt auf der Quittung. Handelt es sich um eine Zahlung an die Behörden, ist die Quittung nur mit einem Stempel und der entsprechenden Unterschrift gültig.

Es ist empfehlenswert, wenn Sie Quittungen mindestens drei Jahre aufheben. Die Quittung ist neben der Anwesenheit eines Zeugen die einzige Möglichkeit, eine Barzahlung nachzuweisen. Ausstehende Zahlungen können mindestens drei Jahre eingefordert werden. Erst danach gelten sie als verjährt. Bevor Sie eine Quittung verwerfen, sollten Sie beachten, dass die Verjährungsfrist erst ab dem Ende des Jahres beginnt, in dem die Quittung erstellt wurde. Haben Sie im Januar eines Jahres eine Quittung für eine Barzahlung erhalten, beginnt die Verjährungsfrist erst am ersten Januar des darauffolgenden Jahres zu laufen und währt somit fast vier Jahre.

Eigenbeleg ausstellen

In der Buchhaltung ist es ein wichtiger Grundsatz, dass alle Posten eines Belegs bedürfen. Kann für einen Posten kein Beleg nachgewiesen werden, ist eine Verbuchung nicht möglich. Dies gilt nicht nur für größere Posten, sondern auch für Kleinbeträge. Möchten Sie eine von Ihnen geleistete Zahlung nachweisen, ist es erlaubt, einen Eigenbeleg auszustellen. Auf diesem Eigenbeleg stellen Sie dar, wie hoch die Zahlung war, die Sie verbuchen lassen möchten, und wer diese Zahlung empfangen hat.

Die Ausstellung von Eigenbelegen ist grundsätzlich anerkannt. Es gibt jedoch eine Einschränkung, und diese betrifft die Nachweispflicht. Da Sie den Eigenbeleg selbst unterschreiben, ist eine Willkürlichkeit in jedem Fall auszuschließen. Möchten Sie beispielsweise ein Trinkgeld steuerlich absetzen und dafür einen Eigenbeleg ausstellen, weil Sie das Trinkgeld bar entrichtet haben, ist es empfehlenswert, wenn Sie auch eine Kopie der Rechnung einreichen. So gelingt Ihnen der Nachweis, dass Sie das Restaurant zur angegebenen Zeit auch tatsächlich besucht haben.

Für die Anerkennung eines Eigenbelegs fordern die Finanzämter häufig eine Begründung. Diese stellt die Grundlage für die Akzeptanz des geltend gemachten Betrages. Möchten Sie keine Zweifel und Nachfragen aufkommen lassen, liefern Sie diese Begründung für den Eigenbeleg sofort bei der Geltendmachung des Betrages. So beugen Sie Nachfragen vor und stellen eine schnelle Bearbeitung sicher.

Bargeld als wichtiges Zahlungsmittel in Deutschland

Bargeld ist in Deutschland noch sehr beliebt

Neben der Rechnung sind die Quittung und der Eigenbeleg gerade in Deutschland wichtige Elemente der Faktura. Im Gegensatz zu anderen Ländern ist Bargeld in Deutschland trotz moderner elektronischer Zahlungsvarianten sehr beliebt und kommt weiterhin in allen Bereichen zum Einsatz. Dies ist einer der Gründe dafür, dass der Begriff der Faktura in Deutschland weiter differenziert wird, während er in anderen Länder ausschließlich für die Rechnungsstellung verwendet wird. Deutschland ist eines der wenigen europäischen Länder, in denen Bargeld nach wie vor einen sehr großen Stellenwert hat.

Fakturierung – ein Element der Buchhaltung

In der Finanzwelt umfasst die Fakturierung alle Abläufe, die mit der Zahlung von Rechnungen in Zusammenhang stehen. Bei pünktlicher Begleichung der Rechnung wird diese auf das Konto des Kunden gebucht, sodass es ausgeglichen ist. Aber auch Mahnverfahren, die notwendig sind, wenn ein Kunde nicht zahlt, werden zu der Fakturierung hinzugezählt.

Die Fakturierung umfasst auch weitere Tätigkeiten, die im Rahmen der Rechnungslegung anfallen. Dazu gehört unter anderem die Erstellung von Gutschriften, wenn Kunden eine Ware zurückgesendet oder per Vorlasse bezahlt haben. Bei der Arbeit mit Rabattsystemen ist es ebenfalls wichtig, die entsprechenden Vorteile auf die Konten der Kunden einzuspielen.

Fazit:

Der Unterschied zwischen einer Rechnung und der Faktura kann in der Finanzwelt definiert werden. Im allgemeinen Sprachgebrauch ist es jedoch auch üblich, die Begriffe Rechnung und Faktura einheitlich zu verwenden. Dies ist vor allem in Ländern wie Österreich und der Schweiz zu beobachten, weil sich der Sprachgebrauch von dem in Deutschland in Details unterscheidet.

Was ist eine SSD?

,
SSD

Die drei Buchstaben SSD sind das Akronym für „Solid State Drive“. Eine SSD ist ein Massenspeicher für Daten ähnlich einer Festplatte (HDD). Im Gegensatz zu einer HDD nutzt eine SSD jedoch keine rotierenden Scheiben und bewegliche Schreib- / Leseköpfe sondern spezielle Chips, um Daten zu speichern. SSDs sind daher in der Regel weniger anfällig für Erschütterungen und Stöße. Sie sind zudem leise und bieten schneller Zugriffszeiten sowie geringere Latenzzeiten als eine HDD.

Geschichte der SSD

SSDs haben ihren Ursprung in den 50ern

Solid State Drives haben ihren Ursprung in den 1950er Jahren. Die ersten Geräte nutzten Magnetkernspeicher und sogenannte Card Capacitor Read-Only Store (CCROS). Diese damals noch als Hilfsspeichereinheiten bezeichneten SSDs entstanden während der Ära der Vakuumröhrencomputer. Mit der Einführung von billigeren Trommelspeichersystemen und den darauf folgenden HDDs wurde diese Technik wegen der hohen Kosten jedoch wieder aufgegeben.

In den 1970er und 1980er Jahren wurden SSDs in Halbleiterspeichern für frühe IBM-, Amdahl– und Cray-Supercomputer genutzt. Sie wurden wegen des unerschwinglich hohen Preises jedoch nur selten verwendet. Anfang 1995 wurde die Einführung der ersten Flash-basierten Solid-State-Laufwerken angekündigt. Diese Speicher hatten den Vorteil, dass keine Batterien erforderlich waren, um die Daten im Speicher zu halten, was bei den früheren flüchtigen Speichersystemen erforderlich war.

Ab diesem Zeitpunkt wurden SSDs zunehmend als Ersatz für Festplatten zunächst durch die Militär- und Luftfahrtindustrie sowie für unternehmenskritische Anwendungen eingesetzt. Diese Anwendungen erfordern eine außergewöhnlich lange Zeit zwischen Ausfällen (MTBF) des Speichermediums. Diese Eigenschaft bieten Solid-State-Drives aufgrund ihrer Fähigkeit, extremen Schock-, Vibrations– und Temperaturbereichen zu widerstehen.

Wie funktioniert eine SSD?

Im Prinzip besteht eine SSD nur aus einigen Speicherchips auf einer Platine mit einer In / Out-Schnittstelle, die Energie zuführt und Daten überträgt. Im Gegensatz zu herkömmlichen Festplattenlaufwerken gibt es bei einer SSD keinen Aktuatorarm, der sich über eine drehende Magnetplatte bewegen muss, um Daten zu lesen oder zu schreiben.

Die meisten SSDs verwenden „Negative AND“ Speicherchips, die sogenannten NAND-Flash-Speicher. NAND-Speicher sind relativ stabil und halten jahrelang. In diesen Speichern werden die Daten als Bits gespeichert. Es gibt drei Arten von Speichern, die bei SSDs verwendet werden:

Single-level cell (SLC)
Multi-level cell (MLC)
Triple-level cell (TLC)

Erläuterung der drei Arten

SSD-Zellen können ein bis drei Datenbits speichern

Single-level cell (SLC): Diese Zellen können jeweils nur ein Daten-Bit speichern – entweder eine 1 oder eine 0. Es gibt also nur zwei mögliche Werte, die in jeder Zelle gespeichert und wieder gelesen werden können. Aus diesem Grund ist der SLC-Speicher beim Schreiben von Daten sehr schnell und präzise. Zudem benötigen sie von allen NAND-Flash-Speichern die geringste Menge an Energie und halten am längsten. Allerdings ist diese Technologie auch die teuersteSLCSSDs werden normalerweise aufgrund ihres hohen Preises in Unternehmen verwendet, sind jedoch auch für private Nutzer für verfügbar.

Multi-level cell (MLC): Diese Zellen können jeweils zwei Datenbits pro Zelle speichern – eine 1 und eine 0. Da eine Multi-Level-Zelle beide Bits enthalten kann, gibt es vier mögliche Werte: 00, 01, 10 und 11. Ein MLC-Speicher kann somit eine größere Datenmenge speichern, ohne dass die physikalische Größe des Speichers zunimmt. Sie sind zu einem günstigeren Preis verfügbar, haben jedoch langsamere Schreibgeschwindigkeiten und sind weniger genau. Sie verbrauchen zudem mehr Strom und verschleißen aufgrund des erhöhten Stromverbrauchs etwa 10 mal schneller als der SLC-Speicher.

Triple-level cell (TLC): Diese Zellen können jeweils drei Datenbits pro Zelle speichern und sind in großen Speichergrößen zu einem günstigen Preis verfügbar. Der Kompromiss besteht bei Triple-Level-Zellen in einer langsameren Lese- und Schreibgeschwindigkeit und einer geringeren Präzision sowie in einer verringerten Lebensdauer durch den erhöhten Stromverbrauch.

Mehr Speicherkapazität durch neue Technologien

Die ersten SSDs enthielten nur 5 bis maximal 10 NAND-Chips mit einer ansprechend begrenzten Speicherkapazität. Zudem waren diese SSD noch sehr teuer. Neue Technologien ermöglichen NAND-Chips mit einer wesentlich größeren Speicherkapazität. Vertikales NAND (V-NAND) ist ein relativ neuer Ansatz, bei dem die Zellen übereinander gestapelt werden. Die Zellen behalten dabei die gleiche Leistung. Dadurch können große Speicherkapazitäten erreicht werden, ohne, dass die Chips selbst wesentlich größer werden. Beispielsweise kann ein einzelner V-NAND-Chip mit 48 Ebenen 32 GB Daten speichern. Eine 4 TB SSD enthält dementsprechend 125 separate V-NAND-Chips.

Alle NAND-Speicher sind mit einem sogenannten ECC (Error Correcting Code) ausgestattet. Der ECC dient zur Behebung von Fehlern, die beim Schreiben und Lesen von Daten auf der SSD auftreten. Die Zellen funktionieren dadurch weiterhin ordnungsgemäß, und die Funktionsfähigkeit der SSD bleibt erhalten.

Die Vorteile von SSDs

SSD

SSDs arbeiten zuverlässig und sind langlebiger

Solid State Drives bieten viele Vorteile gegenüber herkömmlichen mechanischen Festplattenlaufwerken. Die meisten dieser Vorteile ergeben sich aus der Tatsache, dass SSDs keine beweglichen Teile verwenden. Sie arbeiten daher sehr zuverlässig in Umgebungen mit hohen Schock- und Vibrationsbelastungen und extremen Temperaturen. Dieses Merkmal ist für tragbare Systeme ein wichtiger Faktor. Das Risiko eines mechanischen Versagens wird durch den Mangel an beweglichen Teilen nahezu vollständig eliminiert.

In Bezug auf Messungen, Tests und industrielle Anwendungen sind Datenzugriffszeiten von großer Bedeutung. Da eine SSD keine Laufwerksköpfe wie bei einer herkömmlichen Festplatte bewegen oder hochfahren muss, können Daten fast ohne Verzögerung abgerufen werden. Aufgrund des Fehlens der mechanischen Verzögerungen zeigen SSDs signifikant höhere Lese- und Schreibraten.

Dieser Leistungsschub erhöht die Benutzerproduktivität, da durch die hohen Datenlese– und –schreibgeschwindigkeiten ein schnelleres Laden von Anwendungen und eine geringere Systemstartzeit möglich sind. SSDs bieten nicht nur schnellere Lese- und Schreibgeschwindigkeiten als herkömmliche Festplatten, sondern auch eine bessere deterministische Leistung. Im Gegensatz zu normalen HDDs ist die Leistung einer SLC SSD über den gesamten Speicherplatz nahezu konstant. Dies liegt an den konstanten Suchzeiten, die ein Solid-State-Laufwerk bietet.

Für tragbare Systeme, die von Akkus mit Energie versorgt werden, spielt der Stromverbrauch eine wichtige Rolle. In diesem Punkt sind SSDs den HDDs deutlich überlegen. SSDs verbrauchen wesentlich weniger Energie als herkömmliche HDDs, da kein Strom zum Antrieb von Motoren benötigt wird.

Nachteile von SSDs

Nach wie vor sind Consumer-SSDs teurer als HDDs mit gleicher Speicherkapazität. Der Preis pro GB Speicher ist bei SSDs immer noch höher. Die Speicherchips in einer SSD ermöglichen zudem nur eine begrenzte Anzahl von Schreibzyklen, was zu einem nicht wiederherstellbaren Datenverlust führen kann. Eine SSD kann kein einzelnes Informationsbit schreiben, ohne zuerst sehr große Datenblöcke zu löschen und dann erneut zu schreiben. Wenn eine Zelle diesen Zyklus durchläuft, „verschleißt“ sie ein wenig.
Dieser langsam voranschreitende Prozess beeinflusst jedoch nicht die Lesefähigkeit der gesamten SSD. Zudem übersteigt die Lebensdauer einer SSD aufgrund technologischer Fortschritte in der Regel den Produktlebenszyklus eines Computers, sodass dieser Nachteil kaum zum Tragen kommt. Allerdings, wenn der Controller-Chip, der Speichercache oder einer der Speicherchips physisch beschädigt wurde, sind die Daten möglicherweise vollständig unzugänglich.

Elektronische Archivierung – Herausforderungen und Lösungen

,

Viele denken bei elektronischer Archivierung an eine andere Form der Ablage. Statt dem Abheften in Ordnern erfolgt ein Scannen der Dokumente. Die elektronischen Dateien wandern digitalisiert in Computersysteme, sind beispielsweise auf Festplatten und anderen Speichermedien abgelegt. Der altvertraute Ordner verwandelt sich also in Bits und Bytes im Computer, abgelegt in Foldern und Files.

Diese Vorstellung reflektiert einen kleinen Teil des Übergangs von der manuellen Form auf Papier in ein elektronisches Format. Elektronische Aufbewahrung beinhaltet mehr. Sie ist Teil eines Systems der Wertschöpfung zur Umformung von Informationen zu Wissen in elektronischer Form. Wie geschieht diese Transformation und wozu führt sie?

Parallelität der Inhalte von Dokumenten und Daten

Die digitale Archivierung ist weiter auf dem Vormarsch

Analoge Achive gibt es immer weniger

Es besteht eine Unterscheidung von Inhalten (Content) zwischen physischen Dokumenten und elektronischen Daten, mit denen die Inhalte gespeichert sind. Verträge und Begleitdokumente sind in Papierform die meistgenutzte Form. Die durchgehend elektronische Erstellung, Verarbeitung und Ablage ist in Teilbereichen der Industrie und Verwaltung erfolgt. Gleichförmige, wiederkehrende Geschäftsprozesse sind eine Voraussetzung. Aus rechtlichen Gründen sind für viele Vorgänge Unterschriften notwendig. Dokumente und Daten zu den gleichen Vorgängen sind mehrfach vorhanden.

Es stellt sich die Aufgabe der Reduzierung von Duplikaten (Deduplizierung)Deduplizierung ist in der Informationstechnik allerdings eine der größten technischen Herausforderungen. Eine Automatisierung nach logischen Prinzipien bedingt darüber hinaus menschliche Prüfvorgänge des Qualitätsmanagements durch Spezialisten (Revisionen, Audits).

Lebenszyklus elektronischer Archivierung

Der Lebenszyklus besitzt folgende fünf Phasen:

1. Entstehungsprozess von Dokumenten

Beispiel ist das Eröffnen eines Kontos bei einer Bank. Zu den Dokumenten sind hierzu Begleitunterlagen in Papierform notwendig wie Geschäftsbedingungen und rechtliche Hinweise, die vertragsbindend sind.

2. Transport

Die physischen Dokumente gelangen anschließend an einen Ort der Weiterverarbeitung (beispielsweise zum Scannen), zur Integration in andere Dokumente und Ablage, in physischer und elektronischer Form. Die Kosten von Transport und Weiterverarbeitung sind zudem ein großer Kostenblock im Lebenszyklus von Dokumenten und elektronischer Verarbeitung.

3. Hintergrundbearbeitung (Backoffice)

Elektronische Archivierung erfolgt in fünf Phasen

Prüf– und Verarbeitungsvorgänge dieser Instanz gewährleisten beispielsweise, dass alle Vorgänge fehlerfrei erfolgen (Validierung und Verifizierung). Die Hintergrundbearbeitung ist wie die Transportphase ebenfalls kostenintensiv. Qualifizierte Mitarbeiter sind notwendig.

4. Lagerung

Die Dokumente sind – ob Papier oder elektronisch – zu lagern, also zu archivieren. Elektronisch geschieht die Lagerung in Systemen der Informations- und Kommunikationstechnologie. Der Aufbau der Infrastruktur erfordert ebenfalls entsprechende Investitionen, laufende Unterhaltskosten und Expertenwissen.

5. Entsorgung

Nach Ablauf der Aufbewahrungsfristen sind die Dokumente allerdings zu entsorgen. Das gleiche geschieht mit den Daten. Während physische Dokumente sichtbar sind, ist es mit Daten komplizierter. Daten werden kopiert und die gleichen Daten sind mehrfach aufbewahrt.

Die Entsorgung (Löschung) von Daten stellt zudem hohe Anforderungen an Nachvollziehbarkeit durch Revisionsvorgänge (Audits). Hierfür sind Spezialisten aus den Bereichen von Informatik, Recht und aus der Betriebsorganisation notwendig.

Wertschöpfung

Eine Wertschöpfung entsteht, da Dokumente und Daten zur Erzeugung von Produkten und Dienstleistungen beitragen und notwendig sind (rechtliche Formvorschriften). Die Ablage in elektronischer Form ist ein Prozess aus dem genannten Lebenszyklus. Die Aufbewahrung erfolgt sowohl in den einzelnen Phasenschritten als auch abschließend mit der Endablage und Entsorgung.

Am Markt kann für die Produkte und Dienstleistungen ein bestimmter Preis erzielt werden, der profitabel ist. Die Verarbeitung der Dokumente und Archivierung in elektronischer Form stellt allerdings einen Kostenblock dar, der gering zu halten ist. Werte – der Gewinn – sinken, wenn beispielsweise die Kosten der elektronischen Verarbeitung und Archivierung durch Mängel der Geschäftsprozesse ungenügend sind.

Die gleichen Prinzipien gelten auch für den öffentlichen Sektor. Budgets aus Steuermitteln sind rationell einzusetzen.

Verminderung von Werten

Das Suchen von Dokumenten beansprucht viel Zeit

Hauptgründe für die Verminderung von Werten sind außerdem unzureichende Rationalisierung in den Hintergrundprozessen und die Vermehrung gleicher Daten in heterogenen elektronischen Archiven. Die Deduplizierung ist in der Informatik eine der größten Herausforderungen. Ein weiterer Faktor ist ferner das Suchen, Finden und Auswerten von elektronischen Dokumenten in den Archiven (Serversystemen). Untersuchungen in Großunternehmen ergaben dementsprechend einen beträchtlichen Werteverlust durch administrative – nicht wertschöpfende – Vorgänge.

Ein Viertel bis ein Drittel der Arbeitszeit wendet beispielsweise ein durchschnittlicher Mitarbeiter mit dem Suchen von relevanten elektronischen Dokumenten und zum aktuellen Stand (Versionstatus) auf. Teams verschwenden ebenfalls viel Zeit mit der Abstimmung unterschiedlicher Versionsstände, nicht auffindbaren und mit fehlerhaften elektronischen Dokumenten.

Technische und betriebswirtschaftliche Notwendigkeiten

Die elektronische Verarbeitung stellt daher hohe Anforderungen an die technische Infrastruktur. Die Daten sind in optimaler logischer Struktur zu erfassen, damit eine effiziente elektronische Ablage und Weiterverwendung erfolgt. Hauptanforderungen sind ergonomisch durchdachte Eingabesysteme für Mitarbeiter und automatisierte Erfassungssysteme durch Scannen.

Die Speicherung erfolgt in Datenbanksystemen. Herkömmliche Systeme arbeiten nach dem Prinzip von Zeilen und Spalten (relationale Zuordnung). Das heutige Datenaufkommen erfordert allerdings zunehmend ad-hoc Zugriffe, die schwer prognostizierbar sind. Neue Datenbanktechnologien sind demzufolge entstanden (nicht-relationale Verfahren wie NO-SQL). Bestehende technische Infrastrukturen müssen in neue Umgebungen kostenintensiv migriert werden.

Diesen Notwendigkeiten muss auch die Betriebsorganisation folgen. Der herkömmliche Aufbau einer klassischen hierarchischen Organisationsstruktur ist für moderne elektronische Ablageverfahren oftmals ungeeignet. Die schwer prognostizierbaren ad-hoc elektronischen Dokumentprozesse erfordern flexible, agile Organisationsformen. Das kann beispielsweise eine Matrixorganisation erfüllen. Ebenso sind die Geschäftsprozesse dem Wertschöpfungsprozess der genannten fünf Phasen des Lebenszyklus von elektronischer Dokumentation und Ablageverfahren anzupassen.

Gesetzliche Regeln und Anforderungen

Archivierung ist gesetzlich geregelt

Das Gesetz regelt die elektronische Archivierung

Die Ablage von Dokumenten in elektronischer Form ist überdies gesetzlich reglementiert. Das betrifft Themen der Revisionsfähigkeit(lückenloser Nachverfolgbarkeit) der Dokumente in materieller und elektronischer Form. Datensicherheit, Datenschutz und diverse Aufbewahrungsfristen stellen zudem hohe technische und organisatorische Anforderungen an die Betriebsorganisation und die Bereiche des öffentlichen Sektors.

Eine weitere Herausforderung ist die Identitätsprüfung und Zugriffsberechtigung (IAM=Identity & Access Management). Die Rollen und Berechtigungen erfordern Systeme, die organisatorisch und technisch den gesetzlichen Regeln und internen betrieblichen Bestimmungen entsprechen müssen.

Ob Privatpersonen, kleine, mittlere oder große Unternehmen, alle müssen sich diesen Herausforderungen des Gesetzesgebers stellen, die dazu von Jahr zu Jahr komplexer werden.

Fazit und Ausblick

Elektronische Archivierung ist ein umfangreicher Prozess, der den gesamten Prozess der betrieblichen Wertschöpfung betrifft. Privatpersonen sind durch gesetzliche Auflagen ebenso von der Thematik betroffen.

Die Realisierung eines optimalen Systems erfordert eine ganzheitliche Betrachtungsweise. Sie betrifft die durchgängige Gestaltung der Geschäftsprozesse zur elektronischen Ablage. Die Betriebsorganisation in Aufbau- und Ablauf muss für die entsprechende technische Infrastruktur gerüstet sein. Das betrifft vor allem die Beseitigung redundanter Vorgänge und Ablage mehrfacher gleicher Dokumente und Versionen. Das Suchen, Finden und Verwerten von Dokumenten hat ein beträchtliches Rationalisierungspotential.

Gesetzliche Auflagen und Anforderungen, die in Zukunft eher zunehmen, verlangen eine durchdachte Planung, Umsetzung und Weiterentwicklung elektronischer Archivierung.

Was ist Ethernet?

,
Ethernet

Den Begriff Ethernet hat der eine oder andere vielleicht schon einmal gehört. Die meisten wissen allerdings nicht, was sich dahinter verbirgt. Dabei ist es durchaus keine neue Erfindung und gewinnt zunehmend an Bedeutung. Was sich hinter dem Begriff verbirgt und warum es so bedeutend ist, verraten wir hier.

Was ist Ethernet?

Ethernet

Mit dem Ethernet können Daten übertragen werden

Durch ein Ethernet können Daten in einem geschlossenen Netzwerk von einem Gerät zum anderen transportiert werden. Notwendig sind dafür ethernetfähige Geräte und eine Verbindung zwischen diesen. Auf diese Weise lassen sich beispielsweise Fotos vom Computer an einen Smart-TV senden oder Dokumente von einem PC an einen Drucker, eine externe Festplatte oder einen anderen Computer.

Notwendig für diese Übertragung und Verbindung ist ein Ethernetkabel – dieses ist besser unter dem Begriff LAN-Kabel bekannt. Das Kabel ist jeweils mit einem Gerät und mit dem Router verbunden. Der Router dient als Schnittstelle und verbindet die Geräte zu einem geschlossenen Netzwerk. Als Heimnetzwerk ist diese Form bereits relativ weit verbreitet. Deutlich bekannter ist es jedoch in Büros beziehungsweise in Unternehmen.

Wie funktioniert das Ethernet?

Ein Ethernet besteht im Grunde aus zwei Komponentengruppen: dem „Data Communication Equipment“ (DCE) und dem „Data Terminal Equipment“ (DTE).

Zu dem Data Communication Equipment gehören alle Geräte, die Daten empfangen und anschließend weiterleiten können. Also zum Beispiel Router, Hub und Switch. Sie dienen als Schnittstellen und als Verbindung zwischen den einzelnen Elementen des Data Terminal Equipment. Bei diesem handelt es sich um nichts anderes als die Endgeräte, die über das Ethernet die Daten aus dem DCE empfangen und ihrerseits über das DCE an andere Endgeräte versenden können.

Ethernet-Kabel

Vor allem für große Unternehmen ist dies interessant

Damit ein Ethernet funktionieren und die Daten innerhalb eines geschlossenen Netzwerks versandt werden können, muss das Data Communication Equipment mit dem Data Terminal Equipment über ein entsprechendes Kabel verbunden sein. Die korrekte Bezeichnung für dieses lautet Ethernet-Kabel. Die meisten kennen es jedoch als LAN-Kabel – wobei Local Area Network für „Lokales Umgebungsnetzwerk“ beziehungsweise „Lokales Netzwerk“ steht.

Bei den anfänglichen Ethernets handelte es sich hierbei um ein dickes Koaxialkabel. Daher wurde die Form zunächst als „ThickEthernet“ (dickes Ethernet) bezeichnet. Mit der Zeit wurden die Kabel dünner und so erhielt die Form eine neue Bezeichnung: „Thin Ethernet“ (dünnes Ethernet). Mittlerweile haben sich allerdings Telefonkabel aus Kupfer als Transportmedium für die Daten zwischen Verteiler- und Endgeräten bewährt. Für größere Entfernungen werden hingegen Kabel aus Glasfaser verwendet.

Von der Direktverbindung zum Hub

Während der Anfänge des Ethernets waren die Rechner direkt über einen Kabelstrang miteinander verbunden. Dieser durchgängige Kabelstrang machte es einerseits schwierig, Defekte aufzuspüren. Andererseits wurden gesendete Daten an alle verbundenen Geräte verteilt. Das konnte wiederum einen Datenstau nach sich ziehen und erschwerte zudem die Zugangsbeschränkung auf Daten innerhalb des Netzwerks.

Vorteile brachte die Einführung von Hubs. Die Geräte im Ethernet waren nicht mehr direkt untereinander, sondern über eine Schnittstelle miteinander verbunden. Hierdurch lassen sich Defekte entlang der Kabel einfacher aufspüren. Zudem können Daten gezielt von einem Sender zu einem Empfänger transportiert werden – ohne dem gesamten Netzwerk zur Verfügung zu stehen. Hierdurch wird die Sicherung beziehungsweise Zugangsbeschränkung leichter und weniger aufwendig.

Durch die gerichtete Datenübertragung nimmt zudem das Risiko für Datenstaus innerhalb des lokalen Netzwerks ab.

Die Geschichte des Ethernets

Als Erfinder gilt Robert Melancton Metcalfe. Entwickelt wurde es über mehrere Jahre hinweg an dem Xerox PaloAlto Research Center. Metcalfe legte einen wichtigen Grundstein in einem Memo aus dem Jahre 1973 – hier erwähnte er das Ethernet erstmals. Funktion und Aufbau waren jedoch bisher nur als Skizze vorhanden. Die Idee geht auf das ALOHAnet zurück. Ein funkbasiertes Netzwerkprotokoll aus Hawaii.

Bis zum ersten funktionsfähigen Ethernet und seiner Verbreitung vergingen jedoch mehrere Jahre. Erst Ende der 1970er und Anfang der 1980er Jahre wurden vermehrte Bemühungen unternommen, um das Ethernet als Standard zu integrieren.

Verbesserungen folgten durch:

Die richtigen Kabel sorgen für eine sichere Verbindung

Hubs: Die bereits erwähnten Hubs ließen kürzere und separierte Verbindungen zwischen den Geräten zu. Die Datenübertragung kann durch sie gezielter erfolgen. Zudem lassen sich Fehler einfacher finden und beheben.

Switching: Das klassische Ethernet erlaubt mehreren Geräten ein Kabel gemeinsam zu nutzen. Der Erfolg dieser Methode ist erfahrungsgemäß gut, solange das Verkehrsaufkommen – also die Menge der transportierten Daten – vergleichsweise gering ist. Anderenfalls können sich bei dieser Technik Staus bilden. Diese werden auch als Kollisionen bezeichnet. Switching speichert Datenpakete und reduziert damit das Risiko dieser Kollisionen.

Ethernet flow control: Die – zu Deutsch – „Flusskontrolle“ verhindert Kollisionen bei der Datenübertragung durch ein gezieltes Pausieren des Transports. Zu vergleichen ist das System mit einer Ampelkreuzung. Damit alle möglichst sicher und zügig passieren können, wird der Verkehrsfluss kontrolliert. Allerdings ist diese Technik heute nicht mehr weit verbreitet. Optional kann es jedoch noch immer Anwendung finden.

Einführung von Kupfer- und Glasfaserkabeln: Die Einführung von dünneren Kupfer- und Glasfaserkabeln machte die Technologie zum einen verlässlicher. Zum anderen können über spezielle Kupferkabel nicht nur Daten, sondern auch Energie übertragen werden. Die Geräte im Ethernet können darüber also ebenfalls mit Strom versorgt werden. Glasfaserkabel haben vor allem den Vorteil, dass sie einen schnellen und weiten Datentransport ermöglichen. Sie werden daher vorzugsweise in größeren Unternehmen eingesetzt, um weitere Entfernungen zu überbrücken.

Vorteile des Ethernets

Vor allem private Nutzer sind mit dem Ethernet meist wenig vertraut und wundern sich vielleicht, warum dieses nicht schlicht durch ein WLAN ersetzt wird. Immerhin ist dieses kabellos und sehr einfach zu installieren. Das Ethernet hat auch gegenüber dem WLAN (Wireless Local Area Network) aber einige Vorteile zu bieten.

Darunter:

  • Unabhängigkeit: Ob die Internet- und WLAN-Verbindung gerade funktioniert oder nicht, die Technologie erlaubt eine fortlaufende Datenübertragung. Hierdurch zeigt es sich insgesamt verlässlicher und ist vor allem in Unternehmen eine gute Wahl.
  • Sicherheit: da das Ethernet unabhängig von Internet und WLAN funktioniert und auf die Verbindung über Kabel angewiesen ist, kann es sicherer gestaltet werden. Gerade bei sensiblen Inhalten innerhalb von Unternehmen fällt der Schutz leichter.
  • Kostengünstig: Die Implementierung eines Ethernets ist im Vergleich zu anderen Systemen ausgesprochen kostengünstig.
  • Weiterentwicklung: Nicht zuletzt aufgrund seiner zahlreichen Vorteile und weiten Verbreitung wird das Ethernet fortlaufend weiterentwickelt. Auch das ist wiederum ein Vorzug.

Nachteile des Ethernets

Ein potentieller Nachteil des Ethernets ist, dass es trotz der Steuerung des Datenaustauschs noch immer zu Kollisionen kommen kann. Dadurch kann der Datentransfer stocken oder eingeschränkt sein.