WLAN: Was es ist und wie es funktioniert

,

WLAN ist die geläufige Abkürzung für „Wireless Local Area Network“ und beschreibt sämtliche drahtlosen Netzwerke. In der Regel sind damit Funknetz-Standards aus einer bestimmten Normreihe gemeint. In manchen Ländern außerhalb Deutschlands werden diese WLAN-Standards unter der Bezeichnung Wi-Fi zusammengefasst. Zum WLAN gehören im Prinzip sämtliche Techniken und Standards, mit denen Sie lokale Funknetzwerke aufbauen können, darunter auch Bluetooth und Home RF.

Warum hat das WLAN sich so deutlich durchgesetzt?

Das digitale Zeitalter setzt nicht nur in der Arbeitswelt eine nachhaltige Mobilität voraus. Selbst wenn es hier in erster Linie um die Verarbeitung und Übertragung von Daten betrifft, nimmt das Funknetz auch im privaten Bereich immer größeren Raum ein. Das Wireless LAN erfüllt dabei gleich wenigstens drei unterschiedliche Anforderungen:

1. Der Zugang zum Netz wird für mobile Endgeräte deutlich vereinfacht.
2. Die Reichweite kabelgebundener Netzwerke kann vor allem an Stellen effektiv erweitert werden, die nur schwer zugänglich sind.
3. Für den provisorischen Aufbau eines Netzwerks auf Funktechnik-Basis ist WLAN eine häufig genutzte Option.

Der IEEE-Standard

WLAN

Mithilfe des WLAN das ganze Haus steuern

Der Begriff WLAN wird ausdrücklich für Funknetzwerke verwendet, die auf der IEEE-Norm aufbauen. Die Abkürzung IEEE steht für „Institute of Electrical and Electronics Engineers. Dieses Institut hat im Jahr 1997 zum ersten Mal den heute noch genutzten IEEE 802.11-Standard verabschiedet.

Der mehr als 20 Jahre alte Standard ist längst überholt und wurde zwischenzeitlich mehrfach ergänzt und aktualisiert. So existiert heute zum Beispiel der 802.11 ad. Er ermöglicht sehr hohe Bandbreiten, erlaubt aber lediglich eine Reichweite von einigen Metern.

Seit der Einführung des Standards 802.11 n kann WLAN häufiger auf ein 5 GHz-Band zurückgreifen. Bis dahin stand lediglich das 2,4 GHz-Band zur Verfügung, die Übertragungsraten lagen unter zwei Mbit/s.

Die so genannten Mesh-Netzwerke sind die neueste Entwicklung und tragen die Bezeichnung IEEE 802.11s. Es handelt sich dabei um vermaschte bzw. sich selbst vermaschende Netzwerke, die niemals aus nur einem Access Point bzw. WLAN-Router bestehen, sondern sich immer aus mehreren Access Points zusammensetzen.

Die unterschiedlichen Modi der Datenübertragung

Hinsichtlich der Art und Weise, wie Sie Daten zwischen den Clients im Netzwerk übertragen möchten, stehen Ihnen im WLAN-Betrieb zwei unterschiedliche Modi zur Verfügung: der Infrastruktur-Modus und der Ad-hoc-Modus.

1. WLAN im Infrastruktur-Modus

Den Datenverkehr koordinieren WLAN-Router oder ein Access Point. Diese stellen die so bezeichnete Basisstation dar und steuern grundsätzlich die Kommunikation. Für die Einbindung von Clients in solche Netzwerke benötigen Sie sowohl den Namen des Netzwerks als auch die verwendete Verschlüsselung.

Im Infrastruktur-Modus können Sie die Reichweite des Funknetzes per WLAN-Repeater jederzeit erweitern.

2. Wireless LAN im Ad-hoc-Modus

Sicherheit spielt hier auch eine Rolle

Im Ad-hoc-Netzwerk können sämtliche Clients direkt miteinander Daten austauschen, ohne dass sie auf einen Access Point oder einen Router zugreifen müssen. Die Einrichtung dieses Netzwerks ist vergleichsweise einfach, außerdem zeichnet sich dieser Modus durch ein hohes Übertragungstempo aus.

Auch hier müssen sich die Teilnehmer über den Netzwerknamen sowie über eine Verschlüsselung identifizieren, um sich einschalten zu können. Aufgrund der direkten Kommunikation der einzelnen Clients ist die Reichweite eines Ad-hoc-Netzwerks allerdings stark eingeschränkt.

Die Grundlagen für ein Ad-hoc-Netzwerk schafft ein Wireless Distribution System (WDS). Dabei handelt es sich um ein Adressierungs-Verfahren, das dem IEEE-Standard 802.11 entspricht und auch anspruchsvolle Netzwerk-Aufbauten ermöglicht.

Sicherheit und Verschlüsselung

WLAN-Netze müssen insofern abgesichert werden, dass weder ein unerlaubter Zugriff von außen noch ein Abfangen der Datenströme möglich ist. Handelsübliche Router ermöglichen dem Nutzer dazu drei unterschiedliche Verschlüsselungs-Varianten:

– WPA
– WPA2
– WPA + WPA2

Die drei Standards wirken sich sowohl auf die Sicherheit des Netzwerks aus als auch auf die Geschwindigkeit der Datenübertragung im WLAN. WPA steht für Wireless Protected Access.

Mit WPA nutzen Sie die Methode TKIP zur Verschlüsselung. TKIP steht für Temporal Key Integrity Protocol. Die Übertragungsgeschwindigkeit ist hier auf 54 Mbit/s beschränkt. Die aktuell sicherste Verschlüsselung erreichen Sie mit WPA2. Diese nutzt die Methode CCMP. Hier sind Geschwindigkeiten von mehr als 150 Mbit/s möglich.

Darüber hinaus gibt es den Mixed Mode, der sich aus WPA und WPA2 zusammensetzt. Damit können Sie sowohl ältere als auch moderne Geräte ins Netzwerk einbinden. Die Geschwindigkeit der Funkverbindung ist allerdings langsamer.

WEP: veraltet und nicht sicher

Das WLAN sollte verschlüsselt sein

WEP steht für Wired Equivalent Privacy. Dieser Verschlüsselungsstandard stammt aus dem Jahr 1999 und entspricht dem Standard IEEE 802.11. Seit 2013 dürfen Access Points die Verschlüsselung per WEP nicht mehr anbieten; seit 2014 dürfen auch WLAN-Geräte wie Sticks und Notebooks kein WEP mehr unterstützen.

Das grundsätzliche Problem liegt darin, dass WEP für die Verschlüsselung, für die Authentifizierung und für die Integritätsprüfung immer die gleichen Schlüssel verwendet. Der WEP-Schlüssel lässt sich verhältnismäßig einfach berechnen, und selbst ein nicht professioneller Hacker hat sich innerhalb weniger Minuten Zugriff zum WLAN verschafft.

Der neue Standard: WPA3

Dieser Standard stammt aus dem Jahr 2018 und kann als Update des WPA2 betrachtet werden. Er enthält neue Funktionen, vereinfacht die Authentifizierung und erhöht die Sicherheit der Verschlüsselung.

Insgesamt bietet der neue Standard folgende Vorteile:

– Die Authentifizierung ist robuster, die Kryptografie deutlich verbessert.
– Jedes einzelne Gerät lässt sich individuell verschlüsseln.
– Die Verschlüsselung der Geräte ohne Bedienelemente lässt sich einfacher konfigurieren.
– WPA3-Geräte können mit WPA2-Geräten zusammenarbeiten.

Optimierung des WLAN durch effiziente Maßnahmen

1. MIMO-Technologie (MIMO = Multiple Input Multiple Output)

WLAN ist kabellos

WLAN-Router arbeiten mit Funkwellen, die gelegentlich interferiert und reflektiert werden. Trifft ein Funkwellenberg auf ein Wellental, löschen die Wellen einander aus, der Funkverkehr bricht zusammen.

Router mit der MIMO-Technik verfügen über mehrere Antennen und können die Reflexionen aktiv für die Datenübertragung nutzen. Aktuell sind Router mit der Multi-User-MIMO-Technik auf dem Markt. Diese Technologie ermöglicht es den Basis-Stationen, bis zu vier Clients gleichzeitig anzufunken. Bei Bedarf können Sie entsprechende Repeater nutzen, um die Reichweite zu verstärken.

2. Band Steering

Das Band Steering ist die aktuellste Entwicklung, mit der sowohl die Stabilität als auch die Leistungsfähigkeit eines Wireless LAN signifikant verbessert werden. Diese Technik konzentriert vor allem auf Dual-Band-Geräte wie Smartphones und Tablets: Entweder werden diese mobilen Endgeräte gleich einer weniger stark belasteten WLAN-Frequenz zugeordnet, oder sie werden bei Bedarf dorthin umgebucht.

Die beiden Frequenzbänder weisen unterschiedliche Reichweiten auf. Nutzen Sie einen Router oder einen Access Point mit integriertem Band Steering, berücksichtigt er dies. Er weist den Dual-Band-Geräten das jeweils optimale Frequenzband zu – auch in Abhängigkeit der jeweiligen Signalstärke.

Was ist eine SSD?

,
SSD

Die drei Buchstaben SSD sind das Akronym für „Solid State Drive“. Eine SSD ist ein Massenspeicher für Daten ähnlich einer Festplatte (HDD). Im Gegensatz zu einer HDD nutzt eine SSD jedoch keine rotierenden Scheiben und bewegliche Schreib- / Leseköpfe sondern spezielle Chips, um Daten zu speichern. SSDs sind daher in der Regel weniger anfällig für Erschütterungen und Stöße. Sie sind zudem leise und bieten schneller Zugriffszeiten sowie geringere Latenzzeiten als eine HDD.

Geschichte der SSD

SSDs haben ihren Ursprung in den 50ern

Solid State Drives haben ihren Ursprung in den 1950er Jahren. Die ersten Geräte nutzten Magnetkernspeicher und sogenannte Card Capacitor Read-Only Store (CCROS). Diese damals noch als Hilfsspeichereinheiten bezeichneten SSDs entstanden während der Ära der Vakuumröhrencomputer. Mit der Einführung von billigeren Trommelspeichersystemen und den darauf folgenden HDDs wurde diese Technik wegen der hohen Kosten jedoch wieder aufgegeben.

In den 1970er und 1980er Jahren wurden SSDs in Halbleiterspeichern für frühe IBM-, Amdahl– und Cray-Supercomputer genutzt. Sie wurden wegen des unerschwinglich hohen Preises jedoch nur selten verwendet. Anfang 1995 wurde die Einführung der ersten Flash-basierten Solid-State-Laufwerken angekündigt. Diese Speicher hatten den Vorteil, dass keine Batterien erforderlich waren, um die Daten im Speicher zu halten, was bei den früheren flüchtigen Speichersystemen erforderlich war.

Ab diesem Zeitpunkt wurden SSDs zunehmend als Ersatz für Festplatten zunächst durch die Militär- und Luftfahrtindustrie sowie für unternehmenskritische Anwendungen eingesetzt. Diese Anwendungen erfordern eine außergewöhnlich lange Zeit zwischen Ausfällen (MTBF) des Speichermediums. Diese Eigenschaft bieten Solid-State-Drives aufgrund ihrer Fähigkeit, extremen Schock-, Vibrations– und Temperaturbereichen zu widerstehen.

Wie funktioniert eine SSD?

Im Prinzip besteht eine SSD nur aus einigen Speicherchips auf einer Platine mit einer In / Out-Schnittstelle, die Energie zuführt und Daten überträgt. Im Gegensatz zu herkömmlichen Festplattenlaufwerken gibt es bei einer SSD keinen Aktuatorarm, der sich über eine drehende Magnetplatte bewegen muss, um Daten zu lesen oder zu schreiben.

Die meisten SSDs verwenden „Negative AND“ Speicherchips, die sogenannten NAND-Flash-Speicher. NAND-Speicher sind relativ stabil und halten jahrelang. In diesen Speichern werden die Daten als Bits gespeichert. Es gibt drei Arten von Speichern, die bei SSDs verwendet werden:

Single-level cell (SLC)
Multi-level cell (MLC)
Triple-level cell (TLC)

Erläuterung der drei Arten

SSD-Zellen können ein bis drei Datenbits speichern

Single-level cell (SLC): Diese Zellen können jeweils nur ein Daten-Bit speichern – entweder eine 1 oder eine 0. Es gibt also nur zwei mögliche Werte, die in jeder Zelle gespeichert und wieder gelesen werden können. Aus diesem Grund ist der SLC-Speicher beim Schreiben von Daten sehr schnell und präzise. Zudem benötigen sie von allen NAND-Flash-Speichern die geringste Menge an Energie und halten am längsten. Allerdings ist diese Technologie auch die teuersteSLCSSDs werden normalerweise aufgrund ihres hohen Preises in Unternehmen verwendet, sind jedoch auch für private Nutzer für verfügbar.

Multi-level cell (MLC): Diese Zellen können jeweils zwei Datenbits pro Zelle speichern – eine 1 und eine 0. Da eine Multi-Level-Zelle beide Bits enthalten kann, gibt es vier mögliche Werte: 00, 01, 10 und 11. Ein MLC-Speicher kann somit eine größere Datenmenge speichern, ohne dass die physikalische Größe des Speichers zunimmt. Sie sind zu einem günstigeren Preis verfügbar, haben jedoch langsamere Schreibgeschwindigkeiten und sind weniger genau. Sie verbrauchen zudem mehr Strom und verschleißen aufgrund des erhöhten Stromverbrauchs etwa 10 mal schneller als der SLC-Speicher.

Triple-level cell (TLC): Diese Zellen können jeweils drei Datenbits pro Zelle speichern und sind in großen Speichergrößen zu einem günstigen Preis verfügbar. Der Kompromiss besteht bei Triple-Level-Zellen in einer langsameren Lese- und Schreibgeschwindigkeit und einer geringeren Präzision sowie in einer verringerten Lebensdauer durch den erhöhten Stromverbrauch.

Mehr Speicherkapazität durch neue Technologien

Die ersten SSDs enthielten nur 5 bis maximal 10 NAND-Chips mit einer ansprechend begrenzten Speicherkapazität. Zudem waren diese SSD noch sehr teuer. Neue Technologien ermöglichen NAND-Chips mit einer wesentlich größeren Speicherkapazität. Vertikales NAND (V-NAND) ist ein relativ neuer Ansatz, bei dem die Zellen übereinander gestapelt werden. Die Zellen behalten dabei die gleiche Leistung. Dadurch können große Speicherkapazitäten erreicht werden, ohne, dass die Chips selbst wesentlich größer werden. Beispielsweise kann ein einzelner V-NAND-Chip mit 48 Ebenen 32 GB Daten speichern. Eine 4 TB SSD enthält dementsprechend 125 separate V-NAND-Chips.

Alle NAND-Speicher sind mit einem sogenannten ECC (Error Correcting Code) ausgestattet. Der ECC dient zur Behebung von Fehlern, die beim Schreiben und Lesen von Daten auf der SSD auftreten. Die Zellen funktionieren dadurch weiterhin ordnungsgemäß, und die Funktionsfähigkeit der SSD bleibt erhalten.

Die Vorteile von SSDs

SSD

SSDs arbeiten zuverlässig und sind langlebiger

Solid State Drives bieten viele Vorteile gegenüber herkömmlichen mechanischen Festplattenlaufwerken. Die meisten dieser Vorteile ergeben sich aus der Tatsache, dass SSDs keine beweglichen Teile verwenden. Sie arbeiten daher sehr zuverlässig in Umgebungen mit hohen Schock- und Vibrationsbelastungen und extremen Temperaturen. Dieses Merkmal ist für tragbare Systeme ein wichtiger Faktor. Das Risiko eines mechanischen Versagens wird durch den Mangel an beweglichen Teilen nahezu vollständig eliminiert.

In Bezug auf Messungen, Tests und industrielle Anwendungen sind Datenzugriffszeiten von großer Bedeutung. Da eine SSD keine Laufwerksköpfe wie bei einer herkömmlichen Festplatte bewegen oder hochfahren muss, können Daten fast ohne Verzögerung abgerufen werden. Aufgrund des Fehlens der mechanischen Verzögerungen zeigen SSDs signifikant höhere Lese- und Schreibraten.

Dieser Leistungsschub erhöht die Benutzerproduktivität, da durch die hohen Datenlese– und –schreibgeschwindigkeiten ein schnelleres Laden von Anwendungen und eine geringere Systemstartzeit möglich sind. SSDs bieten nicht nur schnellere Lese- und Schreibgeschwindigkeiten als herkömmliche Festplatten, sondern auch eine bessere deterministische Leistung. Im Gegensatz zu normalen HDDs ist die Leistung einer SLC SSD über den gesamten Speicherplatz nahezu konstant. Dies liegt an den konstanten Suchzeiten, die ein Solid-State-Laufwerk bietet.

Für tragbare Systeme, die von Akkus mit Energie versorgt werden, spielt der Stromverbrauch eine wichtige Rolle. In diesem Punkt sind SSDs den HDDs deutlich überlegen. SSDs verbrauchen wesentlich weniger Energie als herkömmliche HDDs, da kein Strom zum Antrieb von Motoren benötigt wird.

Nachteile von SSDs

Nach wie vor sind Consumer-SSDs teurer als HDDs mit gleicher Speicherkapazität. Der Preis pro GB Speicher ist bei SSDs immer noch höher. Die Speicherchips in einer SSD ermöglichen zudem nur eine begrenzte Anzahl von Schreibzyklen, was zu einem nicht wiederherstellbaren Datenverlust führen kann. Eine SSD kann kein einzelnes Informationsbit schreiben, ohne zuerst sehr große Datenblöcke zu löschen und dann erneut zu schreiben. Wenn eine Zelle diesen Zyklus durchläuft, „verschleißt“ sie ein wenig.
Dieser langsam voranschreitende Prozess beeinflusst jedoch nicht die Lesefähigkeit der gesamten SSD. Zudem übersteigt die Lebensdauer einer SSD aufgrund technologischer Fortschritte in der Regel den Produktlebenszyklus eines Computers, sodass dieser Nachteil kaum zum Tragen kommt. Allerdings, wenn der Controller-Chip, der Speichercache oder einer der Speicherchips physisch beschädigt wurde, sind die Daten möglicherweise vollständig unzugänglich.

Berühmt, berüchtigt, digital – was sind eigentlich Hacker?

,

In der öffentlichen Wahrnehmung sitzen sie in dunklen Stuben vor ihrem Computer. Sie lehnen in schwarzen Hoodies über ihrem Laptop und prellen Unschuldige um ihr Erspartes: Hacker. Doch was steckt tatsächlich hinter dem Computerhacker. Wie verschaffen sie sich Zugriff auf Rechner und Netzwerke und sind Hacker wirklich immer Kriminelle?

Hier geht es um den Begriff des Hackers, die Definition und die wichtigsten Persönlichkeiten. Und natürlich auch um die gängigsten Klischees und deren Entkräftung.

Der Computer gehört nicht zwangsläufig zum Hacker

Klischeebild eines Hackers

Der Begriff des Hackens hat inzwischen seine ursprüngliche Bedeutung in der Popkultur fast schon zurückgewonnen. Bei kreativen Lösungen und beim Tüfteln spricht man vom HackenZopfgummis als Kabelsortierer etwa sind ein Life-Hack.

Entsprechend ist der Begriff des Hackens auch älter als der des Computerhackers. Es geht beim Hacken eher darum, kreative Lösungen zu finden und Probleme zu lösen. Das können kleinere Probleme des Alltags sein, aber eben auch Sicherheitslücken in Programmen und Websites. Der Begriff ist eigentlich gleich mehrfach neutral besetzt, auch moralisch.

Hacker früher und heute

In den 1950er Jahren fanden Hacker dann im Computer ein neues Tool. Sie suchten sich Wege, die Programme und die Technik auszuloten. Mit der Einführung der Vernetzung und der Verbreitung des PC in Haushalten in den 1980er Jahren gewannen Hacker und die gesamte Hackerszene zunehmend an Bedeutung.

Durch das Sammeln privater Nutzer- und Bankdaten, das Aufbrechen von Sicherheitsmechanismen und das Knacken von Datenbanken von Websites oder Phishing bekam der Begriff eine negative Konnotation. Dabei ist der Sammelbegriff für diese Form der Internetkriminalität und den Cyber-Terrorismus eigentlich Cracker.

Phishing, Mal- und Ransomware – die kriminellen Methoden der Cracker

Hacker

Ein Hacker ist nicht zwangsläufig kriminell

In der Hackerszene ist man darauf bedacht, den Begriff des Hackers von dem des Crackers deutlich zu trennen. Angelehnt an den klassischen Western ist im Englischen auch von „White Hats“ und den böswilligen „Black Hats“ die Rede.

So sind es eben Cracker, die mit verschiedenen Formen der Cyberkriminalität versuchen, auf Computer von Nutzern Zugriff zu erhalten. Dies kann verschiedene Formen annehmen. Mal geht es nur darum, blanken Schaden anzurichten. In solchen Fällen werden Anhänge verschickt, welche Computer mit einem Virus infizieren und eine Nutzung unmöglich machen.

Solche Malware kann aber auch nach sensiblen Informationen wie Bankdaten oder persönlichen Fotos suchen oder aber den Computer als Geisel nehmen. Ransomware übernimmt den Rechner und macht eine Nutzung unmöglich, es sei denn der Nutzer zahlt ein Lösegeld.

Auch Phishing-Versuche wie falsche Warnungen zu Konten, Kreditkarten, PayPal oder Phishing-Versuche (wie der nigerianische Prinz) werden oft landläufig als Hacking bezeichnet. Allerdings sind solche Taktiken eher verpönt.

In der Hackerethik ist die verbreitete Sichtweise, dass ein Eindringen (auch böswilliges) in geschlossene Systeme so lange in Ordnung ist wie kein Schaden angerichtet wird.

Hacker und ihr Nutzen für Unternehmen

Große Unternehmen setzen auf Hacker. Start Ups wie Facebook und Google veranstalten regelmäßig sogenannte Hackathons. Hier probieren die Programmierer sich in langen Sessions aus und lassen ihre Kreativität arbeiten.

Auch im Sicherheitsbereich braucht die Industrie Hacker, ansonsten werden Sicherheitslücken am Computer oder in einem Programm eben erst dann bemerkt, wenn es zu spät ist. Wird eine Lücke frühzeitig entdeckt (entweder intern oder durch vergleichsweise harmlose Hacks), so kann sie geschlossen werde, ehe es wirklich zu spät ist.

Denn durch böswillige Hacks wie die massenhafte Erbeutung von Kreditkartendaten bei Sony, Brute Force-Attacken gegen Apples iCloud oder die vorgebliche Akquise von Nutzerdaten der Datingseite Ashley Madison können Unternehmen in ernsthafte Schwierigkeiten geraten. Mit dem Verlust des Kundenvertrauens geht schließlich auch ein finanzieller Verlust einher. Alleine deswegen sind „gesunde“ Hacks auch im wirtschaftlichen Interesse von Unternehmen.

Sind Hacker eine Gefahr für die moderne Informationswelt?

Hacking kann auch sinnvoll sein

Eine große Gefahr, die derzeit am Computer entsteht, und wirklich massive Auswirkungen auf unsere Informationslandschaft und die westliche Demokratie hat, hat mit Hacks nicht einmal etwas zu tunCyberangriffe wie die koordinierten Desinformationskampagnen vor den US-Wahlen fallen nicht unter die Kategorie Hacking. Plattformen wie Facebook und Twitter wurden nicht gehackt, sondern wie vorgesehen genutzt und so missbraucht.

Organisationen wie der deutsche CCC (Chaos Computer Club) haben sich sogar einer sehr deutlichen Ethik verschrieben. Und diese steht eigentlich im Sinne einer besseren Informationskultur und des Datenschutzes der Nutzer: weniger Überwachung, dafür mehr Information und Archivierung durch Verbreitung.

Die Entstehung von „Open Source“

Bereits in den 80ern entwickelte sich in den USA eine Open Source-Kultur, welche quelloffene Programme erstellte. Oder aber die Quellcodes von Programmen veröffentlichte. Daraus entstanden etwa die Betriebssysteme Linux, die Variante Ubuntu, die Photoshop-Alternative GIMP oder Open Office. Die Öffnung des zugrunde liegenden Codes ermöglichte es der Community, beständig Verbesserungen vorzunehmen und entzog die Programme einer zentralisierten Kontrolle. Zudem kann man Lücken und Fehler im Code schneller finden und ausmerzen.

Auch im Sinne einer Software-Archivierung ist die „Erbeutung“ von Programmen relevant, diese Form der Piraterie ist oftmals die einzige Möglichkeit der Erhaltung. Wenn Unternehmen ältere Programmversionen aus ihrem Angebot nehmen, verschwinden diese inzwischen ganz. Ohne physische Medien geht so ein Teil der Informationsgesellschaft verloren. Hacking und Piraterie sind hier – wenn auch nicht legal – die einzigen Wege eines schlüssigen Informationsverzeichnisses.

Hacking auf staatlicher Ebene

Die Guy Fawkes-Maske verbinden viele mit Hackern

Auch auf staatlicher Ebene werden indes Hacker eingesetzt, Deutschland zog mit einer Cyber-Initiative der Bundeswehr vor einigen Jahren erst etwas spät nach. Der Cyber-Terrorismus stellt eine reale Gefahr dar, die im großen Stile sensible Daten erbeuten kann und Infrastruktur wie Stromnetze gefährdet.

Staaten wie Nordkorea stehen seit längerem im Verdacht, durch Hacking an Bitcoin-Börsen eine unauffällige Finanzquelle zu unterhalten. Auch Russland unterhält mehrere Divisionen der Cyber-Kriegsführung. Die Gefahr ist also durchaus real, typisch für den Hacker und die klassische Ethik der Freiheit ist dies allerdings nicht.

Dies hat seit einigen Jahren sogar zu einer besonderen Kategorie unter Hackern geführt, den sogenannten Hacktivists. Diese Mischung aus Hackern und Aktivisten nutzen nichtautorisierte Zugriffe auf Systeme, um auf Missstände und Gefahren hinzuweisen oder gegen illegale Aktivitäten (auch von Regierungen) aufmerksam zu machen.

Die „Namen“ der Szene – einige der größten Hacker

Ein Bild, das immer wieder mit Hackern assoziiert wird, ist der Mann mit der Guy Fawkes-Maske, der am Rechner sitzt. Die Maske erlangte durch den Film „V for Vendetta“ Berühmtheit in der Popkultur und ist ein Symbol des Putsches, historisch bedingt durch den Kanonenpulverplot gegen das britische Parlament.

Die Maske steht außerdem in Verbindung zur Gruppe Anonymous, die seit den frühen 2000ern vage organisiert für soziale Gerechtigkeit steht bzw. stand. Anonymous sind eher digitale Whistleblower, die sich vor Jahren einen Streit mit Scientology lieferten.

Beispiele einzelner bekannter Hacker

Die meisten Hacker bleiben anonym

Einer der Urväter des Hackings ist der US-Amerikaner Kevin Mitnick, in den frühen 80ern hackte er sich ins nordamerikanische Verteidigungsnetzwerk NORAD, später verkaufte er Sicherheitslücken an Meistbietende.

Ein klassisches Beispiel für einen „White Hat“ ist der Amerikaner Adrian Lamo, der aufgrund seiner minimalistischen Ausrüstung und seines Auftretens mit nichts als einem Rucksack auch obdachloser Hacker genannt wurde. Lamo manipulierte etwa Presseartikel und kontaktierte seine Opfer, bisweilen beseitigte er den von ihm zugefügten Schaden sogar.

Deutlich gefährlicher wurde es etwa im Falle des Hackers ASTRA. Ein griechischer Mathematiker, dessen Identität nie öffentlich wurde, erbeutete Software und Datensätze zu Waffentechnologien, die er verkaufte – 2008 wurde er allerdings verhaftet.

Kein System ist sicher

Hacker rein moralisch zu beurteilen ist zu kurz gegriffen. Die teils legale, teils illegale und teils in der Grauzone befindliche Arbeit am Computer ist ein komplexes Feld. Deswegen sollte Hacking keinesfalls auf CyberkriminalitätPhishing und Trojaner reduziert werden.

Vielmehr geht es bei dem Begriff des Computerhackers – ohne Wertung – um die kreative Ausnutzung von Sicherheitslücken, Schwachstellen und Exploits (also ausnutzbaren Fehlern). Diese Denkweise ist, solange kein Schaden entsteht, wichtig für die Softwareoptimierung und die Sicherheit jedes Einzelnen am Computer.

Doch natürlich ist Hacking ein stetes Spannungsfeld zwischen Lausbubenstreich, Freiheitsstreben, böswilligen Angriffen und koordiniertem Aktivismus. Aber so ist dies natürlich nicht nur beim Computerhacking, sondern bei allen kreativen Strategien, die neue Prozesse zu erkunden suchen.

Elektronische Archivierung – Herausforderungen und Lösungen

,

Viele denken bei elektronischer Archivierung an eine andere Form der Ablage. Statt dem Abheften in Ordnern erfolgt ein Scannen der Dokumente. Die elektronischen Dateien wandern digitalisiert in Computersysteme, sind beispielsweise auf Festplatten und anderen Speichermedien abgelegt. Der altvertraute Ordner verwandelt sich also in Bits und Bytes im Computer, abgelegt in Foldern und Files.

Diese Vorstellung reflektiert einen kleinen Teil des Übergangs von der manuellen Form auf Papier in ein elektronisches Format. Elektronische Aufbewahrung beinhaltet mehr. Sie ist Teil eines Systems der Wertschöpfung zur Umformung von Informationen zu Wissen in elektronischer Form. Wie geschieht diese Transformation und wozu führt sie?

Parallelität der Inhalte von Dokumenten und Daten

Die digitale Archivierung ist weiter auf dem Vormarsch

Analoge Achive gibt es immer weniger

Es besteht eine Unterscheidung von Inhalten (Content) zwischen physischen Dokumenten und elektronischen Daten, mit denen die Inhalte gespeichert sind. Verträge und Begleitdokumente sind in Papierform die meistgenutzte Form. Die durchgehend elektronische Erstellung, Verarbeitung und Ablage ist in Teilbereichen der Industrie und Verwaltung erfolgt. Gleichförmige, wiederkehrende Geschäftsprozesse sind eine Voraussetzung. Aus rechtlichen Gründen sind für viele Vorgänge Unterschriften notwendig. Dokumente und Daten zu den gleichen Vorgängen sind mehrfach vorhanden.

Es stellt sich die Aufgabe der Reduzierung von Duplikaten (Deduplizierung)Deduplizierung ist in der Informationstechnik allerdings eine der größten technischen Herausforderungen. Eine Automatisierung nach logischen Prinzipien bedingt darüber hinaus menschliche Prüfvorgänge des Qualitätsmanagements durch Spezialisten (Revisionen, Audits).

Lebenszyklus elektronischer Archivierung

Der Lebenszyklus besitzt folgende fünf Phasen:

1. Entstehungsprozess von Dokumenten

Beispiel ist das Eröffnen eines Kontos bei einer Bank. Zu den Dokumenten sind hierzu Begleitunterlagen in Papierform notwendig wie Geschäftsbedingungen und rechtliche Hinweise, die vertragsbindend sind.

2. Transport

Die physischen Dokumente gelangen anschließend an einen Ort der Weiterverarbeitung (beispielsweise zum Scannen), zur Integration in andere Dokumente und Ablage, in physischer und elektronischer Form. Die Kosten von Transport und Weiterverarbeitung sind zudem ein großer Kostenblock im Lebenszyklus von Dokumenten und elektronischer Verarbeitung.

3. Hintergrundbearbeitung (Backoffice)

Elektronische Archivierung erfolgt in fünf Phasen

Prüf– und Verarbeitungsvorgänge dieser Instanz gewährleisten beispielsweise, dass alle Vorgänge fehlerfrei erfolgen (Validierung und Verifizierung). Die Hintergrundbearbeitung ist wie die Transportphase ebenfalls kostenintensiv. Qualifizierte Mitarbeiter sind notwendig.

4. Lagerung

Die Dokumente sind – ob Papier oder elektronisch – zu lagern, also zu archivieren. Elektronisch geschieht die Lagerung in Systemen der Informations- und Kommunikationstechnologie. Der Aufbau der Infrastruktur erfordert ebenfalls entsprechende Investitionen, laufende Unterhaltskosten und Expertenwissen.

5. Entsorgung

Nach Ablauf der Aufbewahrungsfristen sind die Dokumente allerdings zu entsorgen. Das gleiche geschieht mit den Daten. Während physische Dokumente sichtbar sind, ist es mit Daten komplizierter. Daten werden kopiert und die gleichen Daten sind mehrfach aufbewahrt.

Die Entsorgung (Löschung) von Daten stellt zudem hohe Anforderungen an Nachvollziehbarkeit durch Revisionsvorgänge (Audits). Hierfür sind Spezialisten aus den Bereichen von Informatik, Recht und aus der Betriebsorganisation notwendig.

Wertschöpfung

Eine Wertschöpfung entsteht, da Dokumente und Daten zur Erzeugung von Produkten und Dienstleistungen beitragen und notwendig sind (rechtliche Formvorschriften). Die Ablage in elektronischer Form ist ein Prozess aus dem genannten Lebenszyklus. Die Aufbewahrung erfolgt sowohl in den einzelnen Phasenschritten als auch abschließend mit der Endablage und Entsorgung.

Am Markt kann für die Produkte und Dienstleistungen ein bestimmter Preis erzielt werden, der profitabel ist. Die Verarbeitung der Dokumente und Archivierung in elektronischer Form stellt allerdings einen Kostenblock dar, der gering zu halten ist. Werte – der Gewinn – sinken, wenn beispielsweise die Kosten der elektronischen Verarbeitung und Archivierung durch Mängel der Geschäftsprozesse ungenügend sind.

Die gleichen Prinzipien gelten auch für den öffentlichen Sektor. Budgets aus Steuermitteln sind rationell einzusetzen.

Verminderung von Werten

Das Suchen von Dokumenten beansprucht viel Zeit

Hauptgründe für die Verminderung von Werten sind außerdem unzureichende Rationalisierung in den Hintergrundprozessen und die Vermehrung gleicher Daten in heterogenen elektronischen Archiven. Die Deduplizierung ist in der Informatik eine der größten Herausforderungen. Ein weiterer Faktor ist ferner das Suchen, Finden und Auswerten von elektronischen Dokumenten in den Archiven (Serversystemen). Untersuchungen in Großunternehmen ergaben dementsprechend einen beträchtlichen Werteverlust durch administrative – nicht wertschöpfende – Vorgänge.

Ein Viertel bis ein Drittel der Arbeitszeit wendet beispielsweise ein durchschnittlicher Mitarbeiter mit dem Suchen von relevanten elektronischen Dokumenten und zum aktuellen Stand (Versionstatus) auf. Teams verschwenden ebenfalls viel Zeit mit der Abstimmung unterschiedlicher Versionsstände, nicht auffindbaren und mit fehlerhaften elektronischen Dokumenten.

Technische und betriebswirtschaftliche Notwendigkeiten

Die elektronische Verarbeitung stellt daher hohe Anforderungen an die technische Infrastruktur. Die Daten sind in optimaler logischer Struktur zu erfassen, damit eine effiziente elektronische Ablage und Weiterverwendung erfolgt. Hauptanforderungen sind ergonomisch durchdachte Eingabesysteme für Mitarbeiter und automatisierte Erfassungssysteme durch Scannen.

Die Speicherung erfolgt in Datenbanksystemen. Herkömmliche Systeme arbeiten nach dem Prinzip von Zeilen und Spalten (relationale Zuordnung). Das heutige Datenaufkommen erfordert allerdings zunehmend ad-hoc Zugriffe, die schwer prognostizierbar sind. Neue Datenbanktechnologien sind demzufolge entstanden (nicht-relationale Verfahren wie NO-SQL). Bestehende technische Infrastrukturen müssen in neue Umgebungen kostenintensiv migriert werden.

Diesen Notwendigkeiten muss auch die Betriebsorganisation folgen. Der herkömmliche Aufbau einer klassischen hierarchischen Organisationsstruktur ist für moderne elektronische Ablageverfahren oftmals ungeeignet. Die schwer prognostizierbaren ad-hoc elektronischen Dokumentprozesse erfordern flexible, agile Organisationsformen. Das kann beispielsweise eine Matrixorganisation erfüllen. Ebenso sind die Geschäftsprozesse dem Wertschöpfungsprozess der genannten fünf Phasen des Lebenszyklus von elektronischer Dokumentation und Ablageverfahren anzupassen.

Gesetzliche Regeln und Anforderungen

Archivierung ist gesetzlich geregelt

Das Gesetz regelt die elektronische Archivierung

Die Ablage von Dokumenten in elektronischer Form ist überdies gesetzlich reglementiert. Das betrifft Themen der Revisionsfähigkeit(lückenloser Nachverfolgbarkeit) der Dokumente in materieller und elektronischer Form. Datensicherheit, Datenschutz und diverse Aufbewahrungsfristen stellen zudem hohe technische und organisatorische Anforderungen an die Betriebsorganisation und die Bereiche des öffentlichen Sektors.

Eine weitere Herausforderung ist die Identitätsprüfung und Zugriffsberechtigung (IAM=Identity & Access Management). Die Rollen und Berechtigungen erfordern Systeme, die organisatorisch und technisch den gesetzlichen Regeln und internen betrieblichen Bestimmungen entsprechen müssen.

Ob Privatpersonen, kleine, mittlere oder große Unternehmen, alle müssen sich diesen Herausforderungen des Gesetzesgebers stellen, die dazu von Jahr zu Jahr komplexer werden.

Fazit und Ausblick

Elektronische Archivierung ist ein umfangreicher Prozess, der den gesamten Prozess der betrieblichen Wertschöpfung betrifft. Privatpersonen sind durch gesetzliche Auflagen ebenso von der Thematik betroffen.

Die Realisierung eines optimalen Systems erfordert eine ganzheitliche Betrachtungsweise. Sie betrifft die durchgängige Gestaltung der Geschäftsprozesse zur elektronischen Ablage. Die Betriebsorganisation in Aufbau- und Ablauf muss für die entsprechende technische Infrastruktur gerüstet sein. Das betrifft vor allem die Beseitigung redundanter Vorgänge und Ablage mehrfacher gleicher Dokumente und Versionen. Das Suchen, Finden und Verwerten von Dokumenten hat ein beträchtliches Rationalisierungspotential.

Gesetzliche Auflagen und Anforderungen, die in Zukunft eher zunehmen, verlangen eine durchdachte Planung, Umsetzung und Weiterentwicklung elektronischer Archivierung.

Was ist Ethernet?

,
Ethernet

Den Begriff Ethernet hat der eine oder andere vielleicht schon einmal gehört. Die meisten wissen allerdings nicht, was sich dahinter verbirgt. Dabei ist es durchaus keine neue Erfindung und gewinnt zunehmend an Bedeutung. Was sich hinter dem Begriff verbirgt und warum es so bedeutend ist, verraten wir hier.

Was ist Ethernet?

Ethernet

Mit dem Ethernet können Daten übertragen werden

Durch ein Ethernet können Daten in einem geschlossenen Netzwerk von einem Gerät zum anderen transportiert werden. Notwendig sind dafür ethernetfähige Geräte und eine Verbindung zwischen diesen. Auf diese Weise lassen sich beispielsweise Fotos vom Computer an einen Smart-TV senden oder Dokumente von einem PC an einen Drucker, eine externe Festplatte oder einen anderen Computer.

Notwendig für diese Übertragung und Verbindung ist ein Ethernetkabel – dieses ist besser unter dem Begriff LAN-Kabel bekannt. Das Kabel ist jeweils mit einem Gerät und mit dem Router verbunden. Der Router dient als Schnittstelle und verbindet die Geräte zu einem geschlossenen Netzwerk. Als Heimnetzwerk ist diese Form bereits relativ weit verbreitet. Deutlich bekannter ist es jedoch in Büros beziehungsweise in Unternehmen.

Wie funktioniert das Ethernet?

Ein Ethernet besteht im Grunde aus zwei Komponentengruppen: dem „Data Communication Equipment“ (DCE) und dem „Data Terminal Equipment“ (DTE).

Zu dem Data Communication Equipment gehören alle Geräte, die Daten empfangen und anschließend weiterleiten können. Also zum Beispiel Router, Hub und Switch. Sie dienen als Schnittstellen und als Verbindung zwischen den einzelnen Elementen des Data Terminal Equipment. Bei diesem handelt es sich um nichts anderes als die Endgeräte, die über das Ethernet die Daten aus dem DCE empfangen und ihrerseits über das DCE an andere Endgeräte versenden können.

Ethernet-Kabel

Vor allem für große Unternehmen ist dies interessant

Damit ein Ethernet funktionieren und die Daten innerhalb eines geschlossenen Netzwerks versandt werden können, muss das Data Communication Equipment mit dem Data Terminal Equipment über ein entsprechendes Kabel verbunden sein. Die korrekte Bezeichnung für dieses lautet Ethernet-Kabel. Die meisten kennen es jedoch als LAN-Kabel – wobei Local Area Network für „Lokales Umgebungsnetzwerk“ beziehungsweise „Lokales Netzwerk“ steht.

Bei den anfänglichen Ethernets handelte es sich hierbei um ein dickes Koaxialkabel. Daher wurde die Form zunächst als „ThickEthernet“ (dickes Ethernet) bezeichnet. Mit der Zeit wurden die Kabel dünner und so erhielt die Form eine neue Bezeichnung: „Thin Ethernet“ (dünnes Ethernet). Mittlerweile haben sich allerdings Telefonkabel aus Kupfer als Transportmedium für die Daten zwischen Verteiler- und Endgeräten bewährt. Für größere Entfernungen werden hingegen Kabel aus Glasfaser verwendet.

Von der Direktverbindung zum Hub

Während der Anfänge des Ethernets waren die Rechner direkt über einen Kabelstrang miteinander verbunden. Dieser durchgängige Kabelstrang machte es einerseits schwierig, Defekte aufzuspüren. Andererseits wurden gesendete Daten an alle verbundenen Geräte verteilt. Das konnte wiederum einen Datenstau nach sich ziehen und erschwerte zudem die Zugangsbeschränkung auf Daten innerhalb des Netzwerks.

Vorteile brachte die Einführung von Hubs. Die Geräte im Ethernet waren nicht mehr direkt untereinander, sondern über eine Schnittstelle miteinander verbunden. Hierdurch lassen sich Defekte entlang der Kabel einfacher aufspüren. Zudem können Daten gezielt von einem Sender zu einem Empfänger transportiert werden – ohne dem gesamten Netzwerk zur Verfügung zu stehen. Hierdurch wird die Sicherung beziehungsweise Zugangsbeschränkung leichter und weniger aufwendig.

Durch die gerichtete Datenübertragung nimmt zudem das Risiko für Datenstaus innerhalb des lokalen Netzwerks ab.

Die Geschichte des Ethernets

Als Erfinder gilt Robert Melancton Metcalfe. Entwickelt wurde es über mehrere Jahre hinweg an dem Xerox PaloAlto Research Center. Metcalfe legte einen wichtigen Grundstein in einem Memo aus dem Jahre 1973 – hier erwähnte er das Ethernet erstmals. Funktion und Aufbau waren jedoch bisher nur als Skizze vorhanden. Die Idee geht auf das ALOHAnet zurück. Ein funkbasiertes Netzwerkprotokoll aus Hawaii.

Bis zum ersten funktionsfähigen Ethernet und seiner Verbreitung vergingen jedoch mehrere Jahre. Erst Ende der 1970er und Anfang der 1980er Jahre wurden vermehrte Bemühungen unternommen, um das Ethernet als Standard zu integrieren.

Verbesserungen folgten durch:

Die richtigen Kabel sorgen für eine sichere Verbindung

Hubs: Die bereits erwähnten Hubs ließen kürzere und separierte Verbindungen zwischen den Geräten zu. Die Datenübertragung kann durch sie gezielter erfolgen. Zudem lassen sich Fehler einfacher finden und beheben.

Switching: Das klassische Ethernet erlaubt mehreren Geräten ein Kabel gemeinsam zu nutzen. Der Erfolg dieser Methode ist erfahrungsgemäß gut, solange das Verkehrsaufkommen – also die Menge der transportierten Daten – vergleichsweise gering ist. Anderenfalls können sich bei dieser Technik Staus bilden. Diese werden auch als Kollisionen bezeichnet. Switching speichert Datenpakete und reduziert damit das Risiko dieser Kollisionen.

Ethernet flow control: Die – zu Deutsch – „Flusskontrolle“ verhindert Kollisionen bei der Datenübertragung durch ein gezieltes Pausieren des Transports. Zu vergleichen ist das System mit einer Ampelkreuzung. Damit alle möglichst sicher und zügig passieren können, wird der Verkehrsfluss kontrolliert. Allerdings ist diese Technik heute nicht mehr weit verbreitet. Optional kann es jedoch noch immer Anwendung finden.

Einführung von Kupfer- und Glasfaserkabeln: Die Einführung von dünneren Kupfer- und Glasfaserkabeln machte die Technologie zum einen verlässlicher. Zum anderen können über spezielle Kupferkabel nicht nur Daten, sondern auch Energie übertragen werden. Die Geräte im Ethernet können darüber also ebenfalls mit Strom versorgt werden. Glasfaserkabel haben vor allem den Vorteil, dass sie einen schnellen und weiten Datentransport ermöglichen. Sie werden daher vorzugsweise in größeren Unternehmen eingesetzt, um weitere Entfernungen zu überbrücken.

Vorteile des Ethernets

Vor allem private Nutzer sind mit dem Ethernet meist wenig vertraut und wundern sich vielleicht, warum dieses nicht schlicht durch ein WLAN ersetzt wird. Immerhin ist dieses kabellos und sehr einfach zu installieren. Das Ethernet hat auch gegenüber dem WLAN (Wireless Local Area Network) aber einige Vorteile zu bieten.

Darunter:

  • Unabhängigkeit: Ob die Internet- und WLAN-Verbindung gerade funktioniert oder nicht, die Technologie erlaubt eine fortlaufende Datenübertragung. Hierdurch zeigt es sich insgesamt verlässlicher und ist vor allem in Unternehmen eine gute Wahl.
  • Sicherheit: da das Ethernet unabhängig von Internet und WLAN funktioniert und auf die Verbindung über Kabel angewiesen ist, kann es sicherer gestaltet werden. Gerade bei sensiblen Inhalten innerhalb von Unternehmen fällt der Schutz leichter.
  • Kostengünstig: Die Implementierung eines Ethernets ist im Vergleich zu anderen Systemen ausgesprochen kostengünstig.
  • Weiterentwicklung: Nicht zuletzt aufgrund seiner zahlreichen Vorteile und weiten Verbreitung wird das Ethernet fortlaufend weiterentwickelt. Auch das ist wiederum ein Vorzug.

Nachteile des Ethernets

Ein potentieller Nachteil des Ethernets ist, dass es trotz der Steuerung des Datenaustauschs noch immer zu Kollisionen kommen kann. Dadurch kann der Datentransfer stocken oder eingeschränkt sein.

PDF/A – sichere Langzeitarchivierung digitaler Dokumente

,
Die digitale Archivierung ist weiter auf dem Vormarsch

Wie bei einem Schreiner die Säge nicht wegzudenken ist, so darf auf keinem Computer die Adobe-Software zur Erstellung von PDF-Dateien fehlen. Ein digitaler Dokumentenaustausch ist heutzutage ohne PDF nicht mehr denkbar. PDF-Dateien sind zum weltweiten Standard geworden. Doch was hat es mit dem PDF/A Format auf sich?

Das im Jahr 1993 von Adobe entwickelte Dateiformat wird mittlerweile von verschiedenen Spezialformaten ergänzt und deckt damit die Anforderungen von unterschiedlichen Branchen an digitales Arbeiten, Abspeichern und Archivieren ab. PDF/A ist eines dieser Spezialformate und dient der Langzeitarchivierung von denjenigen Dokumenten, die originalgetreu und unveränderbar gesichert werden sollen.

Umstieg von der analogen Welt in die digitale Welt mit PDF/A

PDF/A Formate eignen sich zur Langzeitarchivierung

Analoge Achive gibt es immer weniger

Weltweit machen seit Jahren Unternehmen und Behörden den Schritt weg von Papierakten und hin zum sogenannten „papierlosen Büro“. In diesem arbeiten die Mitarbeiter nur noch mit digitalen Akten bzw. wandeln Papierdokumente in digitale Dokumente um. Analoge Schriftstücke werden (aufgrund der großen Mengen an Papier häufig von externen Firmen) eingescannt und in einem Dokumenten-Management-System (DMSrevisionssicher abgelegt. Wichtig hierbei ist, dass das Unternehmen dabei die rechtlichen Rahmenbedingungen aus dem Handelsrecht und die jeweiligen Datenschutzrichtliniendes Landes einhält. Ein nicht zu unterschätzendes Unterfangen, wenn man bedenkt, dass digitale Dokumente manipuliert werden könnten und somit – im Gegensatz zu Papierdokumenten – nicht mehr revisionssicher wären.

Anforderungen an die digitale Arbeitswelt

Vor diesem Hintergrund entstand die Anforderung, digitale Dokumente so zu archivieren, dass der Inhalt auch nach langer Zeit noch in derselben Qualität und ohne Abweichungen vom Original dargestellt werden kann. Auch sollte das Dateiformat so gestaltet sein, dass eine Manipulation des Dateiinhaltes nicht mehr möglich war.
Im Jahr 2005 hat daraufhin Adobe das PDF-Format um die Norm PDF/A ergänzt (das „A“ steht für Archivierung) und die ISO-Zertifizierung für das digitale Langzeitarchivieren erhalten.
Doch was ist der Unterschied zum allseits bekannten „normalen“ PDF-Format?

Der Unterschied zwischen PDF und PDF/A

Eine PDF-Datei (PDF steht für „Portable Document Format“) kennt fast jeder, der mit Computern zu tun hat. Sie scannen ein Papierdokument ein und erhalten eine PDF-Datei, oder Sie wandeln eine bereits vorhandene digitale Datei mittels eines Programmes in ein PDF um. Was hat es aber nun mit einer PDF/A-Datei auf sich?
Eine PDF/A-Datei ist eine reduzierte Version einer PDF-Datei. Alle Funktionen, die nichts mit einer Archivierung zu tun haben, wurden gestrichen. Dabei gehen keine Daten verloren, nur das Format ändert sich.

ISO-Standard für Langzeitarchivierung

Den rechtlichen Vorgaben muss entsprochen werden

Eine Langzeitarchivierung von digitalen Schriftstücken stellt bei Unternehmen oder Behörden aus handelsrechtlichen Gründen bestimmte Anforderungen an die Aufbewahrung. Es ist problemlos möglich, eine PDF-Datei mit einem PDF-Writer zu verändern. Vertrags- oder steuerrelevanten Schriftstücke, wie zum Beispiel Rechnungen oder Handelsbriefe, müssen aber mehrere Jahre lang in der Originalabbildung vorhanden bleiben. Adobe hat aus diesem Grund das Format PDF/A für eine rechtlich einwandfreie Langzeitarchivierung entwickelt und im Jahr 2005 die erste Version auf den Markt gebracht (PDF/A-1). Es folgten die Versionen A-2 (2011) und A-3 (2012). PDF/A ist seit 2005 der ISO-Standard für die Langzeitarchivierung digitaler Dokumente.

Unterscheidung zwischen PDF/A1a und A-1b

Man unterscheidet bei der Version PDF/A-1 zwischen zwei Abstufungen:
Der Level 1-b steht für „basic, übersetzt grundsätzlich/grundlegend. Er erfüllt die Mindestanforderungen der ISO-Norm und stellt eine eindeutige visuelle Reproduzierbarkeit sicher. Alle eingefügten Bilder sind fest im Dokument eingebunden. Die Textbausteine sind in Unicode-Darstellung, damit sie für die Ewigkeit oder zumindest für die vom Handelsrecht vorgeschriebene Dauer reproduzierbar bleiben.

Der Level 1-a steht für „accessible, übersetzt zugänglich und ist eine Steigerung zum Level 1-b: Dieses Format setzen Sie dann ein, wenn die Dateien auch auf mobilen Endgeräten verfügbar sein sollen und Sie die sogenannte „Barrierefreiheit“ gewährleisten wollen. Das bedeutet eine identische Darstellung ohne Einschränkungen bei Menschen mit Behinderung, zum Beispiel bei blinden Menschen.

Somit sollten Sie bei der Archivierung immer das Format A-1a benutzen, um alle Anforderungen abzudecken.

Besonderheiten von PDF/A-Dateien:

– PDF/A-Dateien benötigen weniger Speicherplatz als normale PDF-Dateien.
– Eine Verschlüsselung oder ein Sperren (zum Beispiel durch einen Passwortschutz) ist nicht möglich.
– Es gibt eine exakte Hinterlegung und Definition der Farbprofile.
Links auf Webseiten oder externen Inhalt sind nicht gestattet, da diese dynamisch sind und sich verändern können.
– Es gibt keine dynamischen Funktionen wie zum Beispiel Audio- oder Videodateien.
– Es sind digitale Signaturen hinterlegt.
– Transparente Objekte oder Layer (Ebenen) sind nicht erlaubt.
– Eine PDF/A1a-Datei hat eine Kennzeichnung in Form von Metadaten nach XMP-Standard.
– PDF/A1a-Dateien dürfen keine eingebetteten Daten enthalten.

Das PDF-Symbol

Fazit

Für eine Langzeitarchivierung von digitalen Dokumenten ist die Nutzung von PDF/A unumgänglich. Welche Norm Sie nehmen (1a1b, 2 oder 3) hängt davon ab, für welchen Zweck Sie die Daten sichern wollen.
Da letztendlich beim Speichern nicht klar ist, wer zukünftig die Dokumente lesen soll oder will, sollten Sie immer die höchste Normstufe wählen.