Vielen Dank für Ihre Newsletter-Anmeldung.
Zur Verifizierung Ihrer E-Mail-Adresse haben wir Ihnen eine E-Mail zugeschickt. Bitte klicken Sie auf den darin enthaltenen Link.
Falls Sie die Mail nicht innerhalb der nächten Minuten erhalten, prüfen Sie bitte auch Ihren Spam-Ordner.

Wenn Sie Anregungen oder Fragen an das Team der IT-Spezialisten der Biteno GmbH haben, so freuen wir uns auf Ihr Feedback:

Was ist eine SSD?

,
SSD

Die drei Buchstaben SSD sind das Akronym für „Solid State Drive“. Eine SSD ist ein Massenspeicher für Daten ähnlich einer Festplatte (HDD). Im Gegensatz zu einer HDD nutzt eine SSD jedoch keine rotierenden Scheiben und bewegliche Schreib- / Leseköpfe sondern spezielle Chips, um Daten zu speichern. SSDs sind daher in der Regel weniger anfällig für Erschütterungen und Stöße. Sie sind zudem leise und bieten schneller Zugriffszeiten sowie geringere Latenzzeiten als eine HDD.

Geschichte der SSD

SSDs haben ihren Ursprung in den 50ern

Solid State Drives haben ihren Ursprung in den 1950er Jahren. Die ersten Geräte nutzten Magnetkernspeicher und sogenannte Card Capacitor Read-Only Store (CCROS). Diese damals noch als Hilfsspeichereinheiten bezeichneten SSDs entstanden während der Ära der Vakuumröhrencomputer. Mit der Einführung von billigeren Trommelspeichersystemen und den darauf folgenden HDDs wurde diese Technik wegen der hohen Kosten jedoch wieder aufgegeben.

In den 1970er und 1980er Jahren wurden SSDs in Halbleiterspeichern für frühe IBM-, Amdahl– und Cray-Supercomputer genutzt. Sie wurden wegen des unerschwinglich hohen Preises jedoch nur selten verwendet. Anfang 1995 wurde die Einführung der ersten Flash-basierten Solid-State-Laufwerken angekündigt. Diese Speicher hatten den Vorteil, dass keine Batterien erforderlich waren, um die Daten im Speicher zu halten, was bei den früheren flüchtigen Speichersystemen erforderlich war.

Ab diesem Zeitpunkt wurden SSDs zunehmend als Ersatz für Festplatten zunächst durch die Militär- und Luftfahrtindustrie sowie für unternehmenskritische Anwendungen eingesetzt. Diese Anwendungen erfordern eine außergewöhnlich lange Zeit zwischen Ausfällen (MTBF) des Speichermediums. Diese Eigenschaft bieten Solid-State-Drives aufgrund ihrer Fähigkeit, extremen Schock-, Vibrations– und Temperaturbereichen zu widerstehen.

Wie funktioniert eine SSD?

Im Prinzip besteht eine SSD nur aus einigen Speicherchips auf einer Platine mit einer In / Out-Schnittstelle, die Energie zuführt und Daten überträgt. Im Gegensatz zu herkömmlichen Festplattenlaufwerken gibt es bei einer SSD keinen Aktuatorarm, der sich über eine drehende Magnetplatte bewegen muss, um Daten zu lesen oder zu schreiben.

Die meisten SSDs verwenden „Negative AND“ Speicherchips, die sogenannten NAND-Flash-Speicher. NAND-Speicher sind relativ stabil und halten jahrelang. In diesen Speichern werden die Daten als Bits gespeichert. Es gibt drei Arten von Speichern, die bei SSDs verwendet werden:

Single-level cell (SLC)
Multi-level cell (MLC)
Triple-level cell (TLC)

Erläuterung der drei Arten

SSD-Zellen können ein bis drei Datenbits speichern

Single-level cell (SLC): Diese Zellen können jeweils nur ein Daten-Bit speichern – entweder eine 1 oder eine 0. Es gibt also nur zwei mögliche Werte, die in jeder Zelle gespeichert und wieder gelesen werden können. Aus diesem Grund ist der SLC-Speicher beim Schreiben von Daten sehr schnell und präzise. Zudem benötigen sie von allen NAND-Flash-Speichern die geringste Menge an Energie und halten am längsten. Allerdings ist diese Technologie auch die teuersteSLCSSDs werden normalerweise aufgrund ihres hohen Preises in Unternehmen verwendet, sind jedoch auch für private Nutzer für verfügbar.

Multi-level cell (MLC): Diese Zellen können jeweils zwei Datenbits pro Zelle speichern – eine 1 und eine 0. Da eine Multi-Level-Zelle beide Bits enthalten kann, gibt es vier mögliche Werte: 00, 01, 10 und 11. Ein MLC-Speicher kann somit eine größere Datenmenge speichern, ohne dass die physikalische Größe des Speichers zunimmt. Sie sind zu einem günstigeren Preis verfügbar, haben jedoch langsamere Schreibgeschwindigkeiten und sind weniger genau. Sie verbrauchen zudem mehr Strom und verschleißen aufgrund des erhöhten Stromverbrauchs etwa 10 mal schneller als der SLC-Speicher.

Triple-level cell (TLC): Diese Zellen können jeweils drei Datenbits pro Zelle speichern und sind in großen Speichergrößen zu einem günstigen Preis verfügbar. Der Kompromiss besteht bei Triple-Level-Zellen in einer langsameren Lese- und Schreibgeschwindigkeit und einer geringeren Präzision sowie in einer verringerten Lebensdauer durch den erhöhten Stromverbrauch.

Mehr Speicherkapazität durch neue Technologien

Die ersten SSDs enthielten nur 5 bis maximal 10 NAND-Chips mit einer ansprechend begrenzten Speicherkapazität. Zudem waren diese SSD noch sehr teuer. Neue Technologien ermöglichen NAND-Chips mit einer wesentlich größeren Speicherkapazität. Vertikales NAND (V-NAND) ist ein relativ neuer Ansatz, bei dem die Zellen übereinander gestapelt werden. Die Zellen behalten dabei die gleiche Leistung. Dadurch können große Speicherkapazitäten erreicht werden, ohne, dass die Chips selbst wesentlich größer werden. Beispielsweise kann ein einzelner V-NAND-Chip mit 48 Ebenen 32 GB Daten speichern. Eine 4 TB SSD enthält dementsprechend 125 separate V-NAND-Chips.

Alle NAND-Speicher sind mit einem sogenannten ECC (Error Correcting Code) ausgestattet. Der ECC dient zur Behebung von Fehlern, die beim Schreiben und Lesen von Daten auf der SSD auftreten. Die Zellen funktionieren dadurch weiterhin ordnungsgemäß, und die Funktionsfähigkeit der SSD bleibt erhalten.

Die Vorteile von SSDs

SSD

SSDs arbeiten zuverlässig und sind langlebiger

Solid State Drives bieten viele Vorteile gegenüber herkömmlichen mechanischen Festplattenlaufwerken. Die meisten dieser Vorteile ergeben sich aus der Tatsache, dass SSDs keine beweglichen Teile verwenden. Sie arbeiten daher sehr zuverlässig in Umgebungen mit hohen Schock- und Vibrationsbelastungen und extremen Temperaturen. Dieses Merkmal ist für tragbare Systeme ein wichtiger Faktor. Das Risiko eines mechanischen Versagens wird durch den Mangel an beweglichen Teilen nahezu vollständig eliminiert.

In Bezug auf Messungen, Tests und industrielle Anwendungen sind Datenzugriffszeiten von großer Bedeutung. Da eine SSD keine Laufwerksköpfe wie bei einer herkömmlichen Festplatte bewegen oder hochfahren muss, können Daten fast ohne Verzögerung abgerufen werden. Aufgrund des Fehlens der mechanischen Verzögerungen zeigen SSDs signifikant höhere Lese- und Schreibraten.

Dieser Leistungsschub erhöht die Benutzerproduktivität, da durch die hohen Datenlese– und –schreibgeschwindigkeiten ein schnelleres Laden von Anwendungen und eine geringere Systemstartzeit möglich sind. SSDs bieten nicht nur schnellere Lese- und Schreibgeschwindigkeiten als herkömmliche Festplatten, sondern auch eine bessere deterministische Leistung. Im Gegensatz zu normalen HDDs ist die Leistung einer SLC SSD über den gesamten Speicherplatz nahezu konstant. Dies liegt an den konstanten Suchzeiten, die ein Solid-State-Laufwerk bietet.

Für tragbare Systeme, die von Akkus mit Energie versorgt werden, spielt der Stromverbrauch eine wichtige Rolle. In diesem Punkt sind SSDs den HDDs deutlich überlegen. SSDs verbrauchen wesentlich weniger Energie als herkömmliche HDDs, da kein Strom zum Antrieb von Motoren benötigt wird.

Nachteile von SSDs

Nach wie vor sind Consumer-SSDs teurer als HDDs mit gleicher Speicherkapazität. Der Preis pro GB Speicher ist bei SSDs immer noch höher. Die Speicherchips in einer SSD ermöglichen zudem nur eine begrenzte Anzahl von Schreibzyklen, was zu einem nicht wiederherstellbaren Datenverlust führen kann. Eine SSD kann kein einzelnes Informationsbit schreiben, ohne zuerst sehr große Datenblöcke zu löschen und dann erneut zu schreiben. Wenn eine Zelle diesen Zyklus durchläuft, „verschleißt“ sie ein wenig.
Dieser langsam voranschreitende Prozess beeinflusst jedoch nicht die Lesefähigkeit der gesamten SSD. Zudem übersteigt die Lebensdauer einer SSD aufgrund technologischer Fortschritte in der Regel den Produktlebenszyklus eines Computers, sodass dieser Nachteil kaum zum Tragen kommt. Allerdings, wenn der Controller-Chip, der Speichercache oder einer der Speicherchips physisch beschädigt wurde, sind die Daten möglicherweise vollständig unzugänglich.

Elektronische Archivierung – Herausforderungen und Lösungen

,

Viele denken bei elektronischer Archivierung an eine andere Form der Ablage. Statt dem Abheften in Ordnern erfolgt ein Scannen der Dokumente. Die elektronischen Dateien wandern digitalisiert in Computersysteme, sind beispielsweise auf Festplatten und anderen Speichermedien abgelegt. Der altvertraute Ordner verwandelt sich also in Bits und Bytes im Computer, abgelegt in Foldern und Files.

Diese Vorstellung reflektiert einen kleinen Teil des Übergangs von der manuellen Form auf Papier in ein elektronisches Format. Elektronische Aufbewahrung beinhaltet mehr. Sie ist Teil eines Systems der Wertschöpfung zur Umformung von Informationen zu Wissen in elektronischer Form. Wie geschieht diese Transformation und wozu führt sie?

Parallelität der Inhalte von Dokumenten und Daten

Die digitale Archivierung ist weiter auf dem Vormarsch

Analoge Achive gibt es immer weniger

Es besteht eine Unterscheidung von Inhalten (Content) zwischen physischen Dokumenten und elektronischen Daten, mit denen die Inhalte gespeichert sind. Verträge und Begleitdokumente sind in Papierform die meistgenutzte Form. Die durchgehend elektronische Erstellung, Verarbeitung und Ablage ist in Teilbereichen der Industrie und Verwaltung erfolgt. Gleichförmige, wiederkehrende Geschäftsprozesse sind eine Voraussetzung. Aus rechtlichen Gründen sind für viele Vorgänge Unterschriften notwendig. Dokumente und Daten zu den gleichen Vorgängen sind mehrfach vorhanden.

Es stellt sich die Aufgabe der Reduzierung von Duplikaten (Deduplizierung)Deduplizierung ist in der Informationstechnik allerdings eine der größten technischen Herausforderungen. Eine Automatisierung nach logischen Prinzipien bedingt darüber hinaus menschliche Prüfvorgänge des Qualitätsmanagements durch Spezialisten (Revisionen, Audits).

Lebenszyklus elektronischer Archivierung

Der Lebenszyklus besitzt folgende fünf Phasen:

1. Entstehungsprozess von Dokumenten

Beispiel ist das Eröffnen eines Kontos bei einer Bank. Zu den Dokumenten sind hierzu Begleitunterlagen in Papierform notwendig wie Geschäftsbedingungen und rechtliche Hinweise, die vertragsbindend sind.

2. Transport

Die physischen Dokumente gelangen anschließend an einen Ort der Weiterverarbeitung (beispielsweise zum Scannen), zur Integration in andere Dokumente und Ablage, in physischer und elektronischer Form. Die Kosten von Transport und Weiterverarbeitung sind zudem ein großer Kostenblock im Lebenszyklus von Dokumenten und elektronischer Verarbeitung.

3. Hintergrundbearbeitung (Backoffice)

Elektronische Archivierung erfolgt in fünf Phasen

Prüf– und Verarbeitungsvorgänge dieser Instanz gewährleisten beispielsweise, dass alle Vorgänge fehlerfrei erfolgen (Validierung und Verifizierung). Die Hintergrundbearbeitung ist wie die Transportphase ebenfalls kostenintensiv. Qualifizierte Mitarbeiter sind notwendig.

4. Lagerung

Die Dokumente sind – ob Papier oder elektronisch – zu lagern, also zu archivieren. Elektronisch geschieht die Lagerung in Systemen der Informations- und Kommunikationstechnologie. Der Aufbau der Infrastruktur erfordert ebenfalls entsprechende Investitionen, laufende Unterhaltskosten und Expertenwissen.

5. Entsorgung

Nach Ablauf der Aufbewahrungsfristen sind die Dokumente allerdings zu entsorgen. Das gleiche geschieht mit den Daten. Während physische Dokumente sichtbar sind, ist es mit Daten komplizierter. Daten werden kopiert und die gleichen Daten sind mehrfach aufbewahrt.

Die Entsorgung (Löschung) von Daten stellt zudem hohe Anforderungen an Nachvollziehbarkeit durch Revisionsvorgänge (Audits). Hierfür sind Spezialisten aus den Bereichen von Informatik, Recht und aus der Betriebsorganisation notwendig.

Wertschöpfung

Eine Wertschöpfung entsteht, da Dokumente und Daten zur Erzeugung von Produkten und Dienstleistungen beitragen und notwendig sind (rechtliche Formvorschriften). Die Ablage in elektronischer Form ist ein Prozess aus dem genannten Lebenszyklus. Die Aufbewahrung erfolgt sowohl in den einzelnen Phasenschritten als auch abschließend mit der Endablage und Entsorgung.

Am Markt kann für die Produkte und Dienstleistungen ein bestimmter Preis erzielt werden, der profitabel ist. Die Verarbeitung der Dokumente und Archivierung in elektronischer Form stellt allerdings einen Kostenblock dar, der gering zu halten ist. Werte – der Gewinn – sinken, wenn beispielsweise die Kosten der elektronischen Verarbeitung und Archivierung durch Mängel der Geschäftsprozesse ungenügend sind.

Die gleichen Prinzipien gelten auch für den öffentlichen Sektor. Budgets aus Steuermitteln sind rationell einzusetzen.

Verminderung von Werten

Das Suchen von Dokumenten beansprucht viel Zeit

Hauptgründe für die Verminderung von Werten sind außerdem unzureichende Rationalisierung in den Hintergrundprozessen und die Vermehrung gleicher Daten in heterogenen elektronischen Archiven. Die Deduplizierung ist in der Informatik eine der größten Herausforderungen. Ein weiterer Faktor ist ferner das Suchen, Finden und Auswerten von elektronischen Dokumenten in den Archiven (Serversystemen). Untersuchungen in Großunternehmen ergaben dementsprechend einen beträchtlichen Werteverlust durch administrative – nicht wertschöpfende – Vorgänge.

Ein Viertel bis ein Drittel der Arbeitszeit wendet beispielsweise ein durchschnittlicher Mitarbeiter mit dem Suchen von relevanten elektronischen Dokumenten und zum aktuellen Stand (Versionstatus) auf. Teams verschwenden ebenfalls viel Zeit mit der Abstimmung unterschiedlicher Versionsstände, nicht auffindbaren und mit fehlerhaften elektronischen Dokumenten.

Technische und betriebswirtschaftliche Notwendigkeiten

Die elektronische Verarbeitung stellt daher hohe Anforderungen an die technische Infrastruktur. Die Daten sind in optimaler logischer Struktur zu erfassen, damit eine effiziente elektronische Ablage und Weiterverwendung erfolgt. Hauptanforderungen sind ergonomisch durchdachte Eingabesysteme für Mitarbeiter und automatisierte Erfassungssysteme durch Scannen.

Die Speicherung erfolgt in Datenbanksystemen. Herkömmliche Systeme arbeiten nach dem Prinzip von Zeilen und Spalten (relationale Zuordnung). Das heutige Datenaufkommen erfordert allerdings zunehmend ad-hoc Zugriffe, die schwer prognostizierbar sind. Neue Datenbanktechnologien sind demzufolge entstanden (nicht-relationale Verfahren wie NO-SQL). Bestehende technische Infrastrukturen müssen in neue Umgebungen kostenintensiv migriert werden.

Diesen Notwendigkeiten muss auch die Betriebsorganisation folgen. Der herkömmliche Aufbau einer klassischen hierarchischen Organisationsstruktur ist für moderne elektronische Ablageverfahren oftmals ungeeignet. Die schwer prognostizierbaren ad-hoc elektronischen Dokumentprozesse erfordern flexible, agile Organisationsformen. Das kann beispielsweise eine Matrixorganisation erfüllen. Ebenso sind die Geschäftsprozesse dem Wertschöpfungsprozess der genannten fünf Phasen des Lebenszyklus von elektronischer Dokumentation und Ablageverfahren anzupassen.

Gesetzliche Regeln und Anforderungen

Archivierung ist gesetzlich geregelt

Das Gesetz regelt die elektronische Archivierung

Die Ablage von Dokumenten in elektronischer Form ist überdies gesetzlich reglementiert. Das betrifft Themen der Revisionsfähigkeit(lückenloser Nachverfolgbarkeit) der Dokumente in materieller und elektronischer Form. Datensicherheit, Datenschutz und diverse Aufbewahrungsfristen stellen zudem hohe technische und organisatorische Anforderungen an die Betriebsorganisation und die Bereiche des öffentlichen Sektors.

Eine weitere Herausforderung ist die Identitätsprüfung und Zugriffsberechtigung (IAM=Identity & Access Management). Die Rollen und Berechtigungen erfordern Systeme, die organisatorisch und technisch den gesetzlichen Regeln und internen betrieblichen Bestimmungen entsprechen müssen.

Ob Privatpersonen, kleine, mittlere oder große Unternehmen, alle müssen sich diesen Herausforderungen des Gesetzesgebers stellen, die dazu von Jahr zu Jahr komplexer werden.

Fazit und Ausblick

Elektronische Archivierung ist ein umfangreicher Prozess, der den gesamten Prozess der betrieblichen Wertschöpfung betrifft. Privatpersonen sind durch gesetzliche Auflagen ebenso von der Thematik betroffen.

Die Realisierung eines optimalen Systems erfordert eine ganzheitliche Betrachtungsweise. Sie betrifft die durchgängige Gestaltung der Geschäftsprozesse zur elektronischen Ablage. Die Betriebsorganisation in Aufbau- und Ablauf muss für die entsprechende technische Infrastruktur gerüstet sein. Das betrifft vor allem die Beseitigung redundanter Vorgänge und Ablage mehrfacher gleicher Dokumente und Versionen. Das Suchen, Finden und Verwerten von Dokumenten hat ein beträchtliches Rationalisierungspotential.

Gesetzliche Auflagen und Anforderungen, die in Zukunft eher zunehmen, verlangen eine durchdachte Planung, Umsetzung und Weiterentwicklung elektronischer Archivierung.

Was ist Ethernet?

,
Ethernet

Den Begriff Ethernet hat der eine oder andere vielleicht schon einmal gehört. Die meisten wissen allerdings nicht, was sich dahinter verbirgt. Dabei ist es durchaus keine neue Erfindung und gewinnt zunehmend an Bedeutung. Was sich hinter dem Begriff verbirgt und warum es so bedeutend ist, verraten wir hier.

Was ist Ethernet?

Ethernet

Mit dem Ethernet können Daten übertragen werden

Durch ein Ethernet können Daten in einem geschlossenen Netzwerk von einem Gerät zum anderen transportiert werden. Notwendig sind dafür ethernetfähige Geräte und eine Verbindung zwischen diesen. Auf diese Weise lassen sich beispielsweise Fotos vom Computer an einen Smart-TV senden oder Dokumente von einem PC an einen Drucker, eine externe Festplatte oder einen anderen Computer.

Notwendig für diese Übertragung und Verbindung ist ein Ethernetkabel – dieses ist besser unter dem Begriff LAN-Kabel bekannt. Das Kabel ist jeweils mit einem Gerät und mit dem Router verbunden. Der Router dient als Schnittstelle und verbindet die Geräte zu einem geschlossenen Netzwerk. Als Heimnetzwerk ist diese Form bereits relativ weit verbreitet. Deutlich bekannter ist es jedoch in Büros beziehungsweise in Unternehmen.

Wie funktioniert das Ethernet?

Ein Ethernet besteht im Grunde aus zwei Komponentengruppen: dem „Data Communication Equipment“ (DCE) und dem „Data Terminal Equipment“ (DTE).

Zu dem Data Communication Equipment gehören alle Geräte, die Daten empfangen und anschließend weiterleiten können. Also zum Beispiel Router, Hub und Switch. Sie dienen als Schnittstellen und als Verbindung zwischen den einzelnen Elementen des Data Terminal Equipment. Bei diesem handelt es sich um nichts anderes als die Endgeräte, die über das Ethernet die Daten aus dem DCE empfangen und ihrerseits über das DCE an andere Endgeräte versenden können.

Ethernet-Kabel

Vor allem für große Unternehmen ist dies interessant

Damit ein Ethernet funktionieren und die Daten innerhalb eines geschlossenen Netzwerks versandt werden können, muss das Data Communication Equipment mit dem Data Terminal Equipment über ein entsprechendes Kabel verbunden sein. Die korrekte Bezeichnung für dieses lautet Ethernet-Kabel. Die meisten kennen es jedoch als LAN-Kabel – wobei Local Area Network für „Lokales Umgebungsnetzwerk“ beziehungsweise „Lokales Netzwerk“ steht.

Bei den anfänglichen Ethernets handelte es sich hierbei um ein dickes Koaxialkabel. Daher wurde die Form zunächst als „ThickEthernet“ (dickes Ethernet) bezeichnet. Mit der Zeit wurden die Kabel dünner und so erhielt die Form eine neue Bezeichnung: „Thin Ethernet“ (dünnes Ethernet). Mittlerweile haben sich allerdings Telefonkabel aus Kupfer als Transportmedium für die Daten zwischen Verteiler- und Endgeräten bewährt. Für größere Entfernungen werden hingegen Kabel aus Glasfaser verwendet.

Von der Direktverbindung zum Hub

Während der Anfänge des Ethernets waren die Rechner direkt über einen Kabelstrang miteinander verbunden. Dieser durchgängige Kabelstrang machte es einerseits schwierig, Defekte aufzuspüren. Andererseits wurden gesendete Daten an alle verbundenen Geräte verteilt. Das konnte wiederum einen Datenstau nach sich ziehen und erschwerte zudem die Zugangsbeschränkung auf Daten innerhalb des Netzwerks.

Vorteile brachte die Einführung von Hubs. Die Geräte im Ethernet waren nicht mehr direkt untereinander, sondern über eine Schnittstelle miteinander verbunden. Hierdurch lassen sich Defekte entlang der Kabel einfacher aufspüren. Zudem können Daten gezielt von einem Sender zu einem Empfänger transportiert werden – ohne dem gesamten Netzwerk zur Verfügung zu stehen. Hierdurch wird die Sicherung beziehungsweise Zugangsbeschränkung leichter und weniger aufwendig.

Durch die gerichtete Datenübertragung nimmt zudem das Risiko für Datenstaus innerhalb des lokalen Netzwerks ab.

Die Geschichte des Ethernets

Als Erfinder gilt Robert Melancton Metcalfe. Entwickelt wurde es über mehrere Jahre hinweg an dem Xerox PaloAlto Research Center. Metcalfe legte einen wichtigen Grundstein in einem Memo aus dem Jahre 1973 – hier erwähnte er das Ethernet erstmals. Funktion und Aufbau waren jedoch bisher nur als Skizze vorhanden. Die Idee geht auf das ALOHAnet zurück. Ein funkbasiertes Netzwerkprotokoll aus Hawaii.

Bis zum ersten funktionsfähigen Ethernet und seiner Verbreitung vergingen jedoch mehrere Jahre. Erst Ende der 1970er und Anfang der 1980er Jahre wurden vermehrte Bemühungen unternommen, um das Ethernet als Standard zu integrieren.

Verbesserungen folgten durch:

Die richtigen Kabel sorgen für eine sichere Verbindung

Hubs: Die bereits erwähnten Hubs ließen kürzere und separierte Verbindungen zwischen den Geräten zu. Die Datenübertragung kann durch sie gezielter erfolgen. Zudem lassen sich Fehler einfacher finden und beheben.

Switching: Das klassische Ethernet erlaubt mehreren Geräten ein Kabel gemeinsam zu nutzen. Der Erfolg dieser Methode ist erfahrungsgemäß gut, solange das Verkehrsaufkommen – also die Menge der transportierten Daten – vergleichsweise gering ist. Anderenfalls können sich bei dieser Technik Staus bilden. Diese werden auch als Kollisionen bezeichnet. Switching speichert Datenpakete und reduziert damit das Risiko dieser Kollisionen.

Ethernet flow control: Die – zu Deutsch – „Flusskontrolle“ verhindert Kollisionen bei der Datenübertragung durch ein gezieltes Pausieren des Transports. Zu vergleichen ist das System mit einer Ampelkreuzung. Damit alle möglichst sicher und zügig passieren können, wird der Verkehrsfluss kontrolliert. Allerdings ist diese Technik heute nicht mehr weit verbreitet. Optional kann es jedoch noch immer Anwendung finden.

Einführung von Kupfer- und Glasfaserkabeln: Die Einführung von dünneren Kupfer- und Glasfaserkabeln machte die Technologie zum einen verlässlicher. Zum anderen können über spezielle Kupferkabel nicht nur Daten, sondern auch Energie übertragen werden. Die Geräte im Ethernet können darüber also ebenfalls mit Strom versorgt werden. Glasfaserkabel haben vor allem den Vorteil, dass sie einen schnellen und weiten Datentransport ermöglichen. Sie werden daher vorzugsweise in größeren Unternehmen eingesetzt, um weitere Entfernungen zu überbrücken.

Vorteile des Ethernets

Vor allem private Nutzer sind mit dem Ethernet meist wenig vertraut und wundern sich vielleicht, warum dieses nicht schlicht durch ein WLAN ersetzt wird. Immerhin ist dieses kabellos und sehr einfach zu installieren. Das Ethernet hat auch gegenüber dem WLAN (Wireless Local Area Network) aber einige Vorteile zu bieten.

Darunter:

  • Unabhängigkeit: Ob die Internet- und WLAN-Verbindung gerade funktioniert oder nicht, die Technologie erlaubt eine fortlaufende Datenübertragung. Hierdurch zeigt es sich insgesamt verlässlicher und ist vor allem in Unternehmen eine gute Wahl.
  • Sicherheit: da das Ethernet unabhängig von Internet und WLAN funktioniert und auf die Verbindung über Kabel angewiesen ist, kann es sicherer gestaltet werden. Gerade bei sensiblen Inhalten innerhalb von Unternehmen fällt der Schutz leichter.
  • Kostengünstig: Die Implementierung eines Ethernets ist im Vergleich zu anderen Systemen ausgesprochen kostengünstig.
  • Weiterentwicklung: Nicht zuletzt aufgrund seiner zahlreichen Vorteile und weiten Verbreitung wird das Ethernet fortlaufend weiterentwickelt. Auch das ist wiederum ein Vorzug.

Nachteile des Ethernets

Ein potentieller Nachteil des Ethernets ist, dass es trotz der Steuerung des Datenaustauschs noch immer zu Kollisionen kommen kann. Dadurch kann der Datentransfer stocken oder eingeschränkt sein.

Produktiver sein dank Cloud – 5 Tipps

Viele Unternehmen scheuen sich noch immer, in der Cloud zu arbeiten. Sicherheitsbedenken und vermeintlich hohe Kosten stehen im Mittelpunkt der Bedenken.
Doch besonders in Bereichen, in denen digitales Teamwork gefragt ist, bietet die Zusammenarbeit in der Cloud Chancen, die Produktivität deutlich zu steigern. Mit diesen Tipps klappt das synchronisierte Arbeiten.

Kosten senken durch Cloud

Clouds bieten eine hohe Sicherheit, gerade wenn sie auf den Servern etablierter deutscher Großunternehmen liegen. Die Arbeit in der Cloud senkt jedoch auch die eigenen IT-Kosten. Sie sparen sich die Einrichtung und Wartung eigener Rechenzentren und verlagern große Teile der Akten und Dokumente auf den gemieteten oder gekauften Speicherplatz. Das schafft finanzielle Ressourcen für neue Projekte oder zusätzliche Mitarbeiter.

Natürlich kostet die Nutzung der Cloud selbst auch Geld. Sie sollten daher regelmäßig überprüfen, wie viel Speicherplatz Ihre Daten wirklich benötigen und den Tarif oder gemieteten Webspace daran anpassen. Die gesparten Kosten können auch in Expansion, Sortiment-Erweiterung oder modernere Technik investiert werden.

Cloud-Anbieter nach Verfügbarkeit auswählen

Hybrid-, Private- oder Public-Cloud? Die Wahl der Cloud entscheidet maßgeblich über deren Verfügbarkeit. Public-Clouds sind dabei einem vom Provider abhängigen Wartungsplan unterworfen. Wartungen deutscher Server finden für Unternehmen günstig meist nachts statt. Firmeneigene Clouds dagegen erfordern eine umfassende IT, die auch während der Arbeitszeiten regelmäßig wartet. Die Arbeit in der Cloud senkt damit das Ausfallrisiko.

Eine Datenbank, die selten ausfällt, eröffnet beispielsweise dem Support mehr Möglichkeiten in der Beratung von Kunden. Wie oft mussten Sie bereits Gespräche vertagen, weil eine Datei nicht ansteuerbar war? In der Cloud können Sie die Daten auch dann einsehen, wenn eine Kollegin sie gerade bearbeitet.

Mobil macht flexibel

Stellen Sie Ihren Mitarbeiterinnen Mobilgeräte zur Verfügung, können alle an Projekten und Teamarbeit Beteiligten flexibel zusammenarbeiten. Die ständige Anwesenheit in einem Raum oder im Unternehmensgebäude ist für die Arbeit nicht mehr notwendig. So binden Sie auch Mitarbeiter im Homeoffice oder auf Reisen ein.

Aber Achtung: Im Fall einer bescheinigten Erkrankung oder im Urlaub hat der Mitarbeiter keine Anwesenheitspflicht – auch nicht im Workspace in der Cloud.

Die Produktivität wird jedoch auch spürbar in Meetings und Besprechungen gesteigert. Wenn alle gleichzeitig auf die besprochenen Datensätze Zugriff haben und Änderungen direkt vorgeschlagen und vermerkt werden können, entfallen ganze Zwischenschritte in der Umsetzung. Webinare und Videokonferenzen werden dank passender Cloudsoftware ebenfalls interaktiver.

Sicherheit vermarkten

Entscheiden Sie sich von Vornherein für einen besonders sicheren Cloudanbieter, können Sie diesen Faktor für Ihr Branding nutzen. Kunden wissen gern, dass Ihr bevorzugter Dienstleister sich um die Sicherheit ihrer Daten kümmert. Die Datenhaltung in der Cloud ist natürlich nur dann ein Vorsprung, wenn Sie alle Sicherheitsmaßnahmen im Hinblick auf Zugriffsrechte, Administration und Geheimhaltung einhalten.

Nach der neuen DSGVO dürfen nur so viele Mitarbeiterinnen auf einen Datensatz Zugriff haben, wie tatsächlich benötigt. Die Anbieter selbst müssen innerhalb der EU ohnehin hohen Standards gerecht werden. Die TÜV- und ISO-Zertifikate Ihrer Unternehmenssicherheit können Sie online vorweisen, um das sichere Image zu verstärken.

Office in die Cloud verlagern

Office-Programme sind in allen Unternehmen ein großes Thema. Die Einarbeitung in Programme wie Microsoft Excel kann mühsam sein. Eine neue Softwareversion sorgt für die Verlangsamung aller Prozesse durch Neueinarbeitung und Suche nach Funktionen. Dokumente müssen auf der Festplatte verwaltet werden. Mit günstigen und kostenlosen Cloud Office-Apps wie Microsoft Office 365 oder dem Google Anwendungspaket arbeiten alle Mitarbeiterinnen mit der aktuellsten, einfach zu bedienenden Software.

Auch hier profitieren Sie vom gemeinsamen Zugriff, Teilen von Dokumenten innerhalb der Cloud oder per Mail und eine simple Verwaltung. Die Chat-App „Slack“ verbindet außerdem Ihre Teams in der Kommunikation und kann mit zahlreichen Plugins automatisiert werden. Der Chat läuft über eine Cloud, ist jedoch sicher geschützt vor jeglichem externen Zugriff.

Fazit

Um mit der Cloud zu arbeiten und einen Produktivitäts-Vorsprung zu erreichen, müssen Webspace und Geräte häufig geupgraded werden. Die Anschaffungskosten rentieren sich jedoch in der Zeitersparnis und hoher Sicherheit, die Sie als solche vorzeigen und vermarkten können.

Der Sicherheitsbeauftragte – eine wichtige Aufgabe in Unternehmen

,

Arbeitsschutz spielt in allen Bereichen des Arbeitslebens eine wichtige Rolle. Unternehmen haben die Pflicht, ihre Mitarbeiterinnen und Mitarbeiter vor arbeitsspezifischen gesundheitlichen Belastungen sowie vor möglichen Gefahren zu schützen. Da diese Aufgabe in einem mittleren bis großen Unternehmen nicht alleine von der Unternehmensleitung wahrgenommen werden kann, werden sogenannte Sicherheitsbeauftragte bestellt.

Die rechtlichen Vorschriften für Sicherheitsbeauftragte

Die von den Berufsgenossenschaften erlassenen Unfallverhütungsvorschriften wurden 2014 in den DGUV-Vorschriften zusammengefasstDGUV steht für Deutsche gesetzliche Unfallversicherung. Diese DGUV stellt die Grundlage für die Bestellung von Sicherheitsbeauftragten dar. Sie präzisiert die Anforderungen des Arbeitsschutzgesetzes (ASchG) und schreibt Unternehmen ab einer Mitarbeiterzahl von 20 die Bestellung von Sicherheitsbeauftragten vor.

Die Aufgaben der Sicherheitsbeauftragten

Der Sicherheitsbeauftragte beobachtet, berät, unterstützt und ist Vorbild

Sicherheitsbeauftragte haben mehrere Funktionen: Sie sollen zum Beispiel die Kollegen beraten und ihnen helfen, die Sicherheitsrichtlinien einzuhalten. Außerdem machen sie ihre Vorgesetzten darauf aufmerksam, wenn ihnen sicherheitsgefährdende Dinge im Betrieb auffallen. Sie unterstützen die Fachsicherheitskraft (FaSi) und den Betriebsarzt (BA) beispielsweise beim Erstellen von Gefährdungsbeurteilungen, um Mängel zu erkennen und zu beseitigen. Des Weiteren beteiligen sie sich an Betriebsbegehungen. Sie führen neue Mitarbeiter und Azubis in die Sicherheitsrichtlinien des Unternehmens ein. Nicht zuletzt sind sie Ansprechpartner für alle Kollegen, was den Arbeitsschutz angeht und machen Verbesserungsvorschläge, um die Mitarbeiter vor Gefahren zu schützen.

Dabei haben sie eine Vorbildfunktion gegenüber allen Kollegen und Vorgesetzten, allerdings ohne irgendeine Weisungsbefugnis. Daher können sie auch keine Haftung für Betriebsunfälle übernehmen – die rechtliche Verantwortung bleibt immer bei der Unternehmensführung.

Voraussetzungen, um Sicherheitsbeauftragter zu werden

Der Sicherheitsbeauftragte sollte ein Mitarbeiter sein, der umsichtig und auf Augenhöhe der Kollegen agiert. Ein Mitarbeiter, der das Vertrauen seiner Kollegen und Vorgesetzten bereits genießt, ist eine gute Wahl für diese Aufgabe. Eigenschaften wie Umsicht, Loyalität, soziale Kompetenz und ein sicheres Auftreten sind ideal.

Eine Schulung zu Beginn der Übernahme hilft dem Sicherheitsbeauftragten, seine Aufgabe zu meistern, für das Unternehmen einen echten Mehrwert darzustellen und Betriebsunfälle zu vermeiden. Das trägt zu einem guten Betriebsklima als auch zu weniger krankheitsbedingten Ausfällen im Betrieb bei.

Wie wird der Sicherheitsbeauftragte ernannt?

Die Unternehmensführung kann jede Mitarbeiterin und jeden Mitarbeiter zum Sicherheitsbeauftragten ernennen. In Zusammenarbeit mit dem Betriebs- und Personalrat wird das Unternehmen im Idealfall einen Mitarbeiter oder eine Mitarbeiterin auswählen, die die oben genannten Eigenschaften besitzt.
Die Aufgabe ist keine Ernennung auf Lebenszeitder/die Sicherheitsbeauftragte kann das Amt ggf. niederlegen oder die Unternehmensführung überträgt sie auf eine andere Person.

Sicherheitsbeauftragte

Der IT-Sicherheitsbeauftragte ist ein Sonderfall

Sonderfall IT-Sicherheitsbeauftragter

Ein Sonderfall stellt der IT-Sicherheitsbeauftragte dar: Es gibt keine Vorschrift, die einen solchen Sicherheitsbeauftragten vorschreibt. Ist er doch für die Sicherheit des IT-Netzes im Unternehmen zuständig und nicht für die Arbeitssicherheit der Kollegen und des Betriebs. Die einzige Gemeinsamkeit mit dem Sicherheitsbeauftragten für Arbeitsschutz ist die Funktion als Bindeglied zwischen Unternehmensführung und Mitarbeitern. Ansonsten nimmt der IT-Sicherheitsbeauftragte komplett andere Aufgaben wahr.

Die Aufgaben des IT-Sicherheitsbeauftragten

Ein Unternehmen tut gut daran, nicht nur seine Mitarbeiter vor Arbeitsunfällen zu schützen, sondern auch die eigenen digitalen Daten, die heutzutage nach den Mitarbeitern das wichtigste Gut eines Unternehmens sind. Stellen Sie sich vor, die Datenbanken Ihres Unternehmens werden gehackt und das komplette System muss runtergefahren werden, um die Daten zu schützen. Ein Verlust von Millionen kann die Folge sein, Vertrauensverlust bei den Kunden, womöglich eine Strafe wegen des fehlenden Datenschutzes und und und…wollen Sie so etwas? Ein IT-Sicherheitsbeauftragter ist die Lösung.

Für die IT-Sicherheit ist der IT-Sicherheitsbeauftragte zuständig

Der IT-Sicherheitsbeauftragte berät und unterstützt das Unternehmen in IT-sicherheitsrelevanten Fragen und setzt die Datenschutzrichtlinien um. Seit der neuen DSGVO, die im Mai 2018 wirksam wurde, sind IT-Sicherheitsbeauftragte gefragter denn je.

Die Arbeit des IT-Sicherheitsbeauftragten sollte unabhängig von der eigenen IT-Abteilung ausgeführt werden – der Job sollte daher extern bestellt werden. Auch aus haftungsrechtlichen Gründen ist eine externe Vergabe dieser wichtigen Aufgabe sinnvoll.

Der IT-Sicherheitsbeauftragte erstellt außerdem Konzepte, um die Daten des Unternehmens vor einem externen Zugriff zu schützen, erstellt eine Richtlinie, die die IT-Abteilung umsetzt und erarbeitet Dienstanweisungen für alle Mitarbeiter, die die Unternehmensführung abgesegnet und in Kraft setzt. Er muss jederzeit auf dem neuesten Stand der Technik als auch der relevanten Vorschriften sein. Ein verantwortungsvoller Posten, der das Unternehmen vor bösen Überraschungen schützt und Verluste durch Datenklau verhindert. Es lohnt sich, hierfür zu investieren und eine erfahrene, gut aufgestellte Beraterfirma zu engagieren.

Fazit

Mit den passenden Sicherheitsbeauftragten ist ein Unternehmen gut aufgestellt. Denn Sicherheit in allen Bereichen schafft Vertrauen bei der Belegschaft, den Kunden und nicht zuletzt bei der Unternehmensführung selber. Das A und O einer erfolgreichen Firma.