Das Internet ist von vielen Menschen der ständige Begleiter. Für die Erstellung der Webseiten und Inhalte waren vor einigen Jahren noch fundierte Kenntnisse in HTML notwendig. Seitdem CMS eingeführt wurde, ist dies nicht mehr erforderlich. Die wichtigsten Content Management Systeme sind WordPress, Joomla, TYPO3, Drupal und Contao. Doch was verbirgt sich dahinter?

Was ist ein CMS?

CMS fuer website - pixabay

Content Management System bedeutet genau genommen Inhaltsverwaltungssystem. Es wird verwendet, um Inhalte für Webseiten oder Blogs zu erstellen. Wer auf einem Server solch ein System installiert, hat innerhalb weniger Minuten eine eigene Webseite. Die Content-Management Syteme sind die Schnittstelle für die verschiedenen Inhalte: Texte können zum Beispiel durch Bilder, Videos, Karten oder Kalender ergänzt werden. Die Erfassung von Nutzerdaten ist ebenfalls möglich. Eine Software, die auf dem Webserver installiert wird, ermöglicht es, die Inhalte der Webseite zu verwalten und deren Inhalt zu bearbeiten. Nutzer sparen sich beim Programmieren und Ändern aktueller Seiteninhalte viel Arbeit.

Welche Vorteile hat CMS?

Der Vorteil liegt darin, dass eine Benutzeroberfläche zur Verfügung gestellt wird, die ohne Programmierkenntnisse bedient werden kann. Somit können auch technisch unversierte Nutzer eine Webseite oder einen Blog mit Inhalten füllen. Es wird auch von einer dynamischen Webseite gesprochen, im Gegensatz zu einer herkömmlichen Seite, die statisch (nicht veränderbar) ist. Nur das Layout und somit die grobe Seiteneinteilung liegt in der statischen Form vor, während sämtliche Inhalte in einer separaten Datenbank abgelegt sind. Bei einer fortgeschrittenen Anwendung sind Programmierfähigkeiten natürlich von Vorteil.

Weitere nützliche Funktionen von CMS

Durch Erweiterungen können das Design und die Funktionalität der Webseite zusätzlich verbessert werden. Viele Content Management Systeme bieten nützliche Funktionen wie eine Kommentarfunktion oder Integration in soziale Netzwerke. Über Rechte und Nutzergruppen kann anderen die Möglichkeit gegeben werden, beispielsweise Berichte einzustellen.

Für wen ist ein CMS geeignet?

CMS Backend BeispielVor allem für Webseiten, die viele Inhalte bieten, ist die Einführung eines Content Management Systems lohnenswert. Dazu gehören zum Beispiel Unternehmen. Deren Produktivität kann erheblich gesteigert werden, da sich die Inhalte flexibel und schnell verwalten lassen. Problematisch kann ein CMS allerdings in großen Unternehmen sein, die spezielle und individuelle Anforderungen haben. Die CMS lassen sich zwar optimal erweitern, doch manchmal reichen die Möglichkeiten einfach nicht aus. Die Auswahl an Produkten und Systemen, die auf dem Markt angeboten werden, ist groß und meist kostenlos.

Nicht nur der Weg zu einer eigenen Webseite ist mit einem CMS deutlich kürzer. Auch die Inhalte wie Texte und Bilder können einfach verwaltet werden. Anwender nutzen die Software, um ihren Content zu veröffentlichen und zu bearbeiten. Die Navigation von Webseiten kann mit einem CMS ebenfalls administriert werden. Der Nutzer benötigt keine oder geringe Programmierkenntnisse. Er muss nicht in den Code der Website eingreifen, um Inhalte einzufügen oder die Webseite zu aktualisieren. Verschiedene Benutzer können Zugriff auf bestimmte Inhalte erhalten.

Die Cloud, englisch für Wolke, ist ein theoretisch unbegrenzter Onlinespeicher, in dem Daten aller Art gespeichert und von praktisch jedem Ort mit einem internetfähigen Gerät genutzt werden können. Dabei ist der Begriff Cloud die Kurzfassung für Cloud-Computing.

Der Begriff Cloud-Computing beinhaltet sowohl das Nutzen als auch das Anbieten von unterschiedlichen IT-Dienstleistungen und beinhaltet neben dem Speicherplatz die Bereitstellung von Hard- und Software über das Internet. Cloud-Computing bietet gewissermaßen einen virtuellen Computer im Internet, der in Teilen den lokalen Computer am Arbeitsplatz ersetzen kann.

Die Idee, Daten extern zu speichern und von jedem beliebigen Ort aus zu nutzen, wurde bereits in den 1950er Jahren geboren. Allerdings sind die technischen Voraussetzungen für die Anwendung erst seit Ende der 1990er gegeben.

Wie funktioniert die Cloud?

So sieht ein Cloud-Rechenzentrum von innen aus

So sieht ein Cloud-Rechenzentrum von innen aus

Cloud-Computing ist ein dynamischer, an den Bedarf der Nutzer angepasster Prozess. Cloud-Dienstleister stellen den Kunden Speicherplatz und Rechenleistung auf Ihren Servern bzw. in deren Rechenzentrum gegen ein Entgelt, eine monatliche oder jährliche Mietzahlung, zur Verfügung. Durch die Verknüpfung vieler einzelner Server miteinander werden die Daten der Kunden nicht nur auf einem Server gespeichert und die Ressourcen können je nach Bedarf in Anspruch genommen werden.

Nutzer haben über das Internet jederzeit Zugriff auf die eigenen Daten und können beliebig viele Daten speichern. So können zum Beispiel E-Mails, Dokumente oder der eigene Terminkalender von jedem Ort aus über das Internet abgerufen oder anderen Nutzern zur Verfügung gestellt werden. Der Computer am Arbeitsplatz, das Smartphone oder Tablet dienen bei der Nutzung eines Cloud-Speichers nur noch zur Steuerung der Hard- und Software.

Beim Cloud-Computing wird zwischen öffentlichen und privaten Clouds unterschieden. Öffentliche Clouds können von unterschiedlichen Kunden genutzt werden, die zum Beispiel die gleiche Software verwenden. Bei privaten Clouds ist das Angebot an Hard- und Software auf die Anforderungen eines Kunden abgestimmt und nur durch diesen nutzbar. Andere Formen sind die sogenannten Community Clouds für die Nutzung von Gruppen mit gleichen Interessen und Hybrid Clouds, bei denen private und öffentliche Clouds von den gleichen Kunden genutzt werden.

Cloud: IaaS, PaaS oder SaaS

Cloud-Services werden in unterschiedlichen Modellen, die als IaaS, PaaS und SaaS bezeichnet werden, angeboten. IaaS steht für Infrastructure as a Service. Hierbei stellt der Dienstleister lediglich IT-Ressourcen wie Rechenleistung, Speicherplatz oder Netzwerkkapazitäten zur Verfügung. Der Anwender muss bei diesem Modell die Infrastruktur in der Regel selbst zusammenstellen.

PaaS bedeutet Platform as a Service. Hierbei werden dem Kunden Programmiermodelle und Entwicklerwerkzeuge zur Verfügung gestellt, mit denen Cloud-basierte Anwendungen erstellt und ausgeführt werden können.

SaaS ist die Abkürzung für Software as a Service. Diese Variante wird in der Regel von Unternehmen und Privatkunden genutzt. Der Dienstleister stellt seinen Kunden neben der Hardware und Infrastruktur zusätzlich Anwendungsprogramme, also Software zur Verfügung. Kunden eines SaaS-Anbieters müssen sich nicht um die Installation oder Updates der Software kümmern. Das können dann etwa so populäre Dienste wie der Musik-Anbieter Spotify oder auch spezialisierte Business-Software wie etwa ein Online-Dokumenten-Management sein.

Welche Vorteile bietet Cloud-Computing?

Nur ein Symbol: Die Wolke für Cloud-Computing

Nur ein Symbol: Die Wolke für Cloud-Computing

Cloud-Computing bietet für Nutzer, insbesondere Unternehmen, eine Reihe von Vorteilen. Der größte Vorteil ist der Gewinn an Flexibilität bei der Datennutzung und dem Datenaustausch. Durch eine automatische Synchronisierung der online gespeicherten Daten mit den lokal gespeicherten Daten sind alle Nutzer, egal, wo sie sich gerade aufhalten, immer auf dem gleichen Informationsstand. Hinzu kommt, dass die Investitionen in Hardware, Software und Infrastruktur im Unternehmen deutlich gesenkt werden können. Gleichzeitig reduziert sich der administrative Aufwand für die Wartung und Pflege der IT-Infrastruktur. Ein weiterer Vorteil ist der Schutz vor einem Datenverlust. Wenn zur Sicherung der Daten ein Cloud-Speicher genutzt wird, gehören Datenverluste durch defekte Festplatten etc. der Vergangenheit an.

Was ist bei der Auswahl eines Cloud-Dienstleisters zu beachten?

Immer mehr Dienstleister drängen auf den Markt und versuchen, sich einen Teil des lukrativen und zukunftsweisenden Geschäftes mit dem Cloud-Computing zu sichern. Einige Anbieter locken neue Kunden gar mit kostenlosem Speicherplatz von bis zu mehreren Gigabyte. Bei wachsendem Speicherplatzbedarf kann eine Erweiterung des Speicherplatzes gegen einen monatlich oder jährlich zu bezahlenden Betrag hinzugekauft werden.

Viel wichtiger, als die Frage nach den Kosten für den Speicherplatz ist die Frage: Wo werden die Daten gespeichert? Die Antwort auf diese Frage sollte eindeutig lauten: Auf Servern, die in einem Rechenzentrum in Deutschland stehen!

Warum? In Deutschland hat eines der strengsten Datenschutzgesetze weltweit. Bei Servern mit Standort in Deutschland ist der Zugriff auf Ihre Daten klar geregelt. Das bedeutet, nur Sie bestimmen, wer Zugriff auf Ihre Daten hat und wer nicht. Ganz anders sieht dies zum Beispiel in den USA aus.

Dort fallen Cloud-Dienste schon seit geraumer Zeit unter den sogenannten Patriot Act, dem nach dem 11. September 2001 verabschiedeten Antiterror-Gesetz der USA. Dieses Gesetz hat auch für Cloud-Nutzer aus Deutschland weitreichende Folgen für die Privatsphäre und den Datenschutz. Amerikanische Geheimdienste wie CIA oder NSA und die Bundespolizei FBI dürfen auf Ihre bei einem US-amerikanischen Cloud-Dienstleister gespeicherten Daten zugreifen. Und das ohne Ihr Wissen oder einen richterlichen Beschluss.

Auf einen bloßen Verdacht hin sind die US-amerikanischen Anbieter dazu verpflichtet, Ihre Daten den Behörden preis zugeben. Dies gilt auch für Cloud-Speicher, die zwar nicht in den USA stehen, aber von einem amerikanischen Unternehmen betrieben werden.

Fazit zum Thema Cloud-Computing:

Wenn Sie Wert auf die maximale Sicherheit Ihre Daten legen, sollten sie nur einen Cloud-Dienstleister wählen, dessen Server sich in einem Rechenzentrum in Deutschland befinden. Auch, wenn der Dienst dann vielleicht etwas mehr kostet.

Insgesamt sind die Vorteile von Cloud-Computing für mittelständische Firmen deutlich größer als die vermeintlichen Nachteile. Firmen die Cloud-Computing in Deutschland nutzen wollen sollten sie – wie bei sonstigen Entscheidungen auch – im Vorfeld ausführlich informieren und etwa Referenzen des neuen Cloud-Anbieters einholen.

Haben Sie Interesse daran zu erfahren, wie Sie mit Cloud-Computing Ihre IT-Kosten senken können. Wir beraten Sie gerne unverbindlich – Sie erreichen unser Vertriebs-Team unter +49-(0)711-4889020. Wir freuen uns auf Sie.

 

Datenwachstum als Herausforderung der IT

Das stetige Wachstum der Datenmengen ist ein Problem, dem sich jede IT-Abteilung früher oder später stellen muss. Nutzen Sie ausschließlich klassische Speicherlösungen wie SAN oder NAS müssen die zur Verfügung stehenden Kapazitäten irgendwann mühsam erweitert werden. Eine solche Maßnahme hat des öfteren auch eine kurze downtime zur Folge, da nicht jede Erweiterung im laufenden Betrieb möglich ist.

Damit stellt sich bereits ein weiteres großes Problem ein. Kunden erwarten heutzutage, dass IT-Services zu 100 % an jedem Tag und zu jeder Stunde verfügbar sind. Downtimes werden immer weniger toleriert, besonders im Bereich von Rechenzentren sowie des Hostings. Eine mögliche Lösung um diese Zeiten zu minimieren oder gar völlig auszuschließen bietet beispielsweise Software Defined Storage oder kurz SDS.

Ceph geht neue Wege

Ceph Architektur

Abbildung 1
Ceph Architektur

Schwierigkeiten bei Software Defined Storage

CEPH ist aber keineswegs perfekt und bringt selbstverständlich auch Nachteile mit sich. Ein Merkmal mit dem man sich vor der Inbetriebnahme auseinandersetzen muss, sind die Latenzen die SDS im Vergleich zu Direct Attached Storage (DAS) mit sich bringt. Die erhöhte Komplexität des Software Stacks in Kombination mit den verwendeten Netzwerkverbindungen erhöhen die Latenz pro IO signifikant.

Es erweist sich als äußerst schwierig die Latenz unter den Wert von einigen Millisekunden für Schreibvorgänge zu senken. Woher diese Latenz kommt lässt sich verdeutlichen, wenn man sich die Arbeitsweise von CEPH bei Schreibvorgängen etwas genauer betrachtet (Abbildung 2).

Ein synchroner IO muss vom Client zur primären OSD gesendet werden. Die primäre OSD schickt anschließend die Anzahl konfigurierter Replikationen zu weiteren OSD’s und deren Journalen. Sobald die Repliken auf den Journalen aller OSD’s vorliegen, wird der Vorgang an die primäre OSD bestätigt. Hat die primäre OSD nun alle Bestätigungen erhalten, wird eine Bestätigung an den Client gesendet und dieser kann den nächsten IO senden. Das verdeutlicht schon weshalb es bereits zu Latenzen innerhalb des Software Stacks kommt.

SDS mit Ceph - Arhcitektur

Abbildung 2

Zusätzlich spielt auch das eingesetzte Netzwerk bei Ceph eine entscheidende Rolle. Es gilt hier zunächst unnötige Hops zu vermeiden, da jeder Hop etwa 200us Latenz mit sich bringt. Ein 10GE Netzwerk gilt hierbei als das absolute Minimum, welches Sie beim Einsatz von Ceph oder einem anderen verteilten Speichersystem verwenden sollten. Das verringert Latenzen und erhöht die Bandbreite. Eine zusätzliche Verbesserung bringt Ihnen selbstverständlich der Einsatz von RDMA, jedoch müssen hier die Kosten beachtet werden. All diese Faktoren spielen eine wichtige Rolle und müssen optimiert werden um Latenzen unter dem 2ms Level zu erhalten und dabei eine Balance zwischen Kosten und Nutzen zu finden, was natürlich nicht immer einfach ist.

 

Anforderungen an eine gute SDS Lösung

Damit Sie nach der Einführung einer SDS Lösung wie Ceph nicht enttäuscht sind, gibt es einige Punkte zu beachten. SSDs oder (Enterprise SSD oder NVME SSD) für die Journale, in denen die Schreibvorgänge gecached werden, sowie ein 10GE Netzwerk sind nach herrschender Meinung innerhalb der Ceph Community und unseren eigenen Erfahrungen ein Muss. Für die OSD’s sollten nach Möglichkeiten SAS3 HDD’s verwendet werden. Es ist auch denkbar bei Bedarf einen Teil der OSD’s rein aus SSDs zu erstellen und gesondert zur Verfügung zu stellen. Wichtig ist zudem keine RAID Arrays zu verwenden. Ceph profitiert stark von vielen unabhängigen Festplatten. Einem schwerwiegenden Datenverlust entgehen Sie zudem indem Sie mehrere Server mit möglichst vielen Festplatten (OSD’s) bereitstellen

Die CPU sollte möglichst viele Prozessor-Kerne haben, und der Arbeitsspeicher mit etwa 1-2 GB pro OSD berechnet werden um hier keinen Flaschenhals zu generieren. Der Einsatz von RDMA muss wohl überlegt sein und kommt auf den speziellen Workload an. Werden extrem niedrige Latenzen und hohe Bandbreite über 10 GE benötigt bietet es sich eventuell eher an auf ein spezielles Storage System wie GPFS, BeeGFS oder Lustre  in Kombination mit Infiniband/Omnipath zu setzen.

Fazit zu Ceph

Zusammenfassend lässt sich sagen, dass Software Defined Storage definitiv eine gute Möglichkeit darstellt, um stetig wachsende Datenbestände einfacher zu verwalten. Jedoch hat Software Defined Storage genau wie jede andere Lösung gewisse Einschränkungen denen man sich bewusst sein muss. Im modernen IT-Betrieb wird man aber nicht auf SDS verzichten können. Die mitgebrachten Vorteile wie Skalierbarkeit, einfache Erweiterung und eine sehr hohe Verfügbarkeit werden zunehmend wichtiger.

Weiterführende Links zum Thema:

Was ist SSL

Im Internet einkaufen, Bankgeschäfte tätigen, Reisen buchen und vieles mehr wird immer beliebter. Privatpersonen können sogar ihre Steuererklärungen in der digitalen Form einreichen. Meist werden bei all diesen Aktionen jedoch sensible Daten weiter gegeben. Es ist wichtig, dass dies verschlüsselt geschieht. Das SSL-Zertifikat schafft hierbei Abhilfe, denn es verschlüsselt die gesendeten Daten.

Was bedeutet eigentlich SSL?

Das SSL-Zertifikat (Secure Socket Layer) sichert die Online-Kommunikation zwischen beiden Rechnern ab. Die Daten werden also verschlüsselt übertragen. Das Verfahren kann damit verglichen werden, dass ein Brief vor dem Versenden versiegelt wird. Layer bezeichnet dabei die Transportschichten, mit welchen der Datenaustausch zwischen den Rechnern bildhaft dargestellt wird. Es gibt viele Bereiche, in denen die Vertraulichkeit das oberste Gebot ist.

Auf SSL im Internet achten

SSL im Browser- Beispiel

Das Schloss neben der Adresszeile des Browsers zeigt an, dass es sich hier um eine sichere Verbindung handelt.

Dass eine Webseite SSL nutzt, lässt sich leicht erkennen. Es zeigt sich daran, dass die Internetseite am Anfang mit „https://“ beginnt. Dies zeigt, dass hier verschlüsselt mit dem Webserver kommuniziert wird. Folgende Zeichen weisen ebenfalls auf ein SSL-Zertifikat hin: Ein Schloss-Symbol, das im Browser oben oder unten angezeigt wird oder das Trustlogo auf der Seite, denn auch dies dürfen lediglich Inhaber eines SSL-Zertifikats nutzen. Eine grüne Adressleiste verdeutlicht, dass die höchste Sicherheitsstufe vorliegt. Die Besucher der Webseiten können in diesen Fällen sicher sein, dass die Daten durch Dritte nicht mitgelesen oder abgehört werden.

SSL ist bei den Suchmaschinen und Nutzern beliebt

Sichere Webseiten werden aus SEO-Sicht von Google und anderen Suchmaschinen mittlerweile bevorzugt. Webseiten und Onlineshops ohne SSL-Zertifikat werden demzufolge schlechter gereiht als Seiten, bei denen die Daten verschlüsselt übertragen werden. Dies hat natürlich Vorteile für den Kunden, der den Ergebnissen auf den ersten Seiten eher vertrauen kann als Webseiten, die weiter hinten gelistet werden. Das SSL-Zertifikat ist auf verschiedenen Wegen erhältlich, beispielsweise direkt beim Anbieter, also der Zertifizierungsstelle. Einfacher ist die Bestellung meist über den Webhosting-Anbieter.

Verschiedenen Arten von SSL

Verschlüsselung für EmailsSSL-Verbindungen gibt es auf Webseiten, aber ebenso beim E-Mail-Versand. Wer sensible Daten versendet, beispielsweise Ärzte oder Menschen, die im Finanzbereich arbeiten, sollten darauf achten, dass sie einen E-Mail-Server mit einer sicheren Verbindung wählen. Dem POP3 und SMTP werden in diesem Fall ein S hinzugefügt. Bei einer POP3S- oder SMTPS-Verbindung können Nutzer dementsprechend sicher sein, dass sie mit einem Sicherheitszertifikat ausgestattet sind.

Aus Sicherheitsgründen sollten zumindest alle Shops SSL nutzen. Hier werden zahlreiche persönliche Daten übertragen, bei denen es sich oftmals auch um sensible Bankdaten handelt. Diese dürfen nicht in falsche „Hände“ geraten. Es ist sogar empfehlenswert, dass generell für alle Webseiten SSL genutzt wird. Wenn sich Kunden auf einer gewöhnlichen Seite ohne Sicherheitszertifikat in ihr Kundenkonto einloggen, werden die Daten unverschlüsselt gesendet und damit ebenso das Passwort. Letztendlich muss aber auch erwähnt werden, dass es leider keine 100%-ige Sicherheit gibt, denn Seiten können gehackt werden.

Active Directory als Verzeichnisdienst im Netzwerk

Active Directory (oder kurz AD) von Microsoft ist ein sogenannter Verzeichnisdienst. Seine Aufgabe ist es, eine Grundlage für die Verwaltung von Computern in einem Netzwerk zu erschaffen. Zudem dient AD zur Verwaltung von einzelnen Anwendern, Gruppen von Nutzern, die in einem Team kooperieren und zum Auffinden von Ressourcen wie Druckern oder Kopierern in einem Netzwerk. Damit stellt Active Directory einen entscheidenden Teil des Rückgrats in einem Computernetzwerk dar.

Dieser Verzeichnisdienst ist seit Windows Server 2003 ein fester Bestandteil des Betriebssystems und damit weltweit verbreitet. Im Arbeitsalltag spielt der Verzeichnisdienst eine wichtige Rolle, auch wenn er für Anwender zumeist unbemerkt im Hintergrund seine Arbeit verrichtet.

So funktioniert ein Verzeichnisdienst

Die primäre Aufgabe eines Verzeichnisdienstes wie Active Directory ist es, Informationen zu bündeln und zur Verfügung zu stellen. Dies geschieht in einer zumeist verschlüsselten Datenbank. Hier werden, ähnlich wie in einem Telefonbuch, bestimmte Daten miteinander abgelegt. Allerdings sind die Möglichkeiten, verschiedene Daten miteinander zu verknüpfen, erheblich komplexer als in einer simplen Tabelle mit zwei Werten, wie es in einem Telefonbuch der Fall wäre.

Zu einem Computernetzwerk gehören sehr viele und sehr unterschiedliche Dinge. Diese werden in einem Verzeichnisdienst als Objekte bezeichnet. Zunächst gelten alle Computer, die Bestandteil eines Netzwerks sind, als eigene Objekte. Auch sämtliche Geräte, die an einen Computer des Netzwerks oder direkt an das Netzwerk angebunden sind, werden vom Verzeichnisdienst verwaltet. Hierzu zählen beispielsweise Drucker, Plotter, Faxgeräte und die Telefone bei einer Telefonanlage, die auf IP-Telefonie basiert. Allen Geräten im Netzwerk weist der Verzeichnisdienst eine eindeutige Bezeichnung zu, zusätzlich erhalten sie bestimmte Eigenschaften, über die sie aufgefunden werden können. So weiß ein Verzeichnisdienst zum Beispiel, ob es sich bei einem angeschlossenen Gerät um einen Rechner, ein externes Laufwerk oder einen Drucker handelt. Aber die Verwaltung der vorhandenen Hardware ist nur ein Teil der Aufgaben eines Verzeichnisdienstes.

Nicht nur für Maschinen, sondern auch für Menschen

Bild von Computern, die über Netzwerk verbunden sind

Organisierte Nutzerverwaltung im Netzwerk

Die zweite wichtige Gruppe von Objekten, die Bestandteil des Verzeichnisdienstes sind, sind die Anwender. Auch diese haben eine eindeutige Bezeichnung, ihren Nutzernamen. Der Verzeichnisdienst verwaltet zusätzlich zu dieser grundlegenden Information auch weitergehende Werte, beispielsweise das vom Nutzer verwendete Passwort. Ebenfalls bietet der Verzeichnisdienst die Möglichkeit, Nutzer zu organisieren. So ist es möglich, einem Nutzer bestimmte Rechte zu gewähren oder eben auch zu verweigern. Nicht jeder Nutzer soll beispielsweise volle Zugriffsrechte auf alle Drucker oder alle Daten in einem Netzwerk erhalten.

Um die Verwaltung von Nutzern in einem Netzwerk möglichst einfach zu gestalten, können in einem Verzeichnisdienst wie zum Beispiel Active Directory, auch Nutzergruppen definiert werden. Alle Nutzer einer Nutzergruppe bekommen dieselben Rechte. Damit ist es sehr leicht möglich, die Organisationsstruktur eines Unternehmens in einzelne Abteilungen auch im Netzwerk abzubilden und somit die Kooperation innerhalb von Abteilungen und Arbeitsgruppen deutlich zu erleichtern.

Der Nutzen für den Anwender

Auch wenn Anwender nur selten bewusst mit einem Verzeichnisdienst in Berührung kommen, bietet ihnen dieser erhebliche Vorteile. Ist ein Anwender im Verzeichnisdienst gespeichert, kann er von unterschiedlichen Rechnern aus auf das Netzwerk zugreifen. Außerdem ist es ihm möglich, alle für ihn freigeschalteten Dienste überall im Netzwerk zu nutzen.

Lese–Tipp: Wie Sie ihr Active-Directory mit Office 365 verbinden.

Neben der vollen Arbeitsfähigkeit im ganzen Netzwerk dient die Verwendung eines Verzeichnisdienstes aber auch der Sicherheit des Anwenders. Durch die Einschränkung von Nutzungsrechten ist es ihm beispielsweise nicht möglich, versehentlich Dateien zu verändern oder zu löschen, auf die er keinen Zugriff haben sollte. Zur praktischen Anwendung kommt dies unter anderem, wenn für Vorlagen-Dateien im Verzeichnisdienst zwar ein Lese-Recht, aber kein Schreib-Recht erteilt wurde. Ein Anwender kann die entsprechende Datei also öffnen und ansehen, sie aber nicht versehentlich verändern. Soll die Datei als Vorlage verwendet werden, erstellt der Anwender sich eine Kopie, die dann von ihm vollständig genutzt werden kann.

Auch bei der Arbeitsorganisation ist ein Verzeichnisdienst ein wichtiges Hilfsmittel. Anwender können selbst erstellte Dateien und ganze Verzeichnisse über einen Verzeichnisdienst mit einer bestimmten Gruppe, man spricht hier von einer Workgroup, teilen. Damit ist es sehr einfach, gemeinschaftlich durchgeführte Projekte leichter zu verwalten und so zu jedem Zeitpunkt die Übersicht über die erstellten Informationen zu behalten.

Der Nutzen für Administratoren

Administration der Benutzerrechte

Bei der Verwaltung eines Netzwerks spielt der Verzeichnisdienst eine erhebliche Rolle. Denn durch die Organisation der Netzwerkstruktur entsteht die Möglichkeit, Teile des Netzwerks unter verschiedenen Gesichtspunkten zusammenzufassen. IT-Dienstleister haben so eine Möglichkeit, kosteneffizient bestimmte Bereiche eines Netzwerks zu administrieren. Dies kommt zum Beispiel bei der Einrichtung von Sicherheitsmaßnahmen oder der Erweiterung eines Arbeitsbereichs zum Tragen.

Auch stellt die Verwendung eines Verzeichnisdienstes eine gute Möglichkeit dar, um neue Netzwerkstrukturen zu planen und somit eine für den Kunden kosten- und leistungsoptimierte Lösung zu schaffen.

Datenbackup in einer Cloud

Backup könnte kurz und knapp auch als Datensicherung bezeichnet werden und ist ein wichtiges Thema. Viele nehmen es nicht so ernst und reagieren leider erst, wenn es schon zu spät ist. Schnell ist es passiert: Der Bildschirm friert ein und nichts hilft mehr, die Daten sind weg. Wer an eine Datensicherung gedacht hat, darf sich nun glücklich schätzen.

Wichtige Daten und vieles mehr mit einem Backup sichern

Wichtige Dokumente, berufliche und private Unterlagen, Zugangsdaten, die Diplom- oder Abschlussarbeit, unverzichtbare E-Mails, jahrelang gesammelte Fotos, die Musiksammlung, Videos usw., all das kann von einer Minute auf die andere verloren sein. Nicht jedoch, wenn ein Backup erstellt wurde. Damit kann ein Datenverlust vermieden werden, bevor es irgendwann zu spät dafür ist. Ist das Backup, also die Sicherung erfolgt, sind alle Dateien noch vorhanden. Spätestens, wenn die Festplatte oder der Computer plötzlich den Dienst verweigern, wissen Nutzer Backups zu schätzen. Um den Datenverlust, der bei vielen eine „Katastrophe“ bedeutet, zu vermeiden, sollten möglichst früh und regelmäßig Backups des Systems erstellt werden.

Bild von hard disc

Regelmäßig Sichern bringt viele Vorteile

Datensicherung ernst nehmen

Unter einem Backup wird die Speicherung von sicherungswürdigen Daten verstanden. Damit entsteht eine regelmäßige Sicherungskopie, sprich ein Abbild der relevanten Daten. Dies geschieht abseits des gewöhnlichen Speicherortes, auf einem externen Datenträger wie einer separaten Festplatte, einem Flash-Speicher, einer CD, DVD oder einem Cloud-Speicher. Wenn beispielsweise die Festplatte defekt ist oder ein Virus die Daten zerstört hat, kommt diese zum Einsatz. Um auf einem externen Datenträger Backups anzufertigen, ist eine Software erforderlich. Diese sichert alle Daten.

Warum ist ein Backup wichtig?

Die moderne Technik ist mittlerweile sehr fortgeschritten und langlebig, allerdings nicht unsterblich. Die Festplatte beispielsweise funktioniert eine bestimmte Anzahl an Betriebsstunden. Je nach Beanspruchung kann diese länger, aber auch kürzer sein. Irgendwann treten Störungen und Defekte auf. Sogar eine neue Festplatte kann in Ausnahmefällen defekt werden. Der Computer kann vielleicht nicht mehr gestartet werden, sodass kein Zugriff mehr auf die Daten besteht und sie schlimmstenfalls verloren gehen. Auch Schadsoftware wie ein Computervirus kann dies verursachen.

  • Volles Backup: umfasst jede Datei auf dem System (Abbild des jetzigen Zustands)
  • Partielles Backup: nur Teile der Daten werden gespeichert
  • Inkrementelles oder differenzielles Backup: die zu sichernden Daten werden noch weiter reduziert
Bild von Backup Server

Nicht vernachlässigen: das regelmäßige Sichern aller relevanter Daten

Ein regelmäßiges Backup, also eine Datensicherung, ist unbedingt empfehlenswert. Das Ziel besteht darin, dass wichtige Daten usw. auf einem separaten Datenträger gespeichert werden, sodass sie beim Defekt oder Verlust des Geräts wiederhergestellt werden können.

Wie oft eine Datensicherung durchgeführt wird, muss jeder für sich entscheiden, denn Defekte sind grundsätzlich bei jedem Speichermedium möglich. In Unternehmen fallen täglich deutlich höhere Datenmengen an. Eine manuelle Sicherung würde in diesem Fall zu viel Aufwand bedeuten, sodass hier zu automatisierten Lösungen gegriffen wird.