Beiträge

Was ist WORM-Speicherung?

Unternehmen sammeln eine Menge Daten und manchmal müssen oder wollen sie diese Daten so speichern, dass sie nicht mehr geändert werden können. Write Once Read Many (engl. für „schreibe einmal, lese vielfach“) oder WORM ist die einmalige unveränderbare Speicherung von Daten, wobei das Lesen der Daten weiterhin möglich ist.

Einfach gesagt handelt es sich bei WORM um eine Speicherung, nach der die Daten nicht mehr verändert werden können. Sie können Daten genau einmal auf das Speichermedium schreiben. Das Löschen, Überschreiben oder Ändern dieser Daten ist dann aber dauerhaft ausgeschlossen. Eine einfache Version von einem WORM-Speicher ist eine CD-R (englisch: Compact Disc Recordable). Sie können Daten auf den Rohling schreiben, dann aber nicht mehr verändern. Sie können die Disc zwar beschädigen oder zerstören, um jemandem den Zugriff darauf zu verweigern, aber Sie können die darauf gespeicherten Daten nicht ändern. Was das Hard-WORM allerdings erlaubt, ist das mehrfache Lesen der Daten.

Soft-Worm – Softwarebasierter Speicherplatz

Die große Herausforderung besteht heute darin, bei der riesigen Menge an vorhanden Daten, das richtige Speichermedium zu finden. Selbst die auf einigen Blu-ray-Laufwerken verfügbare Kapazität von Terabyte reicht in einer Zeit, in der viele Unternehmen Daten in Petabyte messen, nicht mehr aus. Die Antwort auf das Problem sind softwarebasierte Systeme, die die Attribute nachahmen, die physische Medien zu WORM machen.

Dabei muss die Software vier wesentliche Punkte erfüllen. Sie darf nur ein einziges Mal erlauben, dass Daten auf ein Laufwerk geschrieben werden. Sie muss verhindern, dass jemand diese Daten löscht. Sie muss Aufzeichnungen über das Schreiben und den Zugriff auf Daten führen, um sicherzustellen, dass niemand die Daten manipuliert und sie muss jedem mit den richtigen Zugangsdaten ermöglichen, die Daten bei Bedarf zu lesen. Das löst das Größenproblem, das Sie mit einem physischen Datenträger haben. Ein mit dieser Software ausgestatteter Server sichert die Daten und bietet gleichzeitig die Speicherkapazität von Festplatten. Diese Form von WORM kann von Unternehmen intern eingesetzt oder von Cloud-Anbietern als Service angeboten werden.

 Redundanz von Systemen

Ein echtes Problem der WORM-Speicherung ist der Datenverlust. Nehmen wir an, Sie brennen etwas auf eine CD-R und lagern die Disc im Büro, aber das Gebäude brennt nieder. Dann haben Sie weder die CD noch den Computer. Wenn Sie sich für WORM auf physischen Medien entscheiden, bedeutet das, dass Sie mindestens zwei Kopien der CD-R, DVD oder Blu-ray Disc benötigen. Eine dieser Kopien muss extern aufbewahrt werden. Da Sie wahrscheinlich sensible Informationen speichern, ist die Sicherheit das Hauptproblem bei diesem Ansatz. Überall, außer in einem Bankschließfach, sind die Medien anfällig. Wenn Sie Kundendaten gespeichert haben, kann es bei einem Diebstahl zu Haftungsproblemen kommen. Die Redundanz ist mit einem Cloud-Speicherservice einfacher. Sie können die Daten auf mehreren Servern an verschiedenen Orten speichern, um einen Datenverlust zu vermeiden. Diese Art der Redundanz ist bei vielen Cloud Storage-Anbietern Standard.

Aufbewahrung der Daten

Wenn Sie aus rechtlichen Gründen z. B. Finanz- und Steuerunterlagen speichern müssen, gibt es ein Ablaufdatum. Meist beträgt die Aufbewahrungspflicht sechs oder zehn Jahre. Wenn Sie die Daten auf einem physischen Medium gespeichert haben, können Sie das Medium zerstören. Wenn Sie sie in der Cloud speichern, müssen Sie Aufbewahrungsfristen einrichten. Das ist eine Funktion der Software, die die Daten nach einer bestimmten Zeit freischaltet. Nach der Freischaltung der Daten können Sie diese löschen.

Brauche ich einen WORM-Speicher?

Nicht nur gesetzliche Anforderungen sprechen für den Einsatz . Wenn Sie Datensätze mit historischem Wert archivieren möchten, ist die WORM-Speicherung sinnvoll. Wenn Sie befürchten, dass jemand Geschäftsunterlagen manipuliert, können WORM-Daten dies womöglich beweisen oder widerlegen. WORM könnte auch dazu dienen, den Nachweis von Geschäftsgeheimnissen oder geistigem Eigentum zu einem bestimmten Zeitpunkt zu sichern.

Den Begriff „Safari“ dürften die meisten von uns wohl am ehesten mit einer spannenden Expedition umschreiben, bei der es viele wilde Tiere zu sehen und zu fotografieren gibt. Im Internet ist mit Safari jedoch etwas völlig anderes gemeint. Was genau, erfahren Sie in unserem nachfolgenden Ratgeber-Artikel.

Safari – was ist das eigentlich?

Safari ist ein Webbrowser aus dem Hause Apple, der erstmals im Jahr 2003 das Licht erblickte und heute in Konkurrenz mit anderen Webbrowsern wie Google Chrome oder Firefox aus dem Hause Mozilla tritt. Apple war seinerzeit auf der Suche nach einem hauseigenen Browser, da man auf seinen Mac-Computern anfänglich den Internet Explorer aus dem Hause Microsoft vorinstalliert hatte. Da sich Microsoft in den darauffolgenden Jahren jedoch zu einem immer größer werdenden Konkurrenten von Apple entwickelte, wollte Apple durch den Safari Browser unabhängiger vom berühmten Windows-Entwickler werden.

Safari hieß nicht immer Safari

Der Safari Browser ist bis zum heutigen Tag der Standardbrowser auf allen Apple-Geräten mit den Betriebssystemen iOS und Mac OSX. Bevor der Browser jedoch im Jahr 2003 erstmals veröffentlicht wurde, standen einige weitere Namen für ihn im Raum. Im Sommer 2002 befanden sich ein Entwicklerteam aus dem Hause Apple und der damalige Apple-Chef Steve Jobs auf der Suche nach einem passenden Namen für ihren neuen Browser. Jobs kam schnell auf den Namen „Freedom“, der in den Augen von Don Melton, einem Mitglied des Entwicklerteams, wie ein Hygieneprodukt für Frauen klingen würde. Viel bessere Ideen entsprangen den Köpfen der kreativen Entwickler jedoch nicht, sodass man sich bereits fast darauf geeinigt hätte, den bisherigen Platzhalter-Namen, der während der Entwicklung intern für den Browser verwendet wurde, auch offiziell zu verwenden: Alexander.

Zwischenzeitlich stand auch nur der äußerst langweilige Name „iBrowser“ zur Debatte, der allerdings aus heutiger Sicht sehr gut zu Apple gepasst hätte – schließlich gibt es bereits den iMac, das iPhone, den iPod und das iPad. Irgendwann fiel dann tatsächlich der heutige Name Safari, von dem Don Melton allerdings anfangs überhaupt nicht begeistert war. Im Laufe der Zeit gefiel ihm der Name dann aber so gut, dass er tatsächlich verwendet wurde. Ungewöhnlich: Der neue Webbrowser erhielt seinen offiziellen Namen gerade einmal einen Monat vor seinem offiziellen Release.

Technische Eigenschaften

Der Safari Browser von Apple unterstützt derzeit sämtliche gängigen Internetstandards, zu denen unter anderem CSS 3, HTML 5, XHTML 1.1, XSLT und natürlich JavaScript gehören. Mit der Safari-Version 2.0.2 lieferte Apple als erster Hersteller weltweit einen Internetbrowser, welcher den Acid2-Test bestehen konnte. Der besagte Test überprüft die Kompatibilität des Browsers mit den aktuellen Internetstandards des World Wide Web Consortium, kurz W3C. In der späteren Version 6 brachte es der Safari Browser hier immer noch auf einen hervorragenden Wert von 94%, der Mitbewerber Firefox von Mozilla konnte allerdings sogar einen Wert von 95% erzielen. Eine besondere Funktion, die in dieser Art momentan nur der Safari Browser bietet, ist das sogenannte „SnapBack“-Feature: Dieses ermöglicht es dem Nutzer, mit nur einem Klick zur ursprünglichen Ausgangsseite zurückzukehren, Darüber hinaus hat der Browser natürlich noch zahlreiche weitere gängige Funktionseigenschaften, wie etwa einen privaten Modus zum Surfen ohne abgelegte Cookies und abgelegte Daten im Cache, einen integrierten Pop-up-Blocker zwecks Blockierung von unerwünschten Werbeanzeigen und das sogenannte „Tabbing Browsing“ (eine für den Nutzer übersichtlichere Navigation über mehrere Registerkarten) mit an Bord.

Safari Browser für Windows

Während Safari anfangs ausschließlich für Geräte des Herstellers Apple verfügbar war, entschied sich der Konzern im Jahr 2007 dazu, den Browser auch in einer Version für das Betriebssystem Windows zu veröffentlichen – genauer gesagt für Windows XP und Windows Vista. Obwohl die Beta-Version ausschließlich in englischer Sprache verfügbar war, verzeichnete der Browser innerhalb von nur 48 Stunden mehr als eine Million Downloads. Im Jahr 2008 endete schließlich die Beta-Phase und Apple veröffentlichte den Safari Browser in einer offiziellen Version samt deutscher Sprache, die in den darauffolgenden Jahren auch kontinuierlich upgedatet und mit Sicherheitsupdates bedacht wurde. Im Jahr 2012 entschied sich Apple allerdings dazu, den Safari Browser nicht mehr für das Betriebssystem Windows, sondern nur noch für seine eigenen Betriebssysteme macOS und iOS zu veröffentlichen: Bereits Version 6 erschien nicht mehr für Windows.

Beliebtheit

Beachtet man die Tatsache, dass der Safari Browser derzeit ausschließlich auf Betriebssystemen aus dem Hause Apple läuft, können sich seine offiziellen Nutzerzahlen durchaus sehen lassen: Im Februar 2019 brachte es der Browser laut einer Messung des Onlineportals StatCounter auf einen sehr guten Wert von 15,56%, womit er direkt nach Google Chrome der am zweithäufigsten verwendete Browser ist – allerdings nur, wenn man sowohl die Nutzung an einem Dektop-PC, als auch die Nutzung auf mobilen Endgeräten in diese Statistik mit einfließen lässt. Wirft man nämlich nur einen Blick auf die reinen Nutzerzahlen von Desktop-PC’s, bringt es Safari lediglich auf einen überschaubaren Wert von 5,77%. Bei allen Tablet-PCs liegt der Safari-Anteil hingegen bei unangefochtenen 67,32%, bei Smartphones sind es immerhin noch 21,29%.

Software Deploment Tool – wertvolle Lösungen im kompakten Überblick

Software Deployment  ist die professionelle Methode, im PC- und Serverbereich benötigte Betriebssysteme und Softwareprodukte automatisiert zu verteilen. Dies wird mit modernen Tools praxisorientiert und passgenau verwirklicht. Der folgende Überblick informiert Sie darüber, was ein Software Deployment Tool ist, welche Tools es gibt und mit welchen Vorteilen sie für den Anwender verbunden sind.

Je umfangreicher die IT eines Unternehmens aufgestellt ist, umso mehr Rechner und Server sind es in der Regel, die in einem zentralen Netzwerk zusammengeschlossen sind. Um effiziente Betriebsabläufe zu generieren, aber auch Komfort und Sicherheit bei der Handhabung der EDV-Lösungen zu gewährleisten, ist eine bedarfsgerechte Softwareverteilung wichtig. Sie bestückt die Rechner mit genau den Komponenten, die für deren reibungslosen Ablauf und die Anforderungen des jeweiligen Arbeitsplatzes optimal geeignet sind. Je mehr PCs im Unternehmen vorhanden sind, umso dringender sollten Sie ein Software Deployment Tool nutzen.

Manuelle versus automatisierte Softwareverteilung

Manuelle Softwareverteilung bedeutet, dass die einzelnen Softwarelösungen auf jedes einzelne Gerät händisch verteilt – im Fachjargon auch „ausgerollt“ – werden. Auch ohne umfassende Informationen über die damit verbundenen Arbeitsschritte ahnen Sie sicher, wie aufwendig sich dies gestaltet. Das umso mehr, dass die Zahl der auszurüstenden Geräte sich allein dadurch schon verdoppelt, wenn jeder Mitarbeiter zu seinem Innendienst-PC auch noch ein mobiles Endgerät wie ein Smartphone oder ein Tablet für seine Aufgaben im Unternehmen nutzt. In der Regel sind es bis zu zehn Rechnern, die manuell bestückt werden können. Bei verzweigteren Netzwerken ist dies zu aufwendig. Hier sollte die Softwareverteilung nicht mehr durch den Administrator oder einen anderen IT-Fachmann durchgeführt werden, sondern mit einem leistungsstarken Software Deployment Tool.

Software Deployment Tool: intelligente Systeme nutzen

Wichtige Voraussetzung für die Softwareverteilung ist das Setup. Hier registriert das Betriebssystem, wenn Handlungsbedarf – etwa für ein Update oder Patch Management – vorhanden ist, und gibt dem Software Deployment Tool den relevanten Input. Die Softwareverteilung kann zentral über den Server, aber auch von den Endgeräten angestoßen werden. Wichtig ist, dass das Software Deployment Tool nicht nur die Verteilung an sich übernehmen kann, sondern auch eine Fehlerprüfung enthält, die das System vor Sicherheitslücken nachhaltig schützen kann.

Welche Tools gibt es Markt? 

Wer plant, ein Software Deployment Tool einzusetzen, hat einige Möglichkeiten. Das Installieren beziehungsweise Verteilen von Softwarelösungen auf die einzelnen Clients kann sowohl mit kostenpflichtigen als auch kostenlosen (freien) Tools verwirklicht werden. Bei der Auswahl des richtigen Tools ist zunächst zu berücksichtigen, welches Betriebssystem genutzt wird. Für Linux eignen sich beispielsweise Ansible, Chef und Puppet. Für Windows sind OPSIPDQ Deploy und SCCM (Microsoft) kompatibel, die allesamt Freeware sind. Allerdings gilt es in diesem Zusammenhang zu berücksichtigen, dass die meisten Windows-kompatiblen Tools zwar kostenlos sind, dafür aber in der Anzahl der zu verwaltenden PCs eine Einschränkung haben. Hier kommt es auf die Unternehmensgröße und die damit verbundene Rechneranzahl an, welches Produkt für Sie das optimale ist. Natürlich können Sie auch bei solchen Softwarelösungen mehr Rechner an die Softwareverteilung anknüpfen. Dies ist aber nur im Rahmen eines Upgrades möglich, das aus dem freien ein kostenpflichtig lizenziertes Software Deployment Tool macht.

Tools im kompakten Überblick

Das ideale Software Deployment Tool ist das, was den Bedarf eines Unternehmens optimal umsetzen kann. Am Markt gibt es zahlreiche leistungsstarke Programme, die dazu das Potenzial haben. Hier können natürlich nur einige davon explizit genannt werden. Das bereits erwähnte PDQ Deploy überzeugt dadurch, dass die Installation bedarfsgerecht und somit besonders kundenoptimiert möglich ist. Chef ist sprachunabhängig für alle Plattformen beziehungsweise Provider nutzbar. Travis CI ist nicht kostenfrei, bietet aber umfangreiche Testung und Expertensupport für Linux und Mac beziehungsweise iOS. Bei Jenkins gibt es Hunderte von Plugins für den bedarfsgerechten Einsatz. Ansible Tower kommt mit einem übersichtlichen Dashboard und leistungsstarker Infrastruktur rund um Datenmanagement und Cloud daher. SSCM stammt von Microsoft. Der System Center Configuration Manager ist eine durchdacht einheitliche Verwaltungseinheit, die natürlich für Windows-PCs mit hoher Kompatibilität und Benutzerfreundlichkeit punktet.

OPSI für Windows entdecken

Wer ein Software Deployment Tool schätzt, das unabhängig von der Anzahl der angebundenen Anzahl von PCs kostenfrei bleibt, ist bei OPSI richtig. Auch wir verwenden diese Softwareverteilung, die für Windows konziert und als Open Source-Projekt kostenlos verfügbar ist.

Wir beraten Sie zu diesem Software Deployment Tool und allen anderen Möglichkeiten der Softwareverteilung gerne.

Bei Linux handelt es sich um ein Open-Source-Betriebssystem, das in einer Vielzahl unterschiedlicher Distributionen erhältlich ist und in Zusammenarbeit von Entwicklern aus der ganzen Welt programmiert wird. Das Betriebssystem verbreitet sich durch eine freie Lizenz bereits seit dem Jahr 1992. Obwohl die Bedienung von Linux und seine breite Funktionsvielfalt auf den ersten Blick äußerst kompliziert wirken, bietet das offene Betriebssystem dennoch eine zuverlässige und bequeme Plattform für all Ihre Anwendungen, sobald Sie sich mit dem Linux-OS besser vertraut gemacht haben.

Was ist Linux?

Das unter der GPL-Lizenz (General Public License) lizensierte Betriebssystem wurde im Jahr 1991 von dem damals 21-jährigen Informatikstudenten Linus Torvalds entwickelt. Das Betriebssystem wurde ursprünglich als ein Uni-Projekt gestartet, wuchs aber binnen kürzester Zeit zu einem vollwertigen Betriebssystem heran. Die erste Version des Betriebssystems veröffentlichte Torvalds im September 1991 im Usenet. Im Laufe der Jahre hat sich eine gigantische internationale Entwicklergemeinde rund um das Linux-OS aus Unternehmen, Organisationen und Einzelpersonen gebildet, deren Zahl stetig wächst. Der Erfinder Linus Torvalds ist heute noch der hauptverantwortliche Entwickler des Kernels.

Streng genommen handelt es sich bei dem von Torvalds entwickelten Linux nur um den Systemkern, den sogenannten Kernel. Das Kernel ist das Grundprogramm einer jeder Linux-Distribution. Dieses Kernprogramm ist dafür zuständig, um zwischen der Hardware und Software eines Computers zu vermitteln. Wenn man den Kernel mit einer grafischen Benutzeroberfläche und weiterer Software versieht, entsteht eine Distribution. Der Kernel arbeitet im Hintergrund einer Linux-Distribution und ist dafür verantwortlich, dass die einzelnen Bestandteile des Betriebssystems miteinander harmonieren. Auch Hardware und Software müssen reibungslos funktionieren.

Linux Geschichte

Wie entstand Linux?

Den Namen Linux nutzte man anfänglich ausschließlich für das von ihm entwickelte Kernel. Sein Kernel wurde anfänglich in Kombination mit dem unixorientierten System Minix verwendet. Linus und die anderen Entwickler lizenzierten im Jahr 1992 Linux unter der GNU (General Public License), sodass sie den Kernel in die GNU integrieren konnten. Diese Version entwickelte sich schnell zu der meist genutzten Variante, da zu dieser Zeit kein anderer funktionsfähiger freier Kernel zur Verfügung stand. Als Linus und seine Kollegen später das gesamte Betriebssystem als Linux bezeichneten, versuchte Richard Stallmann, der Gründer des GNU-Projekts, die Bezeichnung GNU/Linux durchzusetzen, was jedoch von den meisten Entwicklern und Distributoren abgelehnt wurde.

Unterschiedliche Distributionen

Da der Kernel alleine nicht funktionsfähig ist, muss man ihn mit sogenannter Hilfssoftware versehen, wie zum Beispiel den GNU Core Utilities und vielen weiteren Anwendungsprogrammen. Ein solches Paket, das aus dem Kernel und Anwendungssoftware besteht, nennt man Distribution. Dabei handelt es sich um eine Zusammenstellung verschiedener Software, die je nach vorgesehenem Einsatzgebiet sehr unterschiedlich ausfallen kann. Die so zusammengesetzten Distributionen können sich teilweise stark voneinander unterscheiden. Der Entwickler einer solchen Distribution heißt Distributor.
Die Notwendigkeit der Distributionen lässt sich in erster Linie durch das Entwicklungsmodell von Linux begünstigen.

Die ersten Distributionen waren:

MCC Interim
Softlanding Linux System (SLS)
Yggdrasil

Die älteste Distribution, die heute noch weiterentwickelt wird, ist Slackware von Patrick Volkerding.
Mit der rasanten Ausbreitung der Distributionen bekamen mehr Nutzer die Möglichkeit, das quelloffene Betriebssystem zu testen. Hinter den in erster Linie kleineren Distributionen, die man heutzutage über das Internet koordiniert, stehen Projekte Freiwilliger. Die größeren Distributionen werden von Stiftungen und Unternehmen entwickelt und verbreitet. Auch die Einsatzmöglichkeiten der einzelnen Distributionen weichen stark voneinander ab, sodass von Systemen für Desktop-PCs, Server-Installationen und Live-DVDs mittlerweile alles vertreten ist.

Die Vor- und Nachteile im Überblick

Vorteile und Nachteile von Linux

Welche Vorteile hat Linux?

Das quelloffene Betriebssystem gilt als besonders sicher und performant. Einer der größten Vorteile spiegelt sich in der Tatsache wider, dass für Linux beinahe keine Schadsoftware existiert. Dank der Open-Source-Lizenz (GPL) sind der Kernel und die meisten anderen Module quelloffen. Die GPL-Lizenz ermöglicht Entwicklern und Nutzern, den Quellcode beliebig zu verändern und zu verbreiten. Da Linux quelloffen und modular aufgebaut ist, kann es schnell und unkompliziert auf andere Plattformen portiert und für andere Einsatzmöglichkeiten angepasst werden. Dadurch ist das gesamte System in hohem Maße skalierbar, sodass es sich auf allen Arten von Computersystemen problemlos einsetzen lässt, wie beispielsweise mobile Geräte, Server, Supercomputer oder PCs.

Als nachteilig kann man die Tatsache betrachteten, dass eine Vielzahl an Anwendungsprogrammen, Geräten und Spielen offiziell nicht unterstützt werden. Während Endanwender das Betriebssystem vollständig über die grafische Benutzeroberfläche steuern können, erwartet man von Administratoren einen guten Umgang mit der Kommandozeile.

Lizenz Linux

Wie erhält man eine Lizenz?

Red Hat, Ubuntu und SUSE

Da Linux quelloffen ist, haben sich im Laufe der Zeit viele unterschiedliche Distributionen etabliert. Zu den meistgenutzten Distributionen gehören:
– Red Hat
– Ubuntu
– SUSE

Ubuntu ist nach Windows und macOS das beliebteste Betriebssystem für Desktop- und Laptop-PCs. Die Ubuntu-Distribution wird von der Firma Canonical entwickelt und ist kostenlos erhältlich. Die beiden Firmen Red Hat und SUSE haben sowohl kostenlose als auch kostenpflichtige Distributionen im Angebot. Red Hat ist aktuell der weltweite Marktführer im Bereich der Server- und Workstation-Lösungen, während SUSE insbesondere in Deutschland sehr beliebt ist. Lesen Sie hier mehr über SUSE.

Linux auf Desktop-Systemen

Obwohl das quelloffene Betriebssystem eine Vielzahl unterschiedlicher Einsatzbereiche abdeckt, kommt das System in erster Linie auf Desktop- und Laptop-PCs als Alternative zu Windows zum Einsatz. Eine Distribution lässt sich sowohl als das primäre Betriebssystem betreiben, als auch im Rahmen eines Multi-Boot-Systems nutzen. Nutzer können beispielsweise neben Windows oder macOS auch Linux parallel installieren und betreiben. Aktuelle Distributionen, wie beispielsweise Red Hat oder Ubuntu, führen den Nutzer durch den Installationsprozess und erkennen vorhandene Betriebssysteme automatisch. So sollten auch unerfahrene Nutzer mit der Installation des Systems keine Probleme haben.

Nutzern steht eine Vielzahl kostenloser Anwendungen zu Verfügung, die sie sich individuell nach persönlichen Anforderungen auswählen können. Mit Anwendungen für Textverarbeitung, Tabellenkalkulation und Multimedia sowie Programmen für die wissenschaftliche Anwendungen sind die meisten Anwendungsbereiche abgedeckt, die im Büro- und Privatalltag wichtig sind.

CentOS (Community ENTerprise Operating System) ist ein auf dem Linux-Kernel basierendes Betriebssystem für PC, Server und virtuelle Maschinen. Die Distribution gehört zu den meistgenutzten nichtkommerziellen Linux-Versionen weltweit und baut auf dem RedHat Enterprise Linux (RHEL) System auf. CentOS ist wie die RedHat Version auf Unternehmensbedürfnisse zugeschnitten und binär kompatibel zu RHEL. Im Gegensatz zu RHEL ist CentOS von jedermann kostenfrei einsetzbar.

Die Geschichte von CentOs

Wie ist CentOs entstanden?

Die Entstehung von CentOS

Zum Verständnis der Entstehung des Betriebssystems muss man den Gedanken von Linux und der Open Source Community verstehen. Linux bzw. der Linux Kernel unterliegt der GNU/GPL. Diese Lizenz gewährleistet dem Lizenznehmer ein umfassendes Nutzungsrecht an der Software. Ihm ist unter anderem die Weiterverbreitung der Software gestattet, jedoch muss diese, unabhängig davon, ob die Software unverändert oder modifiziert weitergegeben wird, der GNU/GPL unterliegen. Dadurch ist gewährleistet, dass der Quellcode der Software immer frei ist und von jedem eingesehen, verändert und weiterentwickelt werden kann. Lesen Sie hier, was ein Quellcode ist.

RedHat ist eine kommerziell orientierte Firma, die sich zur Aufgabe gemacht hat, Linux auch für Unternehmen interessant zu machen. Der Grundgedanke liegt darin, dem professionellen Anwender eine über einen langen Zeitraum unverändert bleibende, regelmäßig mit Sicherheitsupdates versorgte und SLA-basiertem Support unterliegende Software zur Verfügung zu stellen. Alle diese Attribute können die vielen verschieden Linux-Derivate nicht beziehungsweise nur in begrenztem Umfang erfüllen und sind deshalb weniger interessant für den gewerblichen Anwender.

RedHat und CentOs

Im Gegensatz zu vielen kostenfrei erhältlichen Linux-Distributionen sind die RedHat-Produkte kostenpflichtig und ausschließlich zusammen mit einer Support-Option zu erwerben. An diese Stelle setzt

CentOs-Updates

Welche Updates kann man erwarten?

die Entwicklergemeinde von CentOS an: Anhand des frei zugänglichen Quellcodes wird die Software neu kompiliert (Übersetzung von Quellcode in durch Computer verarbeitbaren Maschinencode). Dabei bleibt die Software binärkompatibel, nur Herstellerlogos und –namen werden ersetzt. Die Entwickler garantieren lang Lebenszyklen, für die Haupversion 7 wird beispielsweise für den Zeitraum von zehn Jahren die Versorgung mit Patch- und Sicherheits-Updates sichergestellt.

Im März 2004 erschien die Version 2 von CentOS Linux (damals noch unter dem Namen CAOS Linux). Sie war vom damals aktuellen RHEL 2.1 abgeleitet. 2006 änderte man den Name zum heutigen CentOS. Seit der ersten Version wird regelmäßig nach einem Versionsupdate von RedHat die entsprechende Version von CentOS entwickelt und zwei bis drei Monate nach dem RHEL-Erscheinen auf den Markt gebracht. Im Jahr 2014 verkündete RedHat, das Projekt finanziell zu unterstützen. Damit übernahm RedHat auch die Marke „CentOS“ und besitzt sie bis heute. Der Gedanke der freien Verfügbarkeit bleibt hiervon unberührt bis heute und in Zukunft bestehen.

Welche Anwender profitieren von CentOS?

Der Fokus des RedHat-Clones liegt wie der von RHEL auf Stabilität, Sicherheit, Support und Zuverlässigkeit. Diese Features sind für professionelle Anwender in Unternehmen und Behörden interessant, die Wert auf standardisierte Soft- und Hardware legen. Für jede Version garantieren die Entwickler viele Jahre Support in Form von Patches und Sicherheitsupdates. Die derzeit aktuelle Version 7 unterliegt dem aktuellen 7-Jahres-Support-Zyklus, wobei das System weitere drei Jahre mit Sicherheitsupdates versorgt wird. Der Support für diese Version wird am 30. Juni 2024 enden.

Für die Hardware-Hersteller ergibt sich wegen der langjährigen Stabilität der Software die Möglichkeit, das Betriebssystem für ihre Produkte zertifizieren. Das ist im Gegenzug wichtig für die Anwender, die so ein rundum unterstütztes System erhalten. Die Herstellerzertifizierungen beziehen sich zwar auf RedHat Enterprise Linux. Da CentOS Linux aber binärkompatibel ist, kann der Anwender sicher sein, dass das Betriebssystem auf RHEL-zertifizierter Hardware lauffähig und unterstützt ist.

CentOs

Ist die Software auf dem neusten Stand?

Verschiedene Systemhäuser und Softwareanbieter haben sich in den letzten Jahren darauf spezialisiert, auch für CentOS-professionellen Support anzubieten. So offeriert zum Beispiel die Firma RogueWave 12×5 oder 24×7 Supportverträge inklusive erweiterter Patchversorgung. Damit sind allerdings Kosten verbunden, die eigentlich mit dem Einsatz von CentOS gegenüber RHEL vermieden werden sollten.

Anwender sollten sich darüber im Klaren sein, dass nicht alle enthaltenen Softwarepakete jederzeit auf dem aktuellsten Stand sind. In manchen Einsatzbereichen kann das dazu führen, das bestimmte Anwendungen nicht lauffähig sind. Es besteht zwar die Möglichkeit, selbst Pakete zu kompilieren. Dadurch gefährdet man die Stabilität des Gesamtsystems. CentOS ist also für Anwender, die auf neueste Softwareversionen angewiesen sind wie zum Beispiel Softwareentwickler, nicht oder nur bedingt geeignet.

Welche Version ist derzeit aktuell?

Seit Ende Oktober 2018 trägt die aktuelle Version den Versionsstempel 7.6-1810. Sie wird noch bis Mitte 2024 mit Updates versorgt, drei Jahre später endet die Versorgung mit Sicherheitsupdates. Außerdem ist die Version 6.10 erhältlich und bis Ende 2020 durch Updates unterstützt. Ältere Versionen kann man auf eigenes Risiko installieren, jedoch gibt es keine Updates mehr.

RedHat ist schon um eine Major-Version weiter, seit Mai 2019 ist RHEL 8 mit neuer Software und neuen Features verfügbar. Derzeit arbeitet die CentOS Entwicklergemeinde an der Umsetzung der Version 8 für das freie Betriebssystem. Gemessen an den bisherigen Entwicklungszyklen erscheinen Updates der RedHat-Variante jeweils mit zwei bis drei Monaten Verzögerungen. Man kann also mit dem Erscheinen von CentOS 8 um August 2019 herum rechnen.

Wo kann sich der Anwender informieren?

Neben Informationen aus den einschlägigen Fachzeitschriften sind natürlich CentOS und RedHat über Internetseiten (centos.org, redhat.com), auf denen neben Informationen über die Produkte und aktuelle und geplante Neuerungen auch die Software selbst verfügbar ist. Die Historie reicht dabei zurück bis zur Urversion CAOS 2.1.

was ist nginx und warum ist es besser als apache?

Lange Zeit war Apache mit einem Marktanteil von bis zu 70 Prozent der Webserver für das Internet. Einzig Microsoft IIS stellte mit etwa 20 Prozent eine nennenswerte Konkurrenz dar, da es der Standard für das Betriebssystem Windows Server ist. Mit dem Erscheinen von Nginx – ausgesprochen wie das englische Engine Ex – hat sich die Situation geändert. Besonders große Plattformen setzen auf die Open-Source-Software aus Russland, da diese viele Vorteile mit sich bringt.

Webserver, Datenbanken, Programmiersprachen, Protokolle und Interpreter

Eine Webseite ist heute fast immer dynamisch programmiert. Das bedeutet, bei einer Anfrage erstellen mehrere Programme eine individuelle Antwort, statt ein vorgefertigtes, statisches Dokument auszuliefern. Die Informationen – zum Beispiel Texte, Links, Nutzernamen oder Passwörter – liegen in einer Datenbank. Skripte in einer geeigneten Programmiersprache wie PHP, Perl oder Python fragen diese ab und erstellen die Webseite.

Der Interpreter bildet eine Schnittstelle zwischen dem Skript und dem Betriebssystem – er übersetzt die geschriebenen Befehle in Computersprache. Der Webserver ist für die Kommunikation zuständig: Er nimmt Anfragen entgegen und sendet Antworten an die entsprechenden Adressen.

Um die Kommunikation zwischen Server und unterschiedlichen Endgeräten und Betriebssystemen zu ermöglichen, kommen universelle Protokolle als Gemeinsprache zum Einsatz. Für Webseiten ist dies das Hypertext Transfer Protocol (HTTP) beziehungsweise dessen verschlüsselte Variante mit dem Zusatz Secure (HTTPS). Es ist speziell für die Übertragung von Nachrichten konzipiert, für andere Zwecke wie Dateiübertragungen existieren eigene Formate wie das File Transfer Protocol (FTP).

Nginx – ein modularer Webserver mit geringem Ressourcenverbrauch

Effizienz und Geschwindigkeit zeichnen Nginx besonders aus.

Effizienz und Geschwindigkeit zeichnen Nginx besonders aus.

Um eine hohe Performance und Funktionalität zu ermöglichen, verwendet Nginx ein modulares Design. Es besteht aus einem schlanken Kernprogramm, das ein Nutzer je nach individuellen Anforderungen durch Module erweitert. Dadurch unterstützt der Webserver unterschiedliche Techniken und erlaubt die Einbindung neuer Standards etwa für Videostreaming und interaktive Inhalte. Einige der Möglichkeiten sind Lastverteilung über mehrere Server, zusätzliche Protokolle, direkter Zugriff auf den Arbeitsspeicher oder der Einsatz als E-Mail– oder Webserver für Weiterleitung (Proxy).

Eines der populärsten und interessantesten Module ist PHP-FPM. Es handelt sich um einen Prozessmanager, der die Anbindung an den PHP-Interpreter übernimmt. Die Kommunikation zwischen Webserver und Programmiersprache basiert auf einem 1993 definierten Standard – dem Common Gateway Interface (CGI). Traditionell erstellt dieses für jede Aufgabe einen neuen Prozess.

Im Unterschied zu diesem Verfahren erzeugt PHP-FPM bei Betriebsstart mehrere Interpreter im Hintergrund, auf die es je nach Auslastung Anfragen verteilt. In Verbindung mit anderen Optimierungen erreicht das Modul dadurch eine ausgezeichnete Performance.

Unterschiede zwischen Apache und Nginx

Anders als Apache legt Nginx bereits seit seiner ersten Version eine Priorität auf Effizienz und Geschwindigkeit. Apache verwendet ebenfalls ein modulares Design – eines seiner größten Nachteile ist jedoch, dass es jede Verbindung einzeln bearbeitet. Dadurch besitzt es einen sehr hohen Speicherverbrauch und die Effizienz sinkt bei hohen Besucherzahlen kontinuierlich. Aus diesem Grund setzt das Programm auf eine sogenannte „asynchrone Architektur“. Anfragen behandelt es nicht individuell, sondern bündelt sie in wenigen Prozessen, die tausende Verbindungen simultan verwalten können.

Eine häufig genutzte Funktion unter Apache sind .htaccess-Dateien. Diese ermöglichen es, durch eine lokale Datei Regeln zu definieren, die von dem Webserver ausgewertet werden. Häufige Verwendungen sind das Setzen eines Passworts für eine bestimmte Adresse oder die Umleitung von URLs im Rahmen der Suchmaschinenoptimierung (SEO). Nginx unterstützt keine .htaccess-Dateien, da diese die Performance beeinträchtigen. Es verwendet stattdessen globale – also system– oder seitenweite Einstellungen.

Für die Umwandlung von .htaccess-Befehlen in eine gültige Konfiguration existieren mehrere Konverter, die die Einrichtung erleichtern. Apache ermöglicht es, Module nachträglich einzubinden, indem Anwender diese in die Konfiguration eintragen und in den Webserver laden. Im Gegensatz dazu gehören Module bei Nginx fest zu dem kompilierten Programm. Eine Erweiterung um neue Funktionen erfordert deshalb fast immer den Austausch der installierten Programmversion.

Vor- und Nachteile von Nginx

Bekannte Website setzen auf Nginx als Webserver und erreichen täglich mehrere tausend Aufrufe.

Bekannte Website setzen auf Nginx als Webserver und erreichen täglich mehrere tausend Aufrufe.

Das Projekt Nginx entstand aus der Notwendigkeit, einen schnellen, zuverlässigen, sicheren und effizienten Webserver für die russische Suchmaschine Rambler zu entwickeln. Unter dem Gesichtspunkt der Performance ist dieser wegen dieser Eigenschaften meist die beste Wahl. Populäre Webseiten mit tausenden oder Millionen Aufrufen täglich – darunter zum Beispiel WordPress, Netflix, Apple, Spotify oder Facebook – setzen deshalb bevorzugt Nginx ein. Experten schätzen, dass der Marktanteil des Webservers unter den 10.000 beliebtesten Internetseiten bei über 60 Prozent liegt.

Für kleine Projekte bietet die Verwendung ebenfalls einige Vorteile. Er ermöglicht beispielsweise eine Reduzierung der Hardwareperformance und dadurch der Betriebskosten, ohne die Geschwindigkeit bei Reaktion oder Seitenaufbau zu beeinträchtigen. Ein großer Nachteil von Nginx ist die gegenüber Apache aufwendigere Konfiguration. Darüber hinaus schränkt dieser durch die ausschließlich globale Definition die Möglichkeiten zu einer individuellen Einrichtung bei mehreren unabhängigen Nutzern ein. Wegen dieser Eigenschaft bevorzugen viele Anbieter von Webspace für ihre Kunden nach wie vor Apache.

Apache und Nginx als kombinierter Webserver

Um die Vorteile von beiden Programmen nutzen zu können, bietet sich eine Kombination der Webserver an. In diesem Fall dient Nginx als primäre Instanz und leitet ausschließlich spezielle Anfragen an Apache weiter, um dessen Verbindungen zu minimieren. Das Verfahren benötigt Administrationsrechte auf dem Server und eine individuelle Konfiguration, kann aber den Ressourcenverbrauch erheblich verringern. Das Aufsetzen der Webserver erfordert allerdings ein entsprechendes Fachwissen.