OpenOffice ist eine Bürosoftware, die Programme zur Textverarbeitung, Tabellenkalkulation, Präsentation und zum Zeichnen enthält. Zudem umfasst das Paket ein Datenbankprogramm und einen Formeleditor. Im Gegensatz zu vielen kommerziellen Angeboten handelt es sich bei OpenOffice um ein Open-Source-Projekt, bei dem weder für den Kauf noch für die Nutzung Gebühren anfallen.

Die Funktionen im Überblick

OpenOffice setzt sich aus insgesamt sechs verschiedenen Komponenten zusammen. Der Writer ist das Textverarbeitungsprogramm der Software und beinhaltet alle gängigen Funktionen von Schreibprogrammen wie zum Beispiel Textbausteine, Rechtschreibprüfung, Autokorrektor und Formatvorlagen sowie die Möglichkeit, Grafiken oder Tabellen zu integrieren. Zudem bietet die Software auch einen HTML-Editor, mit dessen Hilfe sich HTML-Seiten erstellen lassen.

Für Tabellenkalkulation und Berechnungen steht das Programm Calc zur Verfügung. Es ist vor allem für die Analyse und Auswertung von Daten gedacht, bietet aber auch eine Vielzahl an mathematischen Berechnungsmöglichkeiten. Für kompliziertere Formeln bietet OpenOffice zudem die Software Math an. Dabei handelt es allerdings nicht um ein Rechen- oder Algebraprogramm. Es dient eher dazu, mathematische Formeln zu erfassen und darzustellen.

Für Präsentationen und Vorträgen können die Funktionen von Impress genutzt werden. In diesem lassen sich einzelne Folien mit verschiedenen Inhalten wie Texten, Bildern, Diagrammen oder Multimediainhalten erstellen und durch Übergangseffekte miteinander verbinden. Zudem können im Programm auch Einstellungen in Hinblick auf die Art und Weise der Präsentation der verschiedenen Folien getroffen werden.

Für Grafiker und Zeichner bietet OpenOffice mit Draw ebenfalls eine Software an. Dabei handelt es sich um ein vektorbasiertes Grafikprogramm, wobei auch dreidimensionale Effekte erstellt werden können. Darüber hinaus gehört auch das Datenbankmanagementsystem Base zum Umfang, mit dem sich große Datenmengen in Datenbanken organisieren und verwalten lassen.

Kostenfreie Softwarelösung

Die Inhalte von OpenOffice ähneln in vielen Bereichen denen von Office365 beziehungsweise dessen Nachfolger Microsoft365. Im Gegensatz zum Office-Paket von Microsoft ist das Angebot bei OpenOffice aber vollkommen kostenfrei. So fällt weder wie früher bei Office365 ein Kaufpreis an, noch müssen wie bei Microsoft365 monatliche Abogebühren für die Nutzung gezahlt werden. Das Programm wird unter der Apache 2.0 License veröffentlicht, was bedeutet, dass es sowohl privat als auch gewerblich ohne Kosten genutzt werden kann. Dabei spielt es auch keine Rolle, auf wie vielen Geräten die Software installiert wird, oder ob sie ein Nutzer kopiert und weiterverbreitet.

OpenOffice ist ein Vertreter der sogenannten Open Source Software. Dabei handelt es sich um Softwarelösungen, die komplett offen im Netz zugänglich sind. Jeder kann den Programmcode für seine Anforderungen nutzen, anpassen und verbreiten. Es werden weder Beschränkungen vorgeschrieben, noch fallen Kosten an. Ausnahmen bilden mitunter bestimmte Erweiterungen oder Dienstleistungen, die von Unternehmen speziell entwickelt wurden. Der Kerncode und die damit verbundene Software bleiben aber frei.

Die Entwicklung von OpenOffice

OpenOffice basiert auf dem Quellcode des Office-Pakets StarOffice, das zunächst von dem Unternehmen Star Division entwickelt wurde. Im Jahr 1999 übernahm Sun Microsystems die Firma und arbeitet zunächst weiter an StarOffice. Ein Jahr nach der Übernahme kündigte man schließlich das OpenOffice.org-Projekt an und veröffentlichte auch den ersten Quellcode, der auf StarOffice 6.0 basierte. Ziel war es, eine Bürosoftware zu entwickeln mit dem Fokus auf die Rechte der Entwickler und Nutzer und ohne den Einfluss von Firmeninteressen. Die erste Version von OpenOffice erschien am 1. Mai 2002.

Sun Microsystems setzte die Entwicklung mit Programmierern und Unterstützern auf der ganzen Welt anschließend fort und veröffentlichte im Jahr 2003 die Version 2 und im Jahr 2008 die Version 3 des Office-Pakets. Im Jahr 2010 übernahm dann die Oracle Corporation das Unternehmen und damit auch die Entwicklung von OpenOffice. Mit der Zeit zeigten sich viele Entwickler aber enttäuscht von Oracle, da die Unterstützung durch das Unternehmen ihrer Meinung nach abgenommen hatte. In der Folge wanderten immer mehr Entwickler ab und gründeten schließlich die The Document Foundation, um die Entwicklung unter neuem Dach fortzusetzen.

Da die Namensrechte an OpenOffice jedoch Oracle gehörten und diese sie nicht übertragen wollten, wurde mit LibreOffice ein neues Office-Paket ins Leben gerufen. Trotz des neuen Namens sehen sich die Entwickler als legitimer Nachfolger, wobei LibreOffice auch auf OpenOffice basiert, sich mittlerweile aber stark weiterentwickelt hat und deutlich populärer ist.

Im April 2011 zog sich Oracle schließlich von OpenOffice zurück und übergab die Entwicklung an die Apache Software Foundation. Diese veröffentlichten 2013 die Version 4 des Programms, die dann auch offiziell den Namen Apache OpenOffice trug.

Ein Patch bezeichnet die Auslieferung einer korrigierten Version von Anwendungen oder Betriebssystemen, um Sicherheitslücken zu schließen oder Fehler zu entfernen.

Das englische Wort bezeichnet ein Stück Stoff (den „Flicken“), das man über ein Loch in Textilien zur Ausbesserung nähen kann. Im Softwarebereich versteht man darunter eine Korrektur eines Programms zur Behebung von Problemen verschiedener Art. Diese Probleme können die Funktionalität des Programms beeinträchtigen oder eine Sicherheitslücke darstellen. Man unterscheidet drei Typen von Patches.

Software muss regelmäßig angepasst werden, sei es zur Behebung von Fehlern in der Funktionalität oder nach dem Auffinden von Sicherheitslücken. Der Hersteller der Software und die Benutzer müssen beide ihren Teil dazu beitragen, dass die Korrekturen so schnell wie möglich vorgenommen werden.

Der Prozess der Softwareentwicklung

Die Erstellung größerer Programme ganz ohne Fehler oder sogar Sicherheitslücken ist auf dem heutigen Stand der Technik noch nicht möglich. Daher sind ständige Korrekturen erforderlich, um die Software in höchstmöglicher Qualität einsetzen zu können. Oft ist es sogar so, dass die ersten Kunden die letzten Betatester sind, die Fehler im Programm finden sollen. Das kommt auch bei neuen Versionen von Betriebssystemen vor. Ob die Software proprietär oder frei ist, spielt für das Auftreten von Fehlern keine direkte Rolle.

Ein Bugfix ist die Korrektur eines Fehlers im Programm. Dieser kann beispielsweise ein falsches Ergebnis bewirken oder auch das Abstürzen des Computers.

Ein Hotfix ist ein Patch, der zum Schließen einer Sicherheitslücke vorgesehen ist. In diesem Fall besteht die höchste Dringlichkeit für die Installation des Patches.

Ein Update ist eine Aktualisierung eines Programms, die oft mehrere Bugfixes enthält. Der Übergang zu einer neuen Version der Software ist fließend.

 

Wie werden Patches erstellt und eingesetzt?

Dieser Prozess läuft in vier Stufen ab.

  1. Der Fehler wird entdeckt. Der Entdecker kann der Hersteller der Software, oft aber auch ein Benutzer sein. Im letzteren Fall ist es wichtig, dass der Benutzer den Fehler an den Hersteller meldet, denn nur so kann ein Patch erstellt werden.
  2. Der Softwarehersteller schreibt und testet den Patch.
  3. Vom Softwarehersteller wird der Patch an alle Anwender des Programms geliefert.
  4. Die Anwender installieren den Patch auf ihren Systemen.

Das Management der Patches

Die Hersteller rechnen mit der ständigen Entdeckung von Fehlern in ihrer Software. Besonders die großen Entwickler besitzen deshalb ein professionelles Management des Prozesses. Die Firma Microsoft beispielsweise veröffentlicht jeden zweiten Dienstag im Monat alle in einem Monat erstellten Patches. Der Tag ist allgemein als Patch Tuesday bekannt. Allerdings kommt es auch vor, dass Microsoft zwischen zwei solchen Dienstagen dringende Patches ausliefert, die Sicherheitslücken schließen sollen.

Auf der Benutzerseite verwenden die meisten auch kleineren Firmen zahlreiche Softwarepakete verschiedener Hersteller. Mindestens Betriebssysteme, Webserver, Buchhaltungssoftware und verschiedene Anwenderprogramme gehören dazu. Das Sammeln von Informationen über Patches, die Installation und Dokumentation sollte systematisch durchgeführt werden, um den Überblick zu behalten.

Besonders das Missachten eines Hotfixes kann katastrophale Folgen für ein Unternehmen haben, da die eigenen Systeme dann bestimmten Typen von Angriffen schutzlos ausgeliefert sind. Neben Erpressungstrojanern können auch rechtliche Probleme und Strafzahlungen die Folge sein, wenn etwa die Daten von Kunden verloren gehen.

Die Aufgaben für den Benutzer von Software

Diese betreffen manchmal die Stufe 1 und sehr oft die Stufe 4. Hat ein Benutzer einen Fehler entdeckt, sollte er ihn der Herstellerfirma melden. Manchmal winkt dafür eine vom Hersteller ausgelobte Belohnung.

Ein Patch ist nur dann wirksam, wenn er auch installiert wird. Je mehr Kontrolle Sie über Ihre Computer behalten möchten, umso größer ist auch Ihre Verantwortung. Keinen Aufwand müssen Sie mit Software in der Cloud treiben. Einer der Vorteile ist es gerade, dass Sie immer die aktuelle Version benutzen, weil der Hersteller die Betreuung übernimmt.

Auf dem System eines Benutzers können Programme laufen, die automatisch eine Verbindung zu den Servern des Entwicklers herstellen und Patches herunterladen und installieren. Auch dieser Service ist aber nicht für alle Programme verfügbar, und vielleicht bevorzugen Sie es auch, alle Änderungen an Ihren Programmen selbst zu installieren. Dann laden Sie den Patch selbst herunter und installieren ihn.

Bei der Kernel-based Virtual Machine (KVM) handelt es sich um eine Virtualisierungs-Infrastruktur des Linux-Kernels. Diese ist mit den Hardwarevirtualisierungs-Techniken von AMD (AMD-V) oder Intel (VT) und den entsprechenden X86-Prozessoren sowie mit der System-Z-Architektur kompatibel. Die Kernel-based Virtual Machine wurde im Oktober 2006 erstmals in einer Betaversion veröffentlicht und ist seit der Version 2.6.2 des Linux-Kernels in diesem enthalten. Das System wurde unter der Führung des israelischen Software-Entwicklers Avi Kivity in seinem Unternehmen Qumranet entwickelt. Die Software-Schmiede Qumranet wurde im September 2008 von Red Hat übernommen.

Allgemeine Informationen

Die Kernel-based Virtual Machine wurde in erster Linie für den Einsatz in Kombination mit x86-Plattformen entwickelt und setzt sich für diese aus den folgenden beiden Komponenten zusammen:

–       aus dem Kernel-Modul „kvm.ko“, und

–       aus den hardwarespezifischen Modulen kvm-amd.ko (für AMD-Plattformen) oder kvm-intel.ko (für Intel-Plattformen)

Inzwischen ist KVM auch für weitere Plattformen, wie beispielsweise System Z, ARM und PowerPC erhältlich. Die Kernel-based Virtual Machine realisiert selbst keine Emulation, sondern stellt lediglich die dafür nötige Infrastruktur bereit. Die freie Virtualisierungs-Software QEMU stellt eine der Möglichkeiten dar, um KVM zu nutzen. QEMU stellt für virtualisierte Gastsysteme die erforderlichen Geräte wie Grafik-, Sound-, Netzwerkkarten und Festplatten bereit. Nachdem das Modul geladen ist, fungiert der Linux-Kernel selbst als Hypervisor für VMs (virtuelle Maschinen). Als Gastsystem bietet KVM Unterstützung für eine Vielzahl moderner Betriebssysteme, wie zum Beispiel:

–       Windows (32 und 64 Bit)

–       Linux (32 und 64 Bit)

–       FreeDOS

–       Solaris

–       Hauku

–       AROS

–       ReactOS

–       diverse BSD-Derivate

Mittlerweile lässt sich auch Paravirtualisierung in KVM realisieren und wird unter Linux mittels der Paravirtualisierungsschnittstelle Virtio für Hardware-Komponenten bereitgestellt. Auch für Windows-Systeme sind mittlerweile paravirtualisierte Gerätetreiber erhältlich.

Das Paravirtualisierungs-Verfahren bietet einige Vorteile im Vergleich zu traditionellen Virtualisierungs-Methoden, wie zum Beispiel ein geringerer Overhead sowie eine bessere Performance, da sich das Gastsystem der Tatsache „bewusst“ ist, dass es auf virtualisierter Hardware betrieben wird und mit dem Hypervisor zusammenarbeitet.

KVM Funktionen und Features

KVM stellt einen festen Bestandteil von Linux dar. Alles was Linux bietet, ist auch in KVM zu finden. Es gibt jedoch einige Besonderheiten, welche die Kernel-based Virtual Machine zum bevorzugten Hypervisor für Unternehmen machen. Im Folgenden stellen wir Ihnen einige der Besonderheiten von KVM vor:

Sicherheit: Die Kernel-based Virtual Machine nutzt eine Kombination von Linux mit sicherer Virtualisierung (sVirt) und erweiterter Sicherheit (SELinux), um eine optimale VM-Sicherheit und Isolierung zu gewährleisten. SELinux legt dabei die Sicherheitsgrenzen der virtuellen Maschine fest, während sVirt die Funktionalitäten von SELinux erweitert. So ermöglicht sVirt beispielsweise den Einsatz von Mandatory Access Control für Gast-VMs und verhindert, dass manuelle Kennzeichnungsfehler zu den höheren System-Ebenen propagiert werden.

Storage: KVM ist in der Lage, jedes Speichermedium zu verwenden, das von Linux unterstützt wird, einschließlich komplexer NAS-Systeme (Network Attached Storage). Sogenannte „Mehrpfad-I/O“ können eingesetzt werden, um das Storage-System zu optimieren und Redundanz zu bieten. Die Kernel-based Virtual Machine bietet außerdem Unterstützung für gemeinsam genutzte Dateisysteme, sodass sich VM-Abbilder von unterschiedlichen Hosts gemeinsam nutzen lassen. Darüber hinaus unterstützen Festplattenabbilder sogenanntes „Thin-Provisioning“ und sind in der Lage, Storage nach Bedarf zuzuweisen, anstatt im Voraus wie es bei vielen ähnlichen Systemen der Fall ist.

Hardware-Unterstützung: KVM kann auf diversen Plattformen eingesetzt werden, die von Linux unterstützt werden. Viele Hardware-Produzenten tragen regelmäßig zur Kernel-Entwicklung bei, sodass die neuen Hardware-Funktionen und -Features in vielen Fällen sehr schnell in den Kernel integriert werden.

Speicherverwaltung: Die Kernel-based Virtual Machine nutzt die Speicherverwaltung-Infrastruktur von Linux inklusive des Non-Uniform Memory Access und des Kernel Same Page Merging. Der Speicher einer virtuellen Maschine lässt sich nach persönlichen Anforderungen gestalten und durch größere Kapazitäten oder bessere Leistung verstärken.

Echtzeit-Migration: KVM bietet native Unterstützung für die Live-Migration. Dabei handelt es sich um die Möglichkeit, eine laufende virtuelle Maschine zwischen physischen Hosts zu verschieben, ohne dass dabei der Betrieb der VM unterbrochen wird. Die virtuelle Maschine kann in Betrieb bleiben, Anwendungen laufen weiter und Netzwerkverbindungen bleiben aktiv, während die VM schnell und einfach auf einen anderen Host verschoben wird. KVM sichert außerdem den aktuellen Stand (State) einer virtuellen Maschine, sodass diese lokal oder in der Cloud gespeichert und später wieder fortgesetzt werden kann.

Skalierbarkeit und Performance: KVM baut auf der Leistung von Linux auf und lässt sich automatisch an den Lastbedarf skalieren, sobald die Anzahl der Anfragen an die VMs steigt. Mit der Kernel-based Virtual Machine lassen sich große Anwendungen-Workloads schnell und einfach virtualisieren. Darüber stellt KVM die Basis für viele Setups der Unternehmens-Virtualisierung dar, wie beispielsweise für private Clouds und Rechenzentren.

Verwaltungs-Tools

Für die Kernel-based Virtual Machine sind mehrere Werkzeuge zur Steuerung erhältlich. So ist es beispielsweise möglich VMs mittels Kommandozeilenprogrammen wie QEMU oder VIRSH zu erstellen und zu verwalten. Eine angenehmere und übersichtlichere Option stellen Tools mit grafischen Benutzeroberflächen dar, wie mit dem Virtual Machine Manager (VMM) oder dem UCS VM Manager. Es sind auch Lösungen erhältlich, welche die Verwaltung von VMs über Weboberflächen gestattet. In diesem Zusammenhand ist das oVirt-Projekt oder die FOSS-Cloud zu nennen, die als kostenlose Open Source-Lösungen bereitgestellt werden.

 

 

Bei Fedora handelt es sich um eine RPM-basierte Linux-Distribution. Das Ziel, welches die Entwickler des Linux-Derivats verfolgen, ist es, Open Source-Software zu fördern und ein modernes und leistungsstarkes Betriebssystem für eine möglichst vielfältige Nutzergruppe zur Verfügung zu stellen. Die Entwicklung wird im Rahmen der Online-Community des Fedora-Projekts organisiert, wobei das Projekt von dem Unternehmen Red Hat angeführt wird. Fedora wird als der direkte Nachfolger von Red Hat Linux angesehen. Mit dem englischen Word Fedora wird eine Art des Filzhuts bezeichnet. Bei diesem handelt es sich um das Markenzeichen der Firma Red Hat.

Wo kommt Fedora zum Einsatz?

Fedora ist gleichermaßen gut für den Einsatz auf Desktop- sowie auf Server-Systemen ausgelegt. Das Fedora-Projekt bezeichnet seine Linux-Distribution als geeignet sowohl für absolute Einsteiger in der Welt der Open Source-Software, als auch für erfahrene Linux-Anwender. Trotzdem betonen viele Kritiker immer wieder, dass das Betriebssystem nicht wirklich für Einsteiger geeignet ist, da es in gewissen Bereichen zu kompliziert ist und ein gewisses Maß an Vorwissen voraussetzt. Im Gegensatz zu ähnlichen Linux-Distributionen wird kein Langzeit-Support bereitgestellt. Daraus ergibt sich auch, dass der Lebenszyklus einer Fedora-Version auf 13 Monate begrenzt ist, wobei im Durchschnitt alle 6 Monate eine neue Version des freien Betriebssystems veröffentlicht wird. Fedora ist aufgrund des fehlenden Langzeit-Supports für geplante Einsatzbereiche weniger gut geeignet, wie beispielsweise Einsatz in Embedded-Umgebunden oder Systemen mit jahrelanger Uptime. Der wesentliche Vorteil von Fedora ist, dass die Linux-Distribution im Gegensatz zu vergleichbaren Betriebssystemen stets aktuelle Software-Pakete bietet.

Das Fedora-Projekt im Überblick

Die Absichten, welche die Entwickler mit dem Fedora-Projekt verfolgen, werden durch die folgenden vier Prinzipien ausgedrückt:

–       Freunde

–       Zuerst

–       Funktionen

–       Freiheit

Mit „Freiheit“ wird die Freiheit der Open Source-Software im Gegensatz zu geschlossenen, proprietären Software-Systemen referenziert. Freie Software ist den Entwicklern ein großes Anliegen, weswegen die Linux-Distribution völlig kostenlos, quelloffen und explizit für die Weiterentwicklung bereitgestellt wird. Mit „Freude“ wird die Stärke und Innovation der weltweiten Gemeinschaft repräsentiert, die sich gemeinsam an der Entwicklung von freien Software-Produkte beteiligen. „Funktionen“ bezeichnen das Streben nach möglichst hoher Flexibilität und Vielseitigkeit, um die Bedürfnisse möglichst vieler Anwendergruppen und Einsatzbereiche abzudecken. „Zuerst“ bezieht sich auf den Innovationswillen, der innerhalb der Open Source-Community einen hohen Stellenwert genießt.

Wie schon bei dem Vorgänger-Betriebssystem Red Hat wird auch hier darauf geachtet, dass ausschließlich Computerprogramme mit einer vollständigen Open Source-Lizenz in die Distribution inkludiert werden. Die einzige Ausnahme sind Firmware-Programme in binärer Form, die mit einer Lizenz bereitgestellt werden und die inhärent keine Modifikation und Nutzung erlauben. Eine der Folgen dieser Lizenzpolitik ist, dass die Linux-Distribution beispielsweise keinerlei Unterstützung für die Wiedergabe von DVD- oder MP3-Dateien mit sich bringt.

Zu der Fedora-Community gehören Entwickler, die bei dem Unternehmen Red Hat angestellt sind ebenso, wie Software-Ingenieure anderer Unternehmen und freie ehrenamtliche Entwickler, darunter auch viele Studenten. Neben Entwicklern gehören auch Experten für die sprachliche Übersetzung, das Marketing und für das grafische Design zur weltweiten Community.

Verbreitung und technische Merkmale

Fedora erfreut sich als direkter Nachfolger von Red Hat einer großen Popularität und hat dieses in den meisten Institutionen und Firmen ersetzt. Viele kommerzielle Anwendungen, Treiber und Daemons, die früher für Red Hat Linux bereitgestellt wurden, sind mittlerweile auch für Fedora erhältlich, wodurch diese Linux-Distro eine weite verbreitete Unterstützung durch viele Organisationen und Unternehmen bekommt. Informationen von Distrowatch zufolge gehört Fedora seit 2004 zu den fünf beliebtesten Linux-Distributionen weltweit. Die große Beliebtheit hat das freie Betriebssystem auch seinen geringen Systemvoraussetzungen zu verdanken.

Für Fedora 19 wurde beispielsweise ein Hauptprozessor mit einer Taktrate von mindestens 1 GHz, 1GB Arbeitsspeicher und 10 GB freier Festplattenspeicher benötigt. Das Besondere an Fedora, ist dass sich das Betriebssystem auch ohne Grafikhardware betreiben lässt, was beispielsweise auf einem Server von Vorteil sein kann. Für die grafische Benutzeroberfläche wird entweder eine dedizierte oder integrierte Grafikkarte benötigt, die neuer ist als Intel GMA 900 oder ATI Radeon 9500. Die beiden Desktop-Umgebungen LXDE und XFCE sind für den Einsatz auf schwächerer Hardware optimiert und benötigen aus diesem Grund weniger leistungsfähige Hardware als KDE oder Gnome 3.

Sicherheit und Paketmanagement

Bei Fedora wird die Kernel-Erweiterung SELinux vollständig integriert, um so den Sicherheitsmechanismus „Mandatory Access Control“ auf der gesamten Systemebene zu erzwingen. SELinux wird nach der Installation von Fedora automatisch aktiviert und schützt somit das Betriebssystem vor diversen Bedrohungen und Sicherheitsrisiken. Im Rahmen der Installation wird auch die Firewall „firewalld“ eingerichtet. Mithilfe der Firewall werden alle eingehenden Netzwerk-Verbindungen unterbunden, sodass ausschließlich TCP– und UDP-Verbindungen vom System nach draußen möglich sind. Auf einer neuen Fedora-Installation unterbindet die Firewall gemeinsam mit SELinux die direkte Kommunikation aller Serverdienste, wie beispielsweise Samba oder httpd. Erst nach der Konfiguration der Firewall und SELinux-Regeln durch den System-Administrator können die lokalen Serverdienste mit anderen Systemen im Netz kommunizieren.

Bei Fedora kommt die von Red Hat entwickelte Paketverwaltung RPM zum Einsatz. Diese wird genutzt, um Pakete zu installieren und zu verwalten. Abhängigkeiten zwischen den verschiedenen Paketen werden mit dem Paketmanagement-System DNF im Internet gelöst. DNF wird auf einem Fedora-System genutzt, um Updates automatisch einzuspielen, um das System stets auf dem aktuellen Stand zu halten.

Das Akronym „PC“ (Abkürzung für Personal Computer) hat vermutlich jeder schon tausendmal gehört und selbst verwendet. Doch wodurch unterscheidet sich ein PC von anderen Rechnerarten und was zeichnet ihn aus?

Wodurch zeichnet sich ein PC aus?

Ein Personal Computer ist ein Mikrocomputer, der für den persönlichen und individuellen Gebrauch gedacht ist. Im Gegensatz zu den frühen Vorläufern des PCs können heutige Personal Computer auch von Laien bedient werden. Der Gebrauch ist somit nicht nur Technikern, Wissenschaftlern und anderen Experten vorbehalten. Man findet PCs sowohl in Privathaushalten wie auch in Büros bzw. generell an Arbeitsplätzen. PCs zeichnen sich durch handliche Größe und einfache Bedienbarkeit aus. Da es sich beim PC grundsätzlich um einen Mehrzweckcomputer handelt, lässt sich dessen Funktionalität nicht exakt definieren und eingrenzen. Je nach Betriebssystem und installierter Software kann er zum Beispiel zum Beispiel für Office-Anwendungen, PC-Spiele, CAD-/CAM-Anwendungen oder für das Surfen im Internet genutzt werden.

Wie ist ein PC aufgebaut?

Typischerweise verfügt ein moderner PC über folgende elf Komponenten: Hauptplatine, CPU, Prozessorkühler, Arbeitsspeicher, Grafikkarte, Netzteil, Festplattenlaufwerk, optisches Laufwerk, Monitor, Tastatur und Maus. Auf der Hauptplatine – dem Motherboard – sind die zentralen Bauteile des PCs montiert. Der Hauptprozessor – die CPU – ist die zentrale Verarbeitungseinheit für die Steuerung und Ausführung von Befehlen. Der Prozessorkühler ist ein Kühlungssystem und Lüftungssystem für den Prozessor. Er verhindert die Überhitzung des Systems. Der Arbeitsspeicher ist ein Teil der CPU (Central Processing Unit). Er enthält alle Daten, welche für die aktuell auszuführenden Programme benötigt werden. Die Grafikkarte ist beim PC für die Umwandlung von Daten in Bilder zuständig. Das Netzteil versorgt den Personal Computer mit Strom. Das Festplattenlaufwerk (bzw. seit 2007 der SSD) ist ein nicht-flüchtiger Speicher, auf dessen rotierender, scheibenförmiger Oberfläche lesbare Daten gespeichert werden. Das optische Laufwerk ermöglicht den Zugriff auf optische Datenträger wie etwa DVDs.

Der Monitor dient der Darstellung der Benutzeroberfläche. Die Tastatur ist ein Steuerelement und Bedienelement, mit dessen Hilfe der Benutzer dem Personal Computer im weiteren Sinne Befehle erteilt. Sie besitzt insbesondere als Eingabegerät für Zahlen und Buchstaben eine große Bedeutung. Auch die Maus ist ein Eingabegerät. Sie ermöglicht dem Benutzer die Ausführung von Aktionen im Betriebssystem oder in der Anwendungssoftware.

Apple I – der erste PC der Welt

Die Fachwelt ist sich mittlerweile einig, dass der Apple I als erster PC der Welt anzusehen ist. Zwar erfüllten auch einige Vorläufer die Voraussetzungen, um als Personal Computer zu gelten, aber erst der Apple I ermöglichte Privatanwendern die preisgünstige Ausführung von Computerprogrammen und Anwendungen. Der Apple I kam im Jahr 1976 auf den Markt und verfügte bereits damals über eine Tastatur und einen handlichen Monitor.

In den 80er Jahren begann der Boom der Heimcomputer

In den 80er Jahren nahm die Entwicklung der als Heimcomputer genutzten PCs deutlich an Fahrt auf. Modelle wie der Commodore C64 und der Amiga 500 wurden tausendfach (später millionenfach) verkauft und machten den PC zu einem Standardgerät in Privathaushalten. Parallel dazu verbesserte sich auch die Leistung der als Bürogerät oder Arbeitsgerät genutzten PCs nach und nach.

Merkmale und Bauformen moderner Personal Computer

Zu den zentralen Aufgaben moderner Personal Computer gehören Textverarbeitung, Tabellenkalkulation und Multimedia-Anwendungen. Mittlerweile gibt es auch spezielle Gaming-PCs, die über extrem leistungsfähige Grafikkarten und eine herausragende Rechnerleistung verfügen. Zu den bekanntesten PC Betriebssystemen gehören Windows, Linux und Mac OS. Die wichtigsten Bauformen sind Desktop PC, Laptop und Tablet.

Welche Aufgaben hat das Betriebssystem eines PCs?

Das Betriebssystem eines PCs erfüllt mehrere Aufgaben. Es verwaltet und kontrolliert die Hardware, es vermittelt zwischen der Hardware und den Anwendungsprogrammen und es schafft eine einheitliche Oberfläche für die zusätzliche Installation von Software. Das Betriebssystem ist die Basis jedes PCs. Es wird – vor den Anwendungsprogrammen – als erstes Softwareprogramm auf dem PC installiert und ermöglicht dem Benutzer einen standardisierten Zugriff auf alle Hardware-Ressourcen und Programme.

Windows – das wichtigste PC Betriebssystem

Windows ist ein von Microsoft entwickeltes und herausgegebenes Betriebssystem für Server und PCs. Ursprünglich lediglich eine Benutzeroberfläche, entwickelte sich Windows im Laufe der Zeit zum wichtigsten Betriebssystem für Personal Computer weltweit. So ermöglichte zum Beispiel das im Jahr 1995 erschienene Betriebssystem Windows 95 einer breiten Bevölkerungsschicht erstmals den Zugang zu Computern und zum Internet. Windows gilt trotz einiger Sicherheitslücken als enorm stabile Plattform. 9 von 10 Desktop PCs sind mit Windows ausgestattet.

Ist der Mac eine gute Alternative zum Windows PC?

Viele Benutzer, die dem Unternehmen Microsoft oder dem Betriebssystem Windows abgeneigt sind, wählen als Alternative einen Macintosh von Apple. Anders als bei einem klassischen PC – gut ein Dutzend Hardware-Hersteller und mehrere Betriebssysteme streiten um die Vormachtstellung am Markt – stammen beim etwas teureren Macintosh die Hardware und die Software vom gleichen Hersteller. Rein (leistungs-)technisch gesehen sind die Unterschiede nicht mehr so groß wie früher.

cPanel ist ein Webhosting-Kontrollfeld (Software, die die Verwaltung eines Webhosting-Servers erleichtert), das von cPanel, L.L.C., einem amerikanischen Unternehmen, entwickelt wurde und Teil einer Software-Suite namens cPanel & WHM (Web Host Manager) ist.

cPanel und Plesk sind zwei der am häufigsten verwendeten Web-Control-Panels auf demMarkt. cPanel ist das weltweit am weitesten verbreitete Web-Control-Panel. Die Server erstellen alle 6 Sekunden eine Domain, und alle 14,5 Sekunden wird ein Hosting-Konto mit diesem Control Panel erstellt.

Das Tor zu Ihrem Online-Geschäft

Egal, ob Sie ein großes Unternehmen sind, das dedizierte Server mietet, ein mittelständisches Unternehmen, das einen Webhosting-Service startet, oder ein kleines Geschäft, das einen gemeinsam genutzten Hosting-Standort auswählt, das Control Panel des Webservers ist das Tor zu Ihrem Online-Geschäft. Bei einer schwindelerregenden Anzahl verfügbarer Bedienfeldoptionen kann die Kenntnis der Stärken und Schwächen der Bedienfelder zu fundierten Entscheidungen, weniger Kopfschmerzen und einer besseren Leistung führen.

Die Basics von cPanel

cPanel & WHM ist eine der zuverlässigsten und intuitivsten Webhosting-Automatisierungssoftware-Plattformen der Internetinfrastrukturbranche. Die vollautomatisierte Hosting-Plattform unterstützt Infrastrukturanbieter und bietet Kunden die Möglichkeit, jede Facette ihrer Website mit einfacher Point-and-Click-Software zu verwalten.

cPanel & WHM

cPanel & WHM fungiert entweder als dedizierter Server oder als virtueller privater Server. Während cPanel auf die Verwaltung eines einzelnen Hosting-Kontos beschränkt ist, ermöglicht cPanel & WHM die Verwaltung des gesamten Servers. Die Software bietet eine grafische Oberfläche (GUI) und Automatisierungstools, die das Hosting einer Website für den Websitebesitzer oder den Endnutzer vereinfachen sollen.

Die neueste cPanel & WHM-Version unterstützt die Installation unter CentOS, Red Hat Enterprise Linux (RHEL) und CloudLinux OS.

Einige grundlegende Komponenten

Web Server

Ein Webserver ist ein Computer, auf dem Websites ausgeführt werden. Es ist ein Computerprogramm, das Webseiten verteilt, sobald sie angefordert werden. Das Hauptziel des Webservers besteht darin, Webseiten zu speichern, zu verarbeiten und 24/7 an die Benutzer zu liefern. Diese Interkommunikation erfolgt über das HTTP (Hypertext Transfer Protocol).

Linux

Linux ist ein Unix-ähnliches Open Source– und Community-entwickeltes Betriebssystem für Computer, Server, Mainframes, mobile Geräte und eingebettete Geräte. Es wird auf allen gängigen Computerplattformen unterstützt, einschließlich x86, ARM und SPARC. Damit gehört es eines der am häufigsten unterstützten Betriebssysteme.

Linux ist das bekannteste und am häufigsten verwendete Open Source-Betriebssystem. Als Betriebssystem ist Linux eine Software, die sich unter der gesamten anderen Software auf einem Computer befindet, Anforderungen von diesen Programmen empfängt und diese Anforderungen an die Hardware des Computers weiterleitet.

cPanel ist eines der beliebtesten Linux-basierten Webhosting-Kontrollfelder, das wichtige Messdaten zur Leistung Ihres Servers anzeigt und Ihnen den Zugriff auf eine Reihe von Modulen ermöglicht, darunter Dateien, Einstellungen, Datenbanken, Webanwendungen, Domänen, Metriken, Sicherheit, Software, Erweitert und E-Mail-Module.

CloudLinux

CloudLinux mit Hauptsitz in Palo Alto, Kalifornien, hat sich zum Ziel gesetzt, Linux-Webserver sicherer, stärker und rentabler zu machen. Mit über 4.000 Kunden und Partnern (darunter Dell, 1 & 1 und LiquidWeb), mehr als 250.000 Produktinstallationen weltweit und ihren engagierten Analysten und Entwicklern verfügen sie über mehr als 450 Jahre Linux-Erfahrung und die Leidenschaft, die besten Kundenbetreuer zu sein.

Red Hat Enterprise Linux (RHEL)

Red Hat Enterprise Linux (oft als RHEL abgekürzt) ist eine Linux-Distribution, die von Red Hat für den kommerziellen Markt entwickelt wurde. Red Hat Enterprise Linux ist in Serverversionen für x86 – 64, Power ISA, ARM64 und IBM Z sowie in einer Desktopversion für x86 – 64 verfügbar.

CentOS

CentOS (von Community Enterprise Operating System) ist eine Linux-Distribution, die eine kostenlose, von der Community unterstützte Computerplattform bietet, die funktional mit ihrer Upstream-Quelle Red Hat Enterprise Linux (RHEL) kompatibel ist. Sie können cPanel auch auf einem CentOS installieren.

cPanel und FreeBSD

FreeBSD ist ein kostenloses und Open-Source-Unix-ähnliches Betriebssystem, das von der Berkeley Software Distribution (BSD) entwickelt wurde, die auf Research Unix basiert. Heute wird cPanel unter FreeBSD (Berkeley Software Distribution) nicht mehr unterstützt. cPanel 11.30 ist die letzte Hauptversion, die FreeBSD unterstützt.

cPanel deinstallieren

cPanel & WHM wird am besten durch Neuformatierung des Servers deinstalliert. Deinstallationshandbücher sind online für erfahrene Serveradministratoren verfügbar, die ihren Server nicht neu formatieren möchten. Ebenso sollte es nur auf einem frisch installierten Betriebssystem mit minimaler vorheriger Konfiguration installiert werden.