Beiträge

Mit dem englischen Begriff Virtual Desktop Infrastructure (VDI) wird eine IT-Infrastruktur zur Zentralisierung und Virtualisierung der Funktionalitäten von Desktop-Rechnern bezeichnet. Durch den Einsatz von VDI lässt sich die Ausstattung der Desktop-Clients am Arbeitsplatz wesentlich reduzieren.

Allgemeine Informationen

Das Konzept der Desktop-Virtualisierung basiert auf dem Ansatz, sämtliche Funktionalitäten eines Arbeitsplatz-Rechners über ein zentrales System, wie beispielsweise Hyper-V, zur Verfügung zu stellen. Der Anwender benötigt am Arbeitsplatz lediglich einen Client, auf dem er den virtualisierten Desktop-PC aufruft. Die Bedienung gestaltet sich dabei wie bei einem gewöhnlichen Desktop-PC. Per Tastatur und Maus wird der Client gesteuert und die Ausgabe der grafischen Anzeige erfolgt lokal über den Monitor, während sämtliche Software-Komponenten auf einem zentralen Server ausgeführt werden.

Der Anwender befindet sich an einem anderen Ort als sein virtueller Desktop-PC. Die Übertragung aller Ein- und Ausgaben zwischen dem Client und Server wird über das Netzwerk realisiert. Der Zugriff auf eine Virtual Desktop Infrastructure (VDI) ist prinzipiell sowohl über das Internet als auch über ein lokales Netzwerk möglich. Um alle Funktionalitäten performant bereitstellen zu können, muss das Netzwerk bestimmte Mindestanforderungen in Bezug auf die Bandbreite und Latenz erfüllen. Im Kontext einer Virtual Desktop Infrastructure wird der Client als Terminal und der Server als Terminal-Server bezeichnet. Die Protokolle, über die die gesamte Kommunikation realisiert wird, sind bei den meisten Systemen proprietär und unterscheiden sich von Anbieter zu Anbieter. Eines der bekannteren Protokolle ist zum Beispiel das Remote Desktop Protocol (RDP), das von Microsoft entwickelt wird.

Bekannte Systeme

Auf dem Markt gibt es eine Vielzahl von Herstellern die unterschiedliche Virtual Desktop Infrastructure-Systeme anbieten. Neben kostenpflichtigen Lösungen sind auch Open Source-Lösungen für die Virtualisierung der Desktop-Infrastruktur samt Clients erhältlich. Die bekanntesten kommerziellen VDI Systeme werden von folgenden Herstellern entwickelt:

–       HP

–       Fujitsu

–       Microsoft

–       Dell

–       Citrix

–       VMWare

–       ViewSonic

–       VXL Instruments

Frei verfügbare VDI-Lösungen auf Open Source-Basis sind beispielsweise:

–       QVD Community Edition

–       Linux Terminal Server Project

Die verschiedenen Client-Arten im Überblick

Im Rahmen einer Virtual Desktop Infrastructure können unterschiedliche Arten von Clients eingesetzt werden. Grundsätzlich werden drei verschiedene Client-Typen unterschieden. Eine eindeutige Abgrenzung zwischen den einzelnen Typen existiert jedoch nicht:

–       Zero Client

–       Thin Client

–       Thick Client

Der Zero Client

Bei dem sogenannten Zero Client handelt es sich um ein maximal abgespecktes Gerät. Zero Clients sind prinzipiell ohne Eingriff eines Administrators einsatzfähig. Eine individuelle Anpassung  des Zero Clients für den Fernzugriff ist nicht nötig. Sobald der Zero Client an das Netzwerk angebunden und mit einer Maus und Tastatur verbunden ist, kann er als virtueller Desktop eingesetzt werden. Die meisten Zero Clients setzen sich aus einem sehr kleinen Computergehäuse zusammen, das sich mit dem Monitor, der Maus und Tastatur sowie dem Netzwerk verbinden lässt. Weitere charakteristische Merkmale eines Zero Clients sind:

–       kein Konfigurationsaufwand und eine simple Administration

–       auf dem Zero Client befindet sich keine oder nur Minimalsoftware

–       aufgrund der abgespeckten Hardware sind die Anschaffungskosten geringer als bei den anderen beiden Client-Varianten

–       ein geringer Stromverbrauch

Der Thin Client

Thin Clients kommen für die Darstellung virtueller Desktops zum Einsatz. Solche Clients sind mit leistungsschwächerer Hardware ausgestattet und sind i auf die wichtigsten Komponenten zur Ausführung des virtuellen Desktops ausgerichtet. Oft werden bei solchen Geräten keine Massenspeicher oder CD-/DVD-Laufwerke eingesetzt. Da der Hauptprozessor und andere Hardwarekomponenten aufgrund der geringen Leistung wenig Wärme produzieren, arbeiten Thin Clients in der Regel ohne aktive Kühlung und  völlig geräuschlos. Dies wirkt sich äußerst positiv auf die Nutzungsdauer aus, weswegen die Hardware seltener ersetzt werden muss.

Der Thick Client

Bei einem Thick Client handelt es sich um einen voll ausgestatteten PC, auf dem ein Software-Paket zur Darstellung der virtuellen Desktop-Umgebung installiert ist. Konkret bedeutet das, dass der Thick Client sowohl über einen eigenen Desktop als auch über einen Remote-Desktop verfügt. Der wesentliche Vorteil eines solchen Clients ist, dass er sowohl für virtuelle Desktop-Anwendungen als auch für lokal betriebene Anwendungen gleichermaßen gut nutzbar ist. Ein bedeutender Nachteil spiegelt sich jedoch in der Tatsache wider, dass viele Vorteile einer VDI Infrastruktur durch den Einsatz eines Thick Clients verloren gehen.

Vorteile einer VDI Infrastruktur im Überblick

Durch den Prozess der Virtualisierung und Zentralisierung der Desktop-PCs ergeben sich zahlreiche Vorteile. Die zentrale Bereitstellung der Desktop-Services vereinfacht deren Administration und Konfiguration. Updates lassen sich auf diese Weise schnell und einfach einspielen und mit wesentlich weniger Aufwand als in traditionellen LANs durchführen. Des Weiteren können Inkompatibilitäten oder auftretende Probleme dank virtueller Server an einer zentralen Stelle analysiert und gelöst werden. Viele Bereitstellungsprozesse der Desktop-Funktionalitäten sowie Backup-Services lassen sich automatisieren und dadurch wesentlich vereinfachen.

Die bedeutendsten Vorteile einer Virtual Desktop Infrastructure ergeben sich in erster Linie durch den Einsatz weniger aufwendiger Client. Dadurch kann man auch vollwertige PCs mit Komplettausstattung verzichten, die in der Regel viel teurer als die entsprechenden Client-Lösungen sind. Darüber hinaus wird die Verflechtung zwischen Software- und Hardwareanwendungen aufgehoben, sodass ein Austausch der Clients aufgrund neuer Software- oder Hardwareanforderungen überflüssig wird. Die Clients weisen dadurch eine deutlich höhere Nutzungsdauer auf.

Bei Hardwarestörungen muss der Administrator das Problem nicht mehr lokal vor Ort beim Nutzer beheben, sondern die Probleme lassen sich an einem zentralen Server beheben. Auch das Einspielen bzw. Zurückspielen von Updates sowie das Wiederherstellen gelöschter Daten werden zentral realisiert. Da die gesamte Infrastruktur für den professionellen Einsatz ausgelegt ist, erhöht sich die Verfügbarkeit der virtuellen Clients deutlich und ist im direkten Vergleich zu traditionellen Desktops um ein Vielfaches höher. Des Weiteren sollten die Vorteile der VDI Infrastruktur auch in Sachen Ressourcenschonung sowie Energieeffizienz keinesfalls vernachlässigt werden.

Der Begriff Desaster Recovery (DR) bezieht sich auf unterschiedliche Maßnahmen, mit denen die Wiederaufnahme des IT-Betriebs nach einem Katastrophen- oder Störungsfall sichergestellt wird. Die Desaster Recovery beinhaltet unterschiedliche Maßnahmen und Prozesse, um beispielsweise geschäftskritische Daten oder IT-Infrastrukturen schnellstens wiederherzustellen.

Allgemeine Informationen

Desaster Recovery ist ein wichtiger Bestandteil der Sicherheitsplanung und beschäftigt sich in erster Linie mit der Wiederherstellung wichtiger IT-Dienstleistungen und Daten nach einem Störungsfall. Die Störungen können durch diverse Ausfälle und Ereignisse verursacht werden, wie beispielsweise Hardware-Ausfälle, Naturkatastrophen, Hackerangriffe oder Bedienungsfehler. Das Ziel solcher Wiederherstellungs-Maßnahmen ist es, die negativen Auswirkungen für eine Organisation oder ein Unternehmen zu minimieren. Im Rahmen der Desaster Recovery-Maßnahmen werden zum Beispiel, Server oder Netzwerke wiederhergestellt.

Der Begriff Desaster Recovery ist englischen Ursprungs und bedeutet in die deutsche Sprache übersetzt so viel wie Notfallwiederherstellung oder Notfallplan. In vielen Fällen werden die beiden Begriffe Business Continuity und Desaster Recovery synonym verwendet. Business Continuity ist jedoch umfassender, da es hier nicht nur um die Wiederherstellung von IT-Infrastrukturen geht, sondern auch um die Aufrechterhaltung wichtiger Geschäftsprozesse. Der Fokus von Business Continuity liegt also primär auf der Sicherstellung der geschäftlichen Prozesse. Technische Maßnahmen, die im Rahmen der Desaster Recovery zum Einsatz kommen, sind:

–       Datensicherung

–       Redundanzen

–       Zurverfügungstellung von Ersatzhardware

Durch den Einsatz dieser Maßnahmen sollen sogenannte „Single Point of Failures“ möglichst gut vermieden werden.

Der Desaster Recovery Plan

Der Desaster Recovery Plan (DRP) umfasst alle Verfahren, Vorgaben und Maßnahmen, wie man in einem Störungsfall reagieren sollte, um die Auswirkungen des Ausfalls auf das Unternehmen zu minimieren. Die in dem DRP enthaltenen Maßnahmen sind so konzipiert, dass sie schrittweise durch die Verantwortlichen abgearbeitet werden müssen. Des Weiteren sind im DRP Eskalationsstufen, Meldewege und Definitionen der Verantwortlichkeiten zusammengefasst, die im Notfall umgesetzt werden müssen.

Der Desaster Recovery Test

Mit einem Desaster Recovery Test lässt sich die Effizienz überprüfen und genau analysieren. Damit kann man sicherstellen, dass im Fall einer Störung die unterschiedlichen Maßnahmen und Prozesse des DRPs die Wiederherstellung der IT-Infrastruktur ermöglichen. Die Ergebnisse aus den Tests können bei Bedarf in bestehende Verfahren und Prozesse eingebunden werden, um diese zu optimieren. Mit regelmäßigen Tests können Unternehmen die Pläne auf dem aktuellsten Stand halten und schulen zudem auf diese Weise die Mitarbeiter, wie sie im Notfall reagieren sollten.

Recovery Time Objective und Recovery Point Objective

Bei Recovery Time Objective (RTO) und Recovery Point Objective (RPO) handelt es sich um wichtige Kennwerte, die im Rahmen der Notfallwiederherstellung eine äußerst bedeutende Rolle spielen. Recovery Time Objective gibt beispielsweise Auskunft darüber, wie lange ein IT-System oder ein IT-Service ausfallen darf, ohne einen größeren Einfluss auf die Geschäftsprozesse zu haben. Konkret handelt es sich dabei um den Zeitraum zwischen dem ersten Auftreten der Störung und der Wiederherstellung des IT-Systems oder der IT-Services. Die Zeiträume können dabei zwischen einigen Sekunden und mehreren Tagen oder sogar Wochen betragen. Recovery Point Objective gibt hingegen die Antwort auf die Frage, wie viel Datenverlust man hinnehmen kann. Dabei handelt es sich um die zeitliche Periode, die zwischen zwei Datensicherungen vergehen darf. Je niedriger die Recovery Point Objective ist, umso besser ist es.

Desaster Recovery as a Service (DRaaS)

DRaaS baut auf der Cloud-Infrastruktur auf und nutzt Funktionalitäten aus der Cloud, mit denen sich im Notfall wichtige IT-Systeme wiederherstellen lassen. Bei diesem Angebot stellt ein Provider einen Backup von Daten, Cloud-Speicherplatz für einen Online Backup, virtualisierte IT-Strukturen oder virtuelle Server als Cloud-Angebot zur Verfügung. Damit kann man das Unternehmen vor Notfällen absichern, ohne zusätzliche Hardware- und Software-Lösungen in einem eigenen Rechenzentrum betreiben zu müssen. DRaaS ist in erster Linie auf die Anforderungen von kleineren und mittleren Unternehmen ausgerichtet, die in vielen Fällen nicht über das nötige Fachwissen und die Ressourcen verfügen, um eigene Notfallmaßnahmen optimal umzusetzen.

Bei Power over Ethernet (PoE) handelt es sich um ein Verfahren, das die elektrische Stromversorgung von netzwerkfähigen Geräten wie WLAN-Controller oder Hardware-Firewall über ein gewöhnliches Ethernet Kabel ermöglicht. Durch den Einsatz dieses Standards können Sie auf separate Verkabelungen zur Energieversorgung einzelner Geräte komplett verzichten. Im Rahmen des PoE-Standards existieren verschiedene Spezifikationen, die unterschiedliche Maximalleistungen zulassen.

Allgemeine Informationen

PoE steht für Power over Ethernet. Damit wird ein komplexes Verfahren aus dem Bereich der Netzwerktechnik beschrieben, mit dem sich der für den Betrieb von Netzwerkgeräten benötigte Strom über ein Netzwerkkabel zur Verfügung stellen lässt. Im Rahmen des PoE-Standards überträgt das Ethernet-Kabel nicht nur den gesamten Datenverkehr, sondern auch den elektrischen Strom. Für Power over Ethernet gibt es unterschiedliche Standards. Je nach definiertem Standard werden unterschiedliche maximale Leistungen ermöglicht. Durch den Einsatz von PoE können Sie auf den Einsatz eines separaten Stromanschlusses verzichten, sodass der Aufwand für die Installation deutlich geringer ausfällt als bei netzwerkfähigen Geräten mit herkömmlichen Netzwerkkabel. Diese Technik wird häufig für die Versorgung von abgesetzten Geräten eingesetzt, wie beispielsweise Webcams, WLAN-Access Points oder Überwachungskameras, die in vielen Fällen an unzugänglichen Stellen installiert werden. Die zwei wichtigsten Standards, die innerhalb von PoE zum Einsatz kommen, sind:

–       IEEE 802.3af

–       IEEE 802.3at

Bei IEEE 802.3at handelt es sich um einen PoE-Standard, bei dem die beiden freien Adernpaare in 10Base-T- und 100Base-TX-Ethernet-Kabeln für die Stromübertragung genutzt werden. Die Spannung auf den beiden Kabeln ist begrenzt und beträgt im Normalfall bis zu 48 Volt bei einer Maximalleistung von 15,4 Watt. Durch den Einsatz einer relativ hohen Spannung ist es möglich, die Verlustleistung und die Wärmeentwicklung in den Kabeln auf einem geringen Niveau zu halten.

Im direkten Vergleich zu IEEE 802.3af ermöglicht der IEEE 802.3at-Standard den Einsatz höherer Leistungen. Hier kommen die sogenannten „Endspan-“ und „Midspan- Versorgungsmethoden“ zum Einsatz. Im Rahmen der Endspan-Methode kümmert sich der PoE-Switch um die direkte Versorgung, während bei der Midspan-Methode zwischengeschaltete Quellen, wie zum Beispiel PoE-Injektoren, für die Stromversorgung genutzt werden.

Um Strom über Ethernet zu übertragen, kommen zwei unterschiedliche Varianten zum Einsatz. Bei der ersten Variante handelt es sich um die sogenannte „Fernspeisung“. Diese Variante überträgt den Strom über die Adernpaare, die auch für die Übertragung von Daten genutzt werden. Die andere Variante wird als „Spare-Pair-Speisung“ bezeichnet und benutzt ausschließlich ungenutzte Adernpaare.

Welche Vorteile bietet PoE?

Da mittels Power over Ethernet sowohl die Daten- als auch die Stromübertragung über ein einziges Ethernet-Kabel möglich sind, lassen sich auf diese Weise Kosten für die Anschaffung und den Betrieb mehrerer Kabel einsparen. Hinzu kommt noch, dass die Installation neuer oder die Erweiterung bestehender Netzwerke, wesentlich günstiger ist, da Sie keine zusätzlichen Stromleitungen installieren müssen. Netzwerkgeräte lassen sich so auch an unzugänglichen Stellen installieren, an denen es sonst sehr umständlich wäre, zusätzliche Stromkabel zu verlegen. Dank der zentralen Stromverteilung über Switches können Sie auf externe Netzteile und Netzadapter verzichten. Alle modernen Power over Ethernet-Switches lassen sich mit redundanten Netzteilen ausrüsten, was sich äußerst positiv auf die Verfügbarkeit des Netzwerks und der angeschlossenen Netzwerkgeräte auswirkt.

Netzwerkgeräte mit Unterstützung für Power over Ethernet

Um Schäden an Netzwerkgeräten zu vermeiden, sollten Sie alle angeschlossenen Netzwerkgeräte auf Kompatibilität zu PoE untersuchen. Falls Sie PoE beispielsweise mit IP-Telefonie einsetzen möchten, können Spannungen auf den Adernpaaren nicht kompatible Geräte schwer beschädigen und unter Umständen auch zerstören. Aus diesem Grund sollten Sie die Spannung nur dann einschalten, wenn alle Netzwerkgeräte Power over Ethernet unterstützen.

 

Geräte, die über Power over Ethernet mit Strom versorgt werden, sind in bestimmte Klassen eingeteilt. Die gängigen Klassen für PoE-Geräte sind die Klassen von 0 bis 4. In direkter Relation dazu, wie viel Strom ein Netzwerkgerät voraussetzt, ist es einer bestimmten Klasse zugeordnet. Durch den Einsatz definierter Spezifikationen und Verfahren wird die exakte Menge an Strom über das Ethernet-Kabel übermittelt. Dadurch wird stets die richtige Menge an Strom bereitgestellt. Die gängigsten Geräte, die über PoE betrieben werden, sind:

–       VOIP-Geräte (Voice Over IP)

–       WLAN-Access Points

–       WLAN-Controller

–       WLAN-Extender

Herausforderungen bei Power over Ethernet

Obwohl das PoE-Verfahren zahlreiche Vorteile mit sich bringt, gibt es auch einige Herausforderungen, mit denen Sie rechnen müssen. Je mehr Strom über ein Ethernet-Kabel übertragen wird, umso mehr Wärme wird im Kabel generiert. Bei einem stark erwärmten Kabel kann es dazu kommen, dass die zusätzliche Dämpfung auf die Übertragung der Daten beeinträchtigt. Aus diesem Grund sollten Sie nicht immer mit den maximalen Datenübertragungsraten rechnen, sondern die maximale Übertragungsleistung an die jeweiligen Temperaturbedingungen anpassen. Die Spezifikationen der jeweiligen PoE-Klassen geben genau an, mit welchem Temperaturanstieg Sie beispielsweise bei dem Einsatz von PoE++ (4PPoE) rechnen müssen. Bei einem gewöhnlichen U/UTP-Netzwerkkabel sollten Sie beispielsweise mit einer Erwärmung bis zum fünffachen Faktor des Kabels rechnen. Ein Kabel, das gut geschirmt ist, weist eine Erwärmung von einem dreifachen Faktor auf. Dies ist darauf zurückzuführen, da die Metallschirmung im Inneren hilft, die Wärme nach außen zu transportieren.

Ein weiterer Nachteil von PoE spiegelt sich im Spannungsabfall bei längeren Ethernet-Kabeln wider. Je länger das Kabel ist, desto höher ist der Spannungsabfall und umso weniger Leistung kommt am Endgerät an.

Hinter dem Begriff Plesk verbirgt sich eine Distribution für Webserver. Die Distribution arbeitet mit verschiedenen Plattformen zusammen. Dazu gehören Unix und Windows. Der Hersteller ist die Plesk International GmbH. Diese ging aus der Firma Parallels Inc. hervor. Der Geschäftsbereich für die Serviceprovider ist auch unter der Bezeichnung Odin bekannt. Für Webhoster ist die Distribution kostenpflichtig. Sie findet bei vielen Dienstleistern im Internet ihren Einsatz.

Plesk – einfache Verwaltung von Servern für den Nutzer

Die Distribution richtet sich an Internetdienstleister, die eine einfach zu bedienende Verwaltung für ihre Server suchen. Plesk erlaubt dem User eine Verwaltung von Servern, ohne das spezifische Kenntnisse über ein Betriebssystem vorliegen. Im Hintergrund laufen bei der Verwaltung der Server Vorgänge ab, die sehr komplex sind und die in der Regel Fachwissen erfordern. Mit Plesk ist es möglich, die Server ohne diese Fachkenntnisse zu konfigurieren. Dies erlaubt dem User beispielsweise, einen Mail- oder einen Webserver einzurichten, ohne dafür einen professionellen Dienstleister zu beauftragen. Das ist in der täglichen Arbeit sehr praktisch, denn mit Plesk können Sie viele Bereiche der Konfiguration selbst übernehmen.

Plesk – Komplexes System für verschiedene Anforderungen

Plesk ist ein einfach zu bedienendes, aber dennoch komplexes System, von dem Sie auf verschiedene Weise profitieren. Um die Zusammenhänge zu verstehen, ist es wichtig, dass Sie einige Begrifflichkeiten kennen und einordnen können. Unabhängig von der Ausrichtung ist die Präsenz im Internet für ein Unternehmen sehr wichtig. Sie sollten mit einer Webseite und einer E-Mail-Adresse im Netz erreichbar sein. Viele Kunden informieren sich nicht mehr auf den klassischen analogen Wegen, sondern im Internet. Mit Plesk ist es möglich, die wesentlichen Funktionen auch ohne Vorkenntnisse zu steuern.

Webserver

Der Webserver ist die Festplatte, auf der alle Daten gespeichert sind, die Sie im Internet abrufen. Das Protokoll, mit dem der Webserver arbeitet, ist HTML. Wenn Sie selbst oder Ihre Kunden eine Anfrage in das Internet senden, erfolgt eine automatische Umleitung an den Webserver. Die Beantwortung Ihrer Anfrage erfolgt dann anhand der Informationen, die auf dem Server gespeichert sind. Dabei spielt es keine Rolle, ob Sie in einem sozialen Netzwerk agieren oder eine E-Mail schreiben. Ohne Webserver könnten Sie die Informationen nicht abrufen.

Postfix

Postfix ist eine sogenannte freie Software. Die Bezeichnung beruht auf der Tatsache, dass der Quellcode der Software offen liegt. Programmierern ist der Quellcode bekannt. So ist es möglich, Änderungen und Anpassungen vorzunehmen.

Bereits im Jahre 1998 wurde Postfix als Alternative zu Sendmail entwickelt. Es handelt sich um eine Distribution, die auf Unix und Linux basiert. Der Mail Transfer Agent ist für alle Betriebssysteme geeignet, die auf der Basis von Linux oder Unix arbeiten. Im direkten Vergleich zu Sendmail ist Postfix einfacher zu bedienen und auch weniger anfällig für Sicherheitslücken.

Qmail

Hinter Qmail verbirgt sich ein Mailserver, der für Linux-Systeme entwickelt wurde. Die Entwicklung erfolgte durch den Programmierer und Professor Dan Bernstein. Er entwickelte das neue System, weil er mit den bestehenden Systemen unzufrieden war.

Was ist ein Betriebssystem?

Das Betriebssystem ist die Basis, auf der ein Computer arbeitet. Betriebssysteme gibt es für PCs, Smartphone und Laptops. Sie bilden quasi die Plattform für alle Aufgaben und Befehle, die der User ausführt. Im Betriebssystem sind verschiedene Programme enthalten. Weitere können kostenpflichtig oder kostenlos geladen werden. So haben Sie die Möglichkeit, das System auf Ihren individuellen Bedarf anzupassen.

Windows

Windows ist ein Betriebssystem, das von der amerikanischen Softwarefirma Microsoft unter Bill Gates entwickelt wurde. Weltweit arbeiten die meisten Computer auf der Basis von Windows. In den vergangenen Jahrzehnten ist Windows in verschiedenen Versionen auf den Markt gekommen. Die Versionen wurden an die Entwicklung der Technik und die Bedürfnisse der User angepasst. Bei den gewerblich genutzten Computern arbeiten weltweit mehr als 90 Prozent mit dem Betriebssystem Windows.

Unix

Unix ist ein Betriebssystem für Computer, der bereits im Jahre 1969 entwickelt wurde. Es handelt sich um ein sogenanntes Mehrbenutzer-Betriebssystem. Heute gilt es als eines der Betriebssysteme, die am weitesten verbreitet sind. Es gibt viele verschiedene Entwicklungen, die auf dem Unix-System basieren. Eines der bekanntesten Unix-basierten Betriebssysteme ist MacOS.

Linux

Linux ist ein Betriebssystem, das als besonders stabil und sicher gilt. Es gehört zu den nachweisbaren Fakten über Linux, dass mehr als 85 Prozent der Computer mit sehr hoher Leistung weltweit mit Linux arbeiten. Vor allem die Schnelligkeit des Betriebssystems ist ein Grund dafür, dass Linux häufig in Hochleistungsrechnern Anwendung findet. Ein weiterer Vorteil ist, dass Linux in der Anschaffung sehr günstig ist. Dies gilt nicht nur für das Betriebssystem selbst, sondern auch für die Hardware. Wenn Sie die Systemvoraussetzungen mit Windows vergleichen, brauchen Sie nur einen Bruchteil der Anforderungen umzusetzen. Das Betriebssystem selbst können Sie kostenlos aus dem Internet laden. Dies ist vor allem für Einsteiger ein wichtiger Aspekt. Wenn Sie ein günstiges und leistungsfähiges System suchen, ist Linux die beste Wahl.

Das Akronym „PC“ (Abkürzung für Personal Computer) hat vermutlich jeder schon tausendmal gehört und selbst verwendet. Doch wodurch unterscheidet sich ein PC von anderen Rechnerarten und was zeichnet ihn aus?

Wodurch zeichnet sich ein PC aus?

Ein Personal Computer ist ein Mikrocomputer, der für den persönlichen und individuellen Gebrauch gedacht ist. Im Gegensatz zu den frühen Vorläufern des PCs können heutige Personal Computer auch von Laien bedient werden. Der Gebrauch ist somit nicht nur Technikern, Wissenschaftlern und anderen Experten vorbehalten. Man findet PCs sowohl in Privathaushalten wie auch in Büros bzw. generell an Arbeitsplätzen. PCs zeichnen sich durch handliche Größe und einfache Bedienbarkeit aus. Da es sich beim PC grundsätzlich um einen Mehrzweckcomputer handelt, lässt sich dessen Funktionalität nicht exakt definieren und eingrenzen. Je nach Betriebssystem und installierter Software kann er zum Beispiel zum Beispiel für Office-Anwendungen, PC-Spiele, CAD-/CAM-Anwendungen oder für das Surfen im Internet genutzt werden.

Wie ist ein PC aufgebaut?

Typischerweise verfügt ein moderner PC über folgende elf Komponenten: Hauptplatine, CPU, Prozessorkühler, Arbeitsspeicher, Grafikkarte, Netzteil, Festplattenlaufwerk, optisches Laufwerk, Monitor, Tastatur und Maus. Auf der Hauptplatine – dem Motherboard – sind die zentralen Bauteile des PCs montiert. Der Hauptprozessor – die CPU – ist die zentrale Verarbeitungseinheit für die Steuerung und Ausführung von Befehlen. Der Prozessorkühler ist ein Kühlungssystem und Lüftungssystem für den Prozessor. Er verhindert die Überhitzung des Systems. Der Arbeitsspeicher ist ein Teil der CPU (Central Processing Unit). Er enthält alle Daten, welche für die aktuell auszuführenden Programme benötigt werden. Die Grafikkarte ist beim PC für die Umwandlung von Daten in Bilder zuständig. Das Netzteil versorgt den Personal Computer mit Strom. Das Festplattenlaufwerk (bzw. seit 2007 der SSD) ist ein nicht-flüchtiger Speicher, auf dessen rotierender, scheibenförmiger Oberfläche lesbare Daten gespeichert werden. Das optische Laufwerk ermöglicht den Zugriff auf optische Datenträger wie etwa DVDs.

Der Monitor dient der Darstellung der Benutzeroberfläche. Die Tastatur ist ein Steuerelement und Bedienelement, mit dessen Hilfe der Benutzer dem Personal Computer im weiteren Sinne Befehle erteilt. Sie besitzt insbesondere als Eingabegerät für Zahlen und Buchstaben eine große Bedeutung. Auch die Maus ist ein Eingabegerät. Sie ermöglicht dem Benutzer die Ausführung von Aktionen im Betriebssystem oder in der Anwendungssoftware.

Apple I – der erste PC der Welt

Die Fachwelt ist sich mittlerweile einig, dass der Apple I als erster PC der Welt anzusehen ist. Zwar erfüllten auch einige Vorläufer die Voraussetzungen, um als Personal Computer zu gelten, aber erst der Apple I ermöglichte Privatanwendern die preisgünstige Ausführung von Computerprogrammen und Anwendungen. Der Apple I kam im Jahr 1976 auf den Markt und verfügte bereits damals über eine Tastatur und einen handlichen Monitor.

In den 80er Jahren begann der Boom der Heimcomputer

In den 80er Jahren nahm die Entwicklung der als Heimcomputer genutzten PCs deutlich an Fahrt auf. Modelle wie der Commodore C64 und der Amiga 500 wurden tausendfach (später millionenfach) verkauft und machten den PC zu einem Standardgerät in Privathaushalten. Parallel dazu verbesserte sich auch die Leistung der als Bürogerät oder Arbeitsgerät genutzten PCs nach und nach.

Merkmale und Bauformen moderner Personal Computer

Zu den zentralen Aufgaben moderner Personal Computer gehören Textverarbeitung, Tabellenkalkulation und Multimedia-Anwendungen. Mittlerweile gibt es auch spezielle Gaming-PCs, die über extrem leistungsfähige Grafikkarten und eine herausragende Rechnerleistung verfügen. Zu den bekanntesten PC Betriebssystemen gehören Windows, Linux und Mac OS. Die wichtigsten Bauformen sind Desktop PC, Laptop und Tablet.

Welche Aufgaben hat das Betriebssystem eines PCs?

Das Betriebssystem eines PCs erfüllt mehrere Aufgaben. Es verwaltet und kontrolliert die Hardware, es vermittelt zwischen der Hardware und den Anwendungsprogrammen und es schafft eine einheitliche Oberfläche für die zusätzliche Installation von Software. Das Betriebssystem ist die Basis jedes PCs. Es wird – vor den Anwendungsprogrammen – als erstes Softwareprogramm auf dem PC installiert und ermöglicht dem Benutzer einen standardisierten Zugriff auf alle Hardware-Ressourcen und Programme.

Windows – das wichtigste PC Betriebssystem

Windows ist ein von Microsoft entwickeltes und herausgegebenes Betriebssystem für Server und PCs. Ursprünglich lediglich eine Benutzeroberfläche, entwickelte sich Windows im Laufe der Zeit zum wichtigsten Betriebssystem für Personal Computer weltweit. So ermöglichte zum Beispiel das im Jahr 1995 erschienene Betriebssystem Windows 95 einer breiten Bevölkerungsschicht erstmals den Zugang zu Computern und zum Internet. Windows gilt trotz einiger Sicherheitslücken als enorm stabile Plattform. 9 von 10 Desktop PCs sind mit Windows ausgestattet.

Ist der Mac eine gute Alternative zum Windows PC?

Viele Benutzer, die dem Unternehmen Microsoft oder dem Betriebssystem Windows abgeneigt sind, wählen als Alternative einen Macintosh von Apple. Anders als bei einem klassischen PC – gut ein Dutzend Hardware-Hersteller und mehrere Betriebssysteme streiten um die Vormachtstellung am Markt – stammen beim etwas teureren Macintosh die Hardware und die Software vom gleichen Hersteller. Rein (leistungs-)technisch gesehen sind die Unterschiede nicht mehr so groß wie früher.

Windows 10 ist ein Betriebssystem, das der US-amerikanische Softwareentwickler Microsoft mit variantenreichen Editionen für unterschiedliche Geräte und Zielgruppen anbietet. Damit setzt sich die populäre Reihe fort. Microsoft beendet mit Windows 10 das bisherige Veröffentlichungsmodell für Betriebssysteme. Das Unternehmen will das System mit Funktionsupdates regelmäßig verbessern und plant keine typische Nachfolge-Version.

Betriebssystem als Schnittstelle zwischen Hardware und Software mit interessanten Neuheiten

Als Betriebssystem erfüllt Windows 10 in erster Linie die Aufgabe, Hardware-Ressourcen zu verwalten und für Anwendungsprogramme verfügbar zu machen. Somit stellt das System die Schnittstelle zwischen der Hardware und der Software dar. Sie haben seit der Veröffentlichung von Windows 10 am 29. Juli 2015 die Gelegenheit, das Produkt des US-amerikanischen Softwareentwicklers Microsoft zu erwerben. Variantenreiche Neuerungen ermöglichen beim Vergleich mit den Vorgängerversionen deutliche Leistungsverbesserungen und stellen Ihnen zugleich vielseitige Funktionen bereit.

Verschiedene Editionen von Windows für variantenreiche Personengruppen und Geräte

Sie bekommen Windows 10 mit verschiedenen Editionen, die sich an bestimmte Zielgruppen und Hardwareeigenschaften anpassen. Die Gestaltung der Benutzeroberflächen ist jeweils am typischen Einsatzzweck von Betriebssystemen für bestimmte Personen und Geräte orientiert. In Privathaushalten mit Desktop-PCs und Notebooks überzeugt die Edition Windows 10 Home. Für Heimanwender und Experten mit höheren Ansprüchen gibt es die Produktvariante Pro.

Besonders rechenintensive Arbeitslasten bewältigen Sie mit der Betriebssystem-Edition Windows 10 Pro für Workstations. Relativ große Unternehmen mit mehreren PC-Systemen und umfangreichen Netzwerken profitieren  von den Enterprise-Produktvarianten des Microsoft Systems. Falls Sie in einer Bildungseinrichtung angepasste Betriebssysteme brauchen, ist wiederum Windows 10 Education empfehlenswert. Sie finden 32-Bit- und 64-Bit-Versionen der genannten Editionen.

Windows 10 Mobile ist ein Pendant des Betriebssystems, das die unkomplizierte Bedienung von kleinen Geräten ermöglicht. Neben Smartphones verwenden unter anderem Mini-Tablets diese Edition. Mit Windows 10 Mobile Enterprise gibt es eine weitere Alternative. Damit stehen während der Smartphone-Nutzung in einem Unternehmen zusätzliche Funktionen zur Verfügung. Durch die vielseitigen Editionen bietet Windows 10 eine einheitliche Softwareplattform für sehr unterschiedliche Geräteklassen. Somit ist das Betriebssystem im Idealfall auf der kompletten Technik-Ausstattung lauffähig und erspart die Mühe, sich beim Einsatz der Benutzeroberflächen eines anderen Herstellers ständig umstellen zu müssen.

Fortsetzung der Reihe Windows als Basis für weitere Entwicklungen

Mit Windows 10 setzt Microsoft seit dem Veröffentlichungstermin eine Reihe von eigenständigen Betriebssystemen mit einer großen Tradition und Bedeutung für die PC-Industrie fort. Die Geschichte der grafischen Benutzeroberfläche führt bis ins Jahr 1985 zur Veröffentlichung der ersten Windows-Version zurück. In einem Zeitraum von mehr als 30 Jahren hat sich Microsoft Windows weltweit etabliert und zahlreiche Innovationen vorangetrieben.

Windows 10 ist der direkte Nachfolger des Betriebssystems Windows 8. Auf der Software basieren auch weitere Entwicklungen von Microsoft. Hierzu zählt beispielsweise das Serverbetriebssystem Windows Server 2019. Dabei handelt es sich um die Weiterentwicklung des Vorgängerprodukts Windows Server 2016, das im Entwicklungsprozess eng mit dem Betriebssystem aus dem Jahr 2015 verbunden geblieben ist.

Schnelle Verbreitung durch ein kostenloses Upgrade und verändertes Veröffentlichungsmuster

Im Vergleich zu Vorgängerversionen hat sich Windows 10 besonders schnell verbreitet. Das hängt insbesondere damit zusammen, dass Microsoft nach der Veröffentlichung zahlreichen Kunden eine Gratis-Aktivierung des Betriebssystems angeboten hatte. Durch ein kostenloses Upgrade nach dem ursprünglichen Kauf von Windows 7 oder Windows 8 verwenden viele PC-Nutzer mittlerweile die Nachfolgeversion.

Mit Windows 10 will Microsoft das vorige Veröffentlichungsmuster beenden. Die Entwicklung einer typischen Nachfolger-Version des Betriebssystems ist daher auch langfristig nicht mehr geplant. Windows 10 ist aus der Sicht des Softwareentwicklers eine Dienstleistung und keine ersetzbare Software. Aus diesem Grund beabsichtigt Microsoft, mit Updates des Betriebssystems nicht nur bei der Fehlerbeseitigung und der Verbesserung der Datensicherheit zu helfen. Darüber hinaus entwickelt das Unternehmen regelmäßig Funktionsupdates, mit denen das System Ihnen neue Fähigkeiten bietet.

Kompatibilität mit weiteren Microsoft-Anwendungen und Microsoft 365 als prominentes Beispiel

Windows 10 überzeugt Sie auch durch die Kompatibilität mit zahlreichen Anwendungen von Microsoft, die vorinstalliert sind. Teilweise benötigen Sie zur Verwendung der zusätzlichen Software des Entwicklers einen Microsoft-Account oder ein Abonnement. Besonders prominent ist zum Beispiel das Produkt Microsoft 365, das in Kombinationsangeboten manchmal sogar zusammen mit Windows 10 bereitgestellt wird. Dazu gehört ein Paket mit umfangreicher Office-Software, einer passenden Webanwendung und einem Online-Dienst für die ortsunabhängige Datenspeicherung. In Microsoft 365 sind unter anderem aktuelle Versionen der klassischen Büroanwendungen Word, Excel oder PowerPoint enthalten.

Continuum-Funktion von Windows für Convertibles und weitere Neuerungen

Während Sie Windows 10 auf einem modernen Convertible einsetzen, profitieren Sie mit geeigneten Editionen von der neuen Funktion Continuum. Mit dieser Zusatzfunktion erkennt das Betriebssystem, ob die Tastatur-Einheit derzeit am Gerät angeschlossen ist. Ohne eine Tastatur-Verbindung wechselt Continuum in den Tablet-Modus und passt die Benutzeroberfläche für Sie dementsprechend an.

Im Gegensatz zur Vorgängerversion 8 verfügt 10 wieder über ein klassisches Startmenü mit einer überarbeiteten Variante, die eine Übersicht zu installierten Programmen und Schaltflächen für das Herunterfahren des Geräts enthält. Eine weitere Neuerung des Betriebssystems sind virtuelle Desktops. Dadurch erhalten Sie mit Windows 10 die Gelegenheit, geöffnete Fenster auf verschiedenen Desktop-Oberflächen abzulegen.