Beiträge

Kurz gesagt und in freier Übersetzung angegeben sind Laptops „Schoßrechner“. Es handelt sich um aufklappbare Computer, die in ihrer Leistung heute kaum einen Unterschied zum stationären PC aufweisen. In der Praxis verschwimmen die Begriffe Laptop und Notebook miteinander, da sie als gegenseitige Synonyme verwendet werden. Doch es gibt auch neben der Bezeichnung einige Unterschiede zwischen den mobilen Arbeitsplätzen.

Der oder das Laptop – was macht Laptops aus?

Grundsätzlich können Sie sowohl der, als auch das Laptop sagen. Beide Artikel vor der Gerätebezeichnung sind richtig. Doch was ist nun eigentlich ein Laptop und was muss der tragbare und aufklappbare Computer mitbringen, um sich von einem Notebook abzuheben? Fakt ist, dass der Begriff Laptop heute beinahe schon historisch anmutet. Doch es gibt sie nach wie vor, die Unterschiede zwischen dem aufklappbaren Computer und Notebooks oder Stand-PCs. Laptops sind in verschiedenen Größen erhältlich und mit einem großen Kontingent technischer Komponenten ausgestattet. Sie sind dementsprechend schwerer und verfügen über zahlreiche Anschlüsse. Wer Laptops beruflich nutzt, kann sich für ein entsprechend ausgestattetes und mit einem großen Bildschirm gefertigtes Gerät entscheiden. Im Fachhandel schaut Sie der Verkäufer bei der Frage nach einem Laptop meist fragend an und führt Sie zu den Notebooks, die deutlich kleiner sind. Doch selbst viele Hersteller machen keinen wirklichen Unterschied und verwenden die Begriffe Laptop und Notebook geräteübergreifend. Für Sie ist die Bildschirmgröße, sowie die Ausstattung von Relevanz. Hier übertrumpft der tragbare Computer jedes Notebook und ist daher eine gute Wahl für die berufliche, aber auch für die private Nutzung.

Notebook oder Laptop: Die Unterschiede im Überblick

Übersetzt heißt Notebook Notizbuch. Hieraus abgeleitet, ist das Notebook auch deutlich kleiner und leichter als ein Laptop. Optisch und in der Öffnungs- sowie der Verschließfunktion gibt es zwischen Notebooks und Laptops heute keinen wirklichen Unterschied. Als die ersten Notebooks aufkamen, waren sie technisch marginaler ausgestattet und hatten auch weitaus weniger Anschlüsse als ein Laptop. Was auch heute noch einen Unterschied aufzeigt ist die Größe. Ein Notebook ist leichter, da es über ein kleineres Display und meist über eine schlankere Form verfügt. Doch technisch kann es seinem größeren Bruder, dem Laptop, längst die Hand reichen. Wenn Sie nach einem tragbaren Gerät für Ihre tägliche Arbeit suchen, ist ein Laptop aufgrund der größeren Tastatur und dem größeren Bildschirm immer noch die bessere Wahl. Damit Ihr mobiler Arbeitsplatz die Augen nicht überanstrengt, sollten Sie sich für eine entsprechende Bildschirmgröße entscheiden. Tipp: Durch die Differenz in der Tastaturgröße kann es sein, dass Sie zum Beispiel auf einem Laptop schnell und sicher schreiben. Wechseln Sie zu einem kleineren Notebook, kann es in der Umstellungsphase zu einigen Problemen im freien 10-Finger-Schreiben kommen.

 

Können Laptops einen stationären Computer ersetzen?

Die Antwort lautet schlicht und einfach ja. Der PC – der klassische Personal Computer ist in vielen Büros und bei Selbstständigen heute nicht mehr zeitgemäß. Wenn Sie sich nicht an einen festen Ort für die Arbeit binden und flexibel bleiben wollen, ist ein Laptop immer die beste Lösung. Ein PC braucht einen Schreibtisch, auf dem die Tastatur, die Maus und der Monitor stehen. Unter dem Tisch befindet sich der eigentliche Personal Computer, also das Herzstück, in dem die gesamte Technik verbaut ist. Um eine Eingabe von der Tastatur auf den Bildschirm zu bringen, müssen alle Elemente miteinander verkabelt werden. Wenn Sie an Laptops arbeiten, ist das einzige Kabel die Stromzufuhr, mit der Sie den geräteinternen Akku bei Bedarf aufladen. Das heißt: Sie können ein Laptop überall mit hin nehmen, was mit einem stationären Computer nicht möglich ist. Auch wenn es heute bereits viele PCs mit WLAN gibt, erfolgt auch die Einspeisung meist noch über ein Kabel, die LAN-Verbindung.

Zeitgemäß und praktisch – ein mobiler Arbeitsplatz

Wenn von einem mobilen Arbeitsplatz gesprochen wird, handelt es sich immer um einen ortsungebundenen Arbeitsplatz mit flexibel einsatzbereiter Technik. Das heißt, dass Sie an einem Laptop arbeiten und somit Indoor wie Outdoor, im Inland und im Ausland überall einen Arbeitsplatz einrichten und beruflich tätig werden können. Ein Laptop können Sie ganz problemlos als stationären Arbeitsplatz nutzen. Dem gegenüber ist es mit einem konventionellen PC nicht möglich, mobil zu arbeiten und Ihr Arbeitsgerät an jedem beliebigen Ort aufzustellen. Wenn Sie mit einem aufklappbaren Computer am Schreibtisch sitzen, empfiehlt sich zugunsten der Ergonomie eine externe Tastatur. Auch eine Maus kann die Arbeit vereinfachen und beliebig an einem USB Anschluss oder als optische Maus mit dem Laptop verbunden werden. Gerade in einer Zeit, in der Homeoffice immer wichtiger und immer häufiger wird, gewinnen Laptops wieder mehr Beachtung. Die tragbaren vollausgestatteten Computer eignen sich für Ihr lokales Büro, für den Einsatz im Heimbüro und natürlich für Ihre Arbeit, die Sie im Sommer zum Beispiel auf der Terrasse verrichten. Technisch steht er dem PC in nichts nach.

Mit dem englischen Begriff Virtual Desktop Infrastructure (VDI) wird eine IT-Infrastruktur zur Zentralisierung und Virtualisierung der Funktionalitäten von Desktop-Rechnern bezeichnet. Durch den Einsatz von VDI lässt sich die Ausstattung der Desktop-Clients am Arbeitsplatz wesentlich reduzieren.

Allgemeine Informationen

Das Konzept der Desktop-Virtualisierung basiert auf dem Ansatz, sämtliche Funktionalitäten eines Arbeitsplatz-Rechners über ein zentrales System, wie beispielsweise Hyper-V, zur Verfügung zu stellen. Der Anwender benötigt am Arbeitsplatz lediglich einen Client, auf dem er den virtualisierten Desktop-PC aufruft. Die Bedienung gestaltet sich dabei wie bei einem gewöhnlichen Desktop-PC. Per Tastatur und Maus wird der Client gesteuert und die Ausgabe der grafischen Anzeige erfolgt lokal über den Monitor, während sämtliche Software-Komponenten auf einem zentralen Server ausgeführt werden.

Der Anwender befindet sich an einem anderen Ort als sein virtueller Desktop-PC. Die Übertragung aller Ein- und Ausgaben zwischen dem Client und Server wird über das Netzwerk realisiert. Der Zugriff auf eine Virtual Desktop Infrastructure (VDI) ist prinzipiell sowohl über das Internet als auch über ein lokales Netzwerk möglich. Um alle Funktionalitäten performant bereitstellen zu können, muss das Netzwerk bestimmte Mindestanforderungen in Bezug auf die Bandbreite und Latenz erfüllen. Im Kontext einer Virtual Desktop Infrastructure wird der Client als Terminal und der Server als Terminal-Server bezeichnet. Die Protokolle, über die die gesamte Kommunikation realisiert wird, sind bei den meisten Systemen proprietär und unterscheiden sich von Anbieter zu Anbieter. Eines der bekannteren Protokolle ist zum Beispiel das Remote Desktop Protocol (RDP), das von Microsoft entwickelt wird.

Bekannte Systeme

Auf dem Markt gibt es eine Vielzahl von Herstellern die unterschiedliche Virtual Desktop Infrastructure-Systeme anbieten. Neben kostenpflichtigen Lösungen sind auch Open Source-Lösungen für die Virtualisierung der Desktop-Infrastruktur samt Clients erhältlich. Die bekanntesten kommerziellen VDI Systeme werden von folgenden Herstellern entwickelt:

–       HP

–       Fujitsu

–       Microsoft

–       Dell

–       Citrix

–       VMWare

–       ViewSonic

–       VXL Instruments

Frei verfügbare VDI-Lösungen auf Open Source-Basis sind beispielsweise:

–       QVD Community Edition

–       Linux Terminal Server Project

Die verschiedenen Client-Arten im Überblick

Im Rahmen einer Virtual Desktop Infrastructure können unterschiedliche Arten von Clients eingesetzt werden. Grundsätzlich werden drei verschiedene Client-Typen unterschieden. Eine eindeutige Abgrenzung zwischen den einzelnen Typen existiert jedoch nicht:

–       Zero Client

–       Thin Client

–       Thick Client

Der Zero Client

Bei dem sogenannten Zero Client handelt es sich um ein maximal abgespecktes Gerät. Zero Clients sind prinzipiell ohne Eingriff eines Administrators einsatzfähig. Eine individuelle Anpassung  des Zero Clients für den Fernzugriff ist nicht nötig. Sobald der Zero Client an das Netzwerk angebunden und mit einer Maus und Tastatur verbunden ist, kann er als virtueller Desktop eingesetzt werden. Die meisten Zero Clients setzen sich aus einem sehr kleinen Computergehäuse zusammen, das sich mit dem Monitor, der Maus und Tastatur sowie dem Netzwerk verbinden lässt. Weitere charakteristische Merkmale eines Zero Clients sind:

–       kein Konfigurationsaufwand und eine simple Administration

–       auf dem Zero Client befindet sich keine oder nur Minimalsoftware

–       aufgrund der abgespeckten Hardware sind die Anschaffungskosten geringer als bei den anderen beiden Client-Varianten

–       ein geringer Stromverbrauch

Der Thin Client

Thin Clients kommen für die Darstellung virtueller Desktops zum Einsatz. Solche Clients sind mit leistungsschwächerer Hardware ausgestattet und sind i auf die wichtigsten Komponenten zur Ausführung des virtuellen Desktops ausgerichtet. Oft werden bei solchen Geräten keine Massenspeicher oder CD-/DVD-Laufwerke eingesetzt. Da der Hauptprozessor und andere Hardwarekomponenten aufgrund der geringen Leistung wenig Wärme produzieren, arbeiten Thin Clients in der Regel ohne aktive Kühlung und  völlig geräuschlos. Dies wirkt sich äußerst positiv auf die Nutzungsdauer aus, weswegen die Hardware seltener ersetzt werden muss.

Der Thick Client

Bei einem Thick Client handelt es sich um einen voll ausgestatteten PC, auf dem ein Software-Paket zur Darstellung der virtuellen Desktop-Umgebung installiert ist. Konkret bedeutet das, dass der Thick Client sowohl über einen eigenen Desktop als auch über einen Remote-Desktop verfügt. Der wesentliche Vorteil eines solchen Clients ist, dass er sowohl für virtuelle Desktop-Anwendungen als auch für lokal betriebene Anwendungen gleichermaßen gut nutzbar ist. Ein bedeutender Nachteil spiegelt sich jedoch in der Tatsache wider, dass viele Vorteile einer VDI Infrastruktur durch den Einsatz eines Thick Clients verloren gehen.

Vorteile einer VDI Infrastruktur im Überblick

Durch den Prozess der Virtualisierung und Zentralisierung der Desktop-PCs ergeben sich zahlreiche Vorteile. Die zentrale Bereitstellung der Desktop-Services vereinfacht deren Administration und Konfiguration. Updates lassen sich auf diese Weise schnell und einfach einspielen und mit wesentlich weniger Aufwand als in traditionellen LANs durchführen. Des Weiteren können Inkompatibilitäten oder auftretende Probleme dank virtueller Server an einer zentralen Stelle analysiert und gelöst werden. Viele Bereitstellungsprozesse der Desktop-Funktionalitäten sowie Backup-Services lassen sich automatisieren und dadurch wesentlich vereinfachen.

Die bedeutendsten Vorteile einer Virtual Desktop Infrastructure ergeben sich in erster Linie durch den Einsatz weniger aufwendiger Client. Dadurch kann man auch vollwertige PCs mit Komplettausstattung verzichten, die in der Regel viel teurer als die entsprechenden Client-Lösungen sind. Darüber hinaus wird die Verflechtung zwischen Software- und Hardwareanwendungen aufgehoben, sodass ein Austausch der Clients aufgrund neuer Software- oder Hardwareanforderungen überflüssig wird. Die Clients weisen dadurch eine deutlich höhere Nutzungsdauer auf.

Bei Hardwarestörungen muss der Administrator das Problem nicht mehr lokal vor Ort beim Nutzer beheben, sondern die Probleme lassen sich an einem zentralen Server beheben. Auch das Einspielen bzw. Zurückspielen von Updates sowie das Wiederherstellen gelöschter Daten werden zentral realisiert. Da die gesamte Infrastruktur für den professionellen Einsatz ausgelegt ist, erhöht sich die Verfügbarkeit der virtuellen Clients deutlich und ist im direkten Vergleich zu traditionellen Desktops um ein Vielfaches höher. Des Weiteren sollten die Vorteile der VDI Infrastruktur auch in Sachen Ressourcenschonung sowie Energieeffizienz keinesfalls vernachlässigt werden.

Der Begriff Disaster Recovery (DR) bezieht sich auf unterschiedliche Maßnahmen, mit denen die Wiederaufnahme des IT-Betriebs nach einem Katastrophen- oder Störungsfall sichergestellt wird. Die Disaster Recovery beinhaltet unterschiedliche Maßnahmen und Prozesse, um beispielsweise geschäftskritische Daten oder IT-Infrastrukturen schnellstens wiederherzustellen.

Allgemeine Informationen

Dsaster Recovery ist ein wichtiger Bestandteil der Sicherheitsplanung und beschäftigt sich in erster Linie mit der Wiederherstellung wichtiger IT-Dienstleistungen und Daten nach einem Störungsfall. Die Störungen können durch diverse Ausfälle und Ereignisse verursacht werden, wie beispielsweise Hardware-Ausfälle, Naturkatastrophen, Hackerangriffe oder Bedienungsfehler. Das Ziel solcher Wiederherstellungs-Maßnahmen ist es, die negativen Auswirkungen für eine Organisation oder ein Unternehmen zu minimieren. Im Rahmen der Disaster Recovery-Maßnahmen werden zum Beispiel, Server oder Netzwerke wiederhergestellt.

Der Begriff Disaster Recovery ist englischen Ursprungs und bedeutet in die deutsche Sprache übersetzt so viel wie Notfallwiederherstellung oder Notfallplan. In vielen Fällen werden die beiden Begriffe Business Continuity und Disaster Recovery synonym verwendet. Business Continuity ist jedoch umfassender, da es hier nicht nur um die Wiederherstellung von IT-Infrastrukturen geht, sondern auch um die Aufrechterhaltung wichtiger Geschäftsprozesse. Der Fokus von Business Continuity liegt also primär auf der Sicherstellung der geschäftlichen Prozesse. Technische Maßnahmen, die im Rahmen der Disaster Recovery zum Einsatz kommen, sind:

–       Datensicherung

–       Redundanzen

–       Zurverfügungstellung von Ersatzhardware

Durch den Einsatz dieser Maßnahmen sollen sogenannte „Single Point of Failures“ möglichst gut vermieden werden.

Der Disaster Recovery Plan

Der Disaster Recovery Plan (DRP) umfasst alle Verfahren, Vorgaben und Maßnahmen, wie man in einem Störungsfall reagieren sollte, um die Auswirkungen des Ausfalls auf das Unternehmen zu minimieren. Die in dem DRP enthaltenen Maßnahmen sind so konzipiert, dass sie schrittweise durch die Verantwortlichen abgearbeitet werden müssen. Des Weiteren sind im DRP Eskalationsstufen, Meldewege und Definitionen der Verantwortlichkeiten zusammengefasst, die im Notfall umgesetzt werden müssen.

Der Disaster Recovery Test

Mit einem Disaster Recovery Test lässt sich die Effizienz überprüfen und genau analysieren. Damit kann man sicherstellen, dass im Fall einer Störung die unterschiedlichen Maßnahmen und Prozesse des DRPs die Wiederherstellung der IT-Infrastruktur ermöglichen. Die Ergebnisse aus den Tests können bei Bedarf in bestehende Verfahren und Prozesse eingebunden werden, um diese zu optimieren. Mit regelmäßigen Tests können Unternehmen die Pläne auf dem aktuellsten Stand halten und schulen zudem auf diese Weise die Mitarbeiter, wie sie im Notfall reagieren sollten.

Recovery Time Objective und Recovery Point Objective

Bei Recovery Time Objective (RTO) und Recovery Point Objective (RPO) handelt es sich um wichtige Kennwerte, die im Rahmen der Notfallwiederherstellung eine äußerst bedeutende Rolle spielen. Recovery Time Objective gibt beispielsweise Auskunft darüber, wie lange ein IT-System oder ein IT-Service ausfallen darf, ohne einen größeren Einfluss auf die Geschäftsprozesse zu haben. Konkret handelt es sich dabei um den Zeitraum zwischen dem ersten Auftreten der Störung und der Wiederherstellung des IT-Systems oder der IT-Services. Die Zeiträume können dabei zwischen einigen Sekunden und mehreren Tagen oder sogar Wochen betragen. Recovery Point Objective gibt hingegen die Antwort auf die Frage, wie viel Datenverlust man hinnehmen kann. Dabei handelt es sich um die zeitliche Periode, die zwischen zwei Datensicherungen vergehen darf. Je niedriger die Recovery Point Objective ist, umso besser ist es.

Disaster Recovery as a Service (DRaaS)

DRaaS baut auf der Cloud-Infrastruktur auf und nutzt Funktionalitäten aus der Cloud, mit denen sich im Notfall wichtige IT-Systeme wiederherstellen lassen. Bei diesem Angebot stellt ein Provider einen Backup von Daten, Cloud-Speicherplatz für einen Online Backup, virtualisierte IT-Strukturen oder virtuelle Server als Cloud-Angebot zur Verfügung. Damit kann man das Unternehmen vor Notfällen absichern, ohne zusätzliche Hardware- und Software-Lösungen in einem eigenen Rechenzentrum betreiben zu müssen. DRaaS ist in erster Linie auf die Anforderungen von kleineren und mittleren Unternehmen ausgerichtet, die in vielen Fällen nicht über das nötige Fachwissen und die Ressourcen verfügen, um eigene Notfallmaßnahmen optimal umzusetzen.

Bei Power over Ethernet (PoE) handelt es sich um ein Verfahren, das die elektrische Stromversorgung von netzwerkfähigen Geräten wie WLAN-Controller oder Hardware-Firewall über ein gewöhnliches Ethernet Kabel ermöglicht. Durch den Einsatz dieses Standards können Sie auf separate Verkabelungen zur Energieversorgung einzelner Geräte komplett verzichten. Im Rahmen des PoE-Standards existieren verschiedene Spezifikationen, die unterschiedliche Maximalleistungen zulassen.

Allgemeine Informationen

PoE steht für Power over Ethernet. Damit wird ein komplexes Verfahren aus dem Bereich der Netzwerktechnik beschrieben, mit dem sich der für den Betrieb von Netzwerkgeräten benötigte Strom über ein Netzwerkkabel zur Verfügung stellen lässt. Im Rahmen des PoE-Standards überträgt das Ethernet-Kabel nicht nur den gesamten Datenverkehr, sondern auch den elektrischen Strom. Für Power over Ethernet gibt es unterschiedliche Standards. Je nach definiertem Standard werden unterschiedliche maximale Leistungen ermöglicht. Durch den Einsatz von PoE können Sie auf den Einsatz eines separaten Stromanschlusses verzichten, sodass der Aufwand für die Installation deutlich geringer ausfällt als bei netzwerkfähigen Geräten mit herkömmlichen Netzwerkkabel. Diese Technik wird häufig für die Versorgung von abgesetzten Geräten eingesetzt, wie beispielsweise Webcams, WLAN-Access Points oder Überwachungskameras, die in vielen Fällen an unzugänglichen Stellen installiert werden. Die zwei wichtigsten Standards, die innerhalb von PoE zum Einsatz kommen, sind:

–       IEEE 802.3af

–       IEEE 802.3at

Bei IEEE 802.3at handelt es sich um einen PoE-Standard, bei dem die beiden freien Adernpaare in 10Base-T- und 100Base-TX-Ethernet-Kabeln für die Stromübertragung genutzt werden. Die Spannung auf den beiden Kabeln ist begrenzt und beträgt im Normalfall bis zu 48 Volt bei einer Maximalleistung von 15,4 Watt. Durch den Einsatz einer relativ hohen Spannung ist es möglich, die Verlustleistung und die Wärmeentwicklung in den Kabeln auf einem geringen Niveau zu halten.

Im direkten Vergleich zu IEEE 802.3af ermöglicht der IEEE 802.3at-Standard den Einsatz höherer Leistungen. Hier kommen die sogenannten „Endspan-“ und „Midspan- Versorgungsmethoden“ zum Einsatz. Im Rahmen der Endspan-Methode kümmert sich der PoE-Switch um die direkte Versorgung, während bei der Midspan-Methode zwischengeschaltete Quellen, wie zum Beispiel PoE-Injektoren, für die Stromversorgung genutzt werden.

Um Strom über Ethernet zu übertragen, kommen zwei unterschiedliche Varianten zum Einsatz. Bei der ersten Variante handelt es sich um die sogenannte „Fernspeisung“. Diese Variante überträgt den Strom über die Adernpaare, die auch für die Übertragung von Daten genutzt werden. Die andere Variante wird als „Spare-Pair-Speisung“ bezeichnet und benutzt ausschließlich ungenutzte Adernpaare.

Welche Vorteile bietet PoE?

Da mittels Power over Ethernet sowohl die Daten- als auch die Stromübertragung über ein einziges Ethernet-Kabel möglich sind, lassen sich auf diese Weise Kosten für die Anschaffung und den Betrieb mehrerer Kabel einsparen. Hinzu kommt noch, dass die Installation neuer oder die Erweiterung bestehender Netzwerke, wesentlich günstiger ist, da Sie keine zusätzlichen Stromleitungen installieren müssen. Netzwerkgeräte lassen sich so auch an unzugänglichen Stellen installieren, an denen es sonst sehr umständlich wäre, zusätzliche Stromkabel zu verlegen. Dank der zentralen Stromverteilung über Switches können Sie auf externe Netzteile und Netzadapter verzichten. Alle modernen Power over Ethernet-Switches lassen sich mit redundanten Netzteilen ausrüsten, was sich äußerst positiv auf die Verfügbarkeit des Netzwerks und der angeschlossenen Netzwerkgeräte auswirkt.

Netzwerkgeräte mit Unterstützung für Power over Ethernet

Um Schäden an Netzwerkgeräten zu vermeiden, sollten Sie alle angeschlossenen Netzwerkgeräte auf Kompatibilität zu PoE untersuchen. Falls Sie PoE beispielsweise mit IP-Telefonie einsetzen möchten, können Spannungen auf den Adernpaaren nicht kompatible Geräte schwer beschädigen und unter Umständen auch zerstören. Aus diesem Grund sollten Sie die Spannung nur dann einschalten, wenn alle Netzwerkgeräte Power over Ethernet unterstützen.

 

Geräte, die über Power over Ethernet mit Strom versorgt werden, sind in bestimmte Klassen eingeteilt. Die gängigen Klassen für PoE-Geräte sind die Klassen von 0 bis 4. In direkter Relation dazu, wie viel Strom ein Netzwerkgerät voraussetzt, ist es einer bestimmten Klasse zugeordnet. Durch den Einsatz definierter Spezifikationen und Verfahren wird die exakte Menge an Strom über das Ethernet-Kabel übermittelt. Dadurch wird stets die richtige Menge an Strom bereitgestellt. Die gängigsten Geräte, die über PoE betrieben werden, sind:

–       VOIP-Geräte (Voice Over IP)

–       WLAN-Access Points

–       WLAN-Controller

–       WLAN-Extender

Herausforderungen bei Power over Ethernet

Obwohl das PoE-Verfahren zahlreiche Vorteile mit sich bringt, gibt es auch einige Herausforderungen, mit denen Sie rechnen müssen. Je mehr Strom über ein Ethernet-Kabel übertragen wird, umso mehr Wärme wird im Kabel generiert. Bei einem stark erwärmten Kabel kann es dazu kommen, dass die zusätzliche Dämpfung auf die Übertragung der Daten beeinträchtigt. Aus diesem Grund sollten Sie nicht immer mit den maximalen Datenübertragungsraten rechnen, sondern die maximale Übertragungsleistung an die jeweiligen Temperaturbedingungen anpassen. Die Spezifikationen der jeweiligen PoE-Klassen geben genau an, mit welchem Temperaturanstieg Sie beispielsweise bei dem Einsatz von PoE++ (4PPoE) rechnen müssen. Bei einem gewöhnlichen U/UTP-Netzwerkkabel sollten Sie beispielsweise mit einer Erwärmung bis zum fünffachen Faktor des Kabels rechnen. Ein Kabel, das gut geschirmt ist, weist eine Erwärmung von einem dreifachen Faktor auf. Dies ist darauf zurückzuführen, da die Metallschirmung im Inneren hilft, die Wärme nach außen zu transportieren.

Ein weiterer Nachteil von PoE spiegelt sich im Spannungsabfall bei längeren Ethernet-Kabeln wider. Je länger das Kabel ist, desto höher ist der Spannungsabfall und umso weniger Leistung kommt am Endgerät an.

Hinter dem Begriff Plesk verbirgt sich eine Distribution für Webserver. Die Distribution arbeitet mit verschiedenen Plattformen zusammen. Dazu gehören Unix und Windows. Der Hersteller ist die Plesk International GmbH. Diese ging aus der Firma Parallels Inc. hervor. Der Geschäftsbereich für die Serviceprovider ist auch unter der Bezeichnung Odin bekannt. Für Webhoster ist die Distribution kostenpflichtig. Sie findet bei vielen Dienstleistern im Internet ihren Einsatz.

Plesk – einfache Verwaltung von Servern für den Nutzer

Die Distribution richtet sich an Internetdienstleister, die eine einfach zu bedienende Verwaltung für ihre Server suchen. Plesk erlaubt dem User eine Verwaltung von Servern, ohne das spezifische Kenntnisse über ein Betriebssystem vorliegen. Im Hintergrund laufen bei der Verwaltung der Server Vorgänge ab, die sehr komplex sind und die in der Regel Fachwissen erfordern. Mit Plesk ist es möglich, die Server ohne diese Fachkenntnisse zu konfigurieren. Dies erlaubt dem User beispielsweise, einen Mail- oder einen Webserver einzurichten, ohne dafür einen professionellen Dienstleister zu beauftragen. Das ist in der täglichen Arbeit sehr praktisch, denn mit Plesk können Sie viele Bereiche der Konfiguration selbst übernehmen.

Plesk – Komplexes System für verschiedene Anforderungen

Plesk ist ein einfach zu bedienendes, aber dennoch komplexes System, von dem Sie auf verschiedene Weise profitieren. Um die Zusammenhänge zu verstehen, ist es wichtig, dass Sie einige Begrifflichkeiten kennen und einordnen können. Unabhängig von der Ausrichtung ist die Präsenz im Internet für ein Unternehmen sehr wichtig. Sie sollten mit einer Webseite und einer E-Mail-Adresse im Netz erreichbar sein. Viele Kunden informieren sich nicht mehr auf den klassischen analogen Wegen, sondern im Internet. Mit Plesk ist es möglich, die wesentlichen Funktionen auch ohne Vorkenntnisse zu steuern.

Webserver

Der Webserver ist die Festplatte, auf der alle Daten gespeichert sind, die Sie im Internet abrufen. Das Protokoll, mit dem der Webserver arbeitet, ist HTML. Wenn Sie selbst oder Ihre Kunden eine Anfrage in das Internet senden, erfolgt eine automatische Umleitung an den Webserver. Die Beantwortung Ihrer Anfrage erfolgt dann anhand der Informationen, die auf dem Server gespeichert sind. Dabei spielt es keine Rolle, ob Sie in einem sozialen Netzwerk agieren oder eine E-Mail schreiben. Ohne Webserver könnten Sie die Informationen nicht abrufen.

Postfix

Postfix ist eine sogenannte freie Software. Die Bezeichnung beruht auf der Tatsache, dass der Quellcode der Software offen liegt. Programmierern ist der Quellcode bekannt. So ist es möglich, Änderungen und Anpassungen vorzunehmen.

Bereits im Jahre 1998 wurde Postfix als Alternative zu Sendmail entwickelt. Es handelt sich um eine Distribution, die auf Unix und Linux basiert. Der Mail Transfer Agent ist für alle Betriebssysteme geeignet, die auf der Basis von Linux oder Unix arbeiten. Im direkten Vergleich zu Sendmail ist Postfix einfacher zu bedienen und auch weniger anfällig für Sicherheitslücken.

Qmail

Hinter Qmail verbirgt sich ein Mailserver, der für Linux-Systeme entwickelt wurde. Die Entwicklung erfolgte durch den Programmierer und Professor Dan Bernstein. Er entwickelte das neue System, weil er mit den bestehenden Systemen unzufrieden war.

Was ist ein Betriebssystem?

Das Betriebssystem ist die Basis, auf der ein Computer arbeitet. Betriebssysteme gibt es für PCs, Smartphone und Laptops. Sie bilden quasi die Plattform für alle Aufgaben und Befehle, die der User ausführt. Im Betriebssystem sind verschiedene Programme enthalten. Weitere können kostenpflichtig oder kostenlos geladen werden. So haben Sie die Möglichkeit, das System auf Ihren individuellen Bedarf anzupassen.

Windows

Windows ist ein Betriebssystem, das von der amerikanischen Softwarefirma Microsoft unter Bill Gates entwickelt wurde. Weltweit arbeiten die meisten Computer auf der Basis von Windows. In den vergangenen Jahrzehnten ist Windows in verschiedenen Versionen auf den Markt gekommen. Die Versionen wurden an die Entwicklung der Technik und die Bedürfnisse der User angepasst. Bei den gewerblich genutzten Computern arbeiten weltweit mehr als 90 Prozent mit dem Betriebssystem Windows.

Unix

Unix ist ein Betriebssystem für Computer, der bereits im Jahre 1969 entwickelt wurde. Es handelt sich um ein sogenanntes Mehrbenutzer-Betriebssystem. Heute gilt es als eines der Betriebssysteme, die am weitesten verbreitet sind. Es gibt viele verschiedene Entwicklungen, die auf dem Unix-System basieren. Eines der bekanntesten Unix-basierten Betriebssysteme ist MacOS.

Linux

Linux ist ein Betriebssystem, das als besonders stabil und sicher gilt. Es gehört zu den nachweisbaren Fakten über Linux, dass mehr als 85 Prozent der Computer mit sehr hoher Leistung weltweit mit Linux arbeiten. Vor allem die Schnelligkeit des Betriebssystems ist ein Grund dafür, dass Linux häufig in Hochleistungsrechnern Anwendung findet. Ein weiterer Vorteil ist, dass Linux in der Anschaffung sehr günstig ist. Dies gilt nicht nur für das Betriebssystem selbst, sondern auch für die Hardware. Wenn Sie die Systemvoraussetzungen mit Windows vergleichen, brauchen Sie nur einen Bruchteil der Anforderungen umzusetzen. Das Betriebssystem selbst können Sie kostenlos aus dem Internet laden. Dies ist vor allem für Einsteiger ein wichtiger Aspekt. Wenn Sie ein günstiges und leistungsfähiges System suchen, ist Linux die beste Wahl.

Das Akronym „PC“ (Abkürzung für Personal Computer) hat vermutlich jeder schon tausendmal gehört und selbst verwendet. Doch wodurch unterscheidet sich ein PC von anderen Rechnerarten und was zeichnet ihn aus?

Wodurch zeichnet sich ein PC aus?

Ein Personal Computer ist ein Mikrocomputer, der für den persönlichen und individuellen Gebrauch gedacht ist. Im Gegensatz zu den frühen Vorläufern des PCs können heutige Personal Computer auch von Laien bedient werden. Der Gebrauch ist somit nicht nur Technikern, Wissenschaftlern und anderen Experten vorbehalten. Man findet PCs sowohl in Privathaushalten wie auch in Büros bzw. generell an Arbeitsplätzen. PCs zeichnen sich durch handliche Größe und einfache Bedienbarkeit aus. Da es sich beim PC grundsätzlich um einen Mehrzweckcomputer handelt, lässt sich dessen Funktionalität nicht exakt definieren und eingrenzen. Je nach Betriebssystem und installierter Software kann er zum Beispiel zum Beispiel für Office-Anwendungen, PC-Spiele, CAD-/CAM-Anwendungen oder für das Surfen im Internet genutzt werden.

Wie ist ein PC aufgebaut?

Typischerweise verfügt ein moderner PC über folgende elf Komponenten: Hauptplatine, CPU, Prozessorkühler, Arbeitsspeicher, Grafikkarte, Netzteil, Festplattenlaufwerk, optisches Laufwerk, Monitor, Tastatur und Maus. Auf der Hauptplatine – dem Motherboard – sind die zentralen Bauteile des PCs montiert. Der Hauptprozessor – die CPU – ist die zentrale Verarbeitungseinheit für die Steuerung und Ausführung von Befehlen. Der Prozessorkühler ist ein Kühlungssystem und Lüftungssystem für den Prozessor. Er verhindert die Überhitzung des Systems. Der Arbeitsspeicher ist ein Teil der CPU (Central Processing Unit). Er enthält alle Daten, welche für die aktuell auszuführenden Programme benötigt werden. Die Grafikkarte ist beim PC für die Umwandlung von Daten in Bilder zuständig. Das Netzteil versorgt den Personal Computer mit Strom. Das Festplattenlaufwerk (bzw. seit 2007 der SSD) ist ein nicht-flüchtiger Speicher, auf dessen rotierender, scheibenförmiger Oberfläche lesbare Daten gespeichert werden. Das optische Laufwerk ermöglicht den Zugriff auf optische Datenträger wie etwa DVDs.

Der Monitor dient der Darstellung der Benutzeroberfläche. Die Tastatur ist ein Steuerelement und Bedienelement, mit dessen Hilfe der Benutzer dem Personal Computer im weiteren Sinne Befehle erteilt. Sie besitzt insbesondere als Eingabegerät für Zahlen und Buchstaben eine große Bedeutung. Auch die Maus ist ein Eingabegerät. Sie ermöglicht dem Benutzer die Ausführung von Aktionen im Betriebssystem oder in der Anwendungssoftware.

Apple I – der erste PC der Welt

Die Fachwelt ist sich mittlerweile einig, dass der Apple I als erster PC der Welt anzusehen ist. Zwar erfüllten auch einige Vorläufer die Voraussetzungen, um als Personal Computer zu gelten, aber erst der Apple I ermöglichte Privatanwendern die preisgünstige Ausführung von Computerprogrammen und Anwendungen. Der Apple I kam im Jahr 1976 auf den Markt und verfügte bereits damals über eine Tastatur und einen handlichen Monitor.

In den 80er Jahren begann der Boom der Heimcomputer

In den 80er Jahren nahm die Entwicklung der als Heimcomputer genutzten PCs deutlich an Fahrt auf. Modelle wie der Commodore C64 und der Amiga 500 wurden tausendfach (später millionenfach) verkauft und machten den PC zu einem Standardgerät in Privathaushalten. Parallel dazu verbesserte sich auch die Leistung der als Bürogerät oder Arbeitsgerät genutzten PCs nach und nach.

Merkmale und Bauformen moderner Personal Computer

Zu den zentralen Aufgaben moderner Personal Computer gehören Textverarbeitung, Tabellenkalkulation und Multimedia-Anwendungen. Mittlerweile gibt es auch spezielle Gaming-PCs, die über extrem leistungsfähige Grafikkarten und eine herausragende Rechnerleistung verfügen. Zu den bekanntesten PC Betriebssystemen gehören Windows, Linux und Mac OS. Die wichtigsten Bauformen sind Desktop PC, Laptop und Tablet.

Welche Aufgaben hat das Betriebssystem eines PCs?

Das Betriebssystem eines PCs erfüllt mehrere Aufgaben. Es verwaltet und kontrolliert die Hardware, es vermittelt zwischen der Hardware und den Anwendungsprogrammen und es schafft eine einheitliche Oberfläche für die zusätzliche Installation von Software. Das Betriebssystem ist die Basis jedes PCs. Es wird – vor den Anwendungsprogrammen – als erstes Softwareprogramm auf dem PC installiert und ermöglicht dem Benutzer einen standardisierten Zugriff auf alle Hardware-Ressourcen und Programme.

Windows – das wichtigste PC Betriebssystem

Windows ist ein von Microsoft entwickeltes und herausgegebenes Betriebssystem für Server und PCs. Ursprünglich lediglich eine Benutzeroberfläche, entwickelte sich Windows im Laufe der Zeit zum wichtigsten Betriebssystem für Personal Computer weltweit. So ermöglichte zum Beispiel das im Jahr 1995 erschienene Betriebssystem Windows 95 einer breiten Bevölkerungsschicht erstmals den Zugang zu Computern und zum Internet. Windows gilt trotz einiger Sicherheitslücken als enorm stabile Plattform. 9 von 10 Desktop PCs sind mit Windows ausgestattet.

Ist der Mac eine gute Alternative zum Windows PC?

Viele Benutzer, die dem Unternehmen Microsoft oder dem Betriebssystem Windows abgeneigt sind, wählen als Alternative einen Macintosh von Apple. Anders als bei einem klassischen PC – gut ein Dutzend Hardware-Hersteller und mehrere Betriebssysteme streiten um die Vormachtstellung am Markt – stammen beim etwas teureren Macintosh die Hardware und die Software vom gleichen Hersteller. Rein (leistungs-)technisch gesehen sind die Unterschiede nicht mehr so groß wie früher.