Beiträge

Plattformunabhängigkeit bezieht sich auf Software, die auf einer Vielzahl von Hardwareplattformen oder Softwarearchitekturen ausgeführt werden kann, Sie wird als plattformunabhängig, plattformübergreifend, portabel oder auch als Cross-Plattform bezeichnet.

Plattformunabhängige Software kann in einer Vielzahl von Umgebungen ausgeführt werden, wodurch die Verwendung im gesamten Unternehmen vereinfacht wird. Sie erfordert weniger Aufwand und Planung als der Einsatz einer plattformabhängigen Software.

Die Bedeutung von Plattformunabhängigkeit ist, dass der von Java kompilierte Code (Bytecode) auf allen Betriebssystemen ausgeführt werden kann. Ein Programm ist in einer Sprache geschrieben, die für Menschen lesbar ist. Ein Compiler ist ein Programm, das den Quellcode eines anderen Programms aus einer Programmiersprache in ausführbaren Code übersetzt, wodurch die Software plattformunabhängig wird.

Warum ist es so gefragt?

Wenn Sie ein Softwareprodukt entwickeln und verkaufen, kann Ihnen die Unterstützung von Java für die Plattformunabhängigkeit dabei helfen, in mehr Märkten zu konkurrieren. Anstatt beispielsweise ein Produkt zu entwickeln, das nur unter Windows ausgeführt werden kann, können Sie ein Programm schreiben, das außer mit Windows ebenso mit OS / 2, Solaris und Linux funktioniert.

Das Bedürfnis nach Plattformunabhängigkeit entstand aufgrund der unterschiedlichen Betriebssysteme, die heutzutage genutzt werden. Wenn ein für Windows geschriebener Code unter Mac OS ausgeführt werden sollte, hatte das multiple Fehlermeldungen zur Folge und der Code musste entsprechend der jeweiligen Hardware- und Maschinenkonfiguration geändert werden. Die dadurch für Programmierer verursachten Probleme, machten die Code-Portabilität zum Gebot der Stunde, da der Gebrauch des Internets rasant zunahm.

Plattformunabhängige Sprachen

Java ist die bekannteste plattformunabhängige Sprache. Einige andere P.I. Sprachen sind Ruby, Lisp, Schema, Scala, Clojure, Python, Perl, PHP, C #. Außerdem können die Kriterien für die Entscheidung über die Plattformunabhängigkeit von Person zu Person variieren. Beispielsweise sind Sprachen wie C / C ++ auf Quellcodeebene plattformunabhängig, verlieren jedoch die Plattformunabhängigkeit, sobald der Code kompiliert wird, da nativer Code plattformspezifisch ist.

Java hingegen wird aufgrund seines Bytecodes als plattformunabhängig bezeichnet. Java-Code wird zuerst zu Bytecode kompiliert und in eine JAR-Datei gepackt. Diese Datei wird dann auf verschiedenen Plattformen identisch ausgeführt, z. B. auf verschiedenen Versionen von Windows und Linux. Dies ist in erster Linie der Grund für die Beliebtheit von Java, da es das Versprechen „Write Once Run Anywhere“ einhält.

Plattformunabhängigkeit und Virtualisierung / virtuelle Server

Die Distributed Management Task Force (DMTF) ist eine Organisation mit mehr als 4.000 aktiven Mitgliedern, 44 Ländern und fast 200 Organisationen. Es ist die Branchenorganisation, die die Entwicklung, Annahme und Förderung interoperabler Managementstandards und -initiativen leitet. Unter besonderer Berücksichtigung des Cloud Computing führte die DMTF das Open Virtualization Format (OVF) ein und unterstützte mehrere Initiativen für interoperable Cloud-Technologien, wie den Open Cloud Standards Incubator, die Cloud Management Working Group (CMWG) und die Cloud Audit Data Federation Working Gruppe (CADFWG).

Das Open Virtualization Format (OVF)  ist ein herstellerunabhängiges Format für Verpackungsstandards, das die Portabilität und Bereitstellung virtueller Appliances auf verschiedenen Virtualisierungsplattformen erleichtert. OVF kann von unabhängigen Softwareanbietern (ISVs) zum Packen und sicheren Verteilen von Anwendungen verwendet werden, und Systemabbilder können auf mehreren Plattformen importiert und bereitgestellt werden, wodurch eine plattformübergreifende Portabilität ermöglicht wird. Die Spezifikation ist das Ergebnis der Zusammenarbeit von Dell, HP, IBM, Microsoft, VMWare und XenSource bei der Definition eines plattformunabhängigen Virtualisierungsformats für das Packen von Software-Appliances. Ein erster Entwurf wurde der DMTF im Jahr 2008 vorgelegt. Derzeit hat die DMTF die Version 1.1.0 der Spezifikation veröffentlicht, die auch als ANSI-Standard INCITS 469-2010 (American National Standards Institute) ratifiziert wurde. Der Hauptzweck der Spezifikation besteht darin, ein plattformneutrales Format für die Verteilung von Softwarepaketen bereitzustellen.

Plattformunabhängigkeit und Betriebssysteme

Ein Betriebssystem ist reine Software, während eine Plattform die Kombination zwischen dem Betriebssystem und der Art der Hardware ist, wie der CPU, auf der es ausgeführt wird. Java wurde so konzipiert, dass sie auf mehreren Hardwaretypen und Betriebssystemen ausgeführt werden kann. Durch die Plattformunabhängigkeit von Java, können Unternehmen mit mehreren Computertypen eine spezielle Anwendung einmal schreiben und von praktisch jedem verwenden lassen, anstatt mehrere Versionen desselben Programms schreiben, verteilen und warten zu müssen.

BYOD und Plattformunabhängigkeit

Mit BYOD können Unternehmen wie auch Lehrer allgemeine Funktionen, die in den meisten Mobilgeräten zu finden sind, nutzen. Es enthält u. a. Tools zur Datenorganisation und webbasierte Anwendungen. Kontinuierlich entstehen neue Funktionen und machen BYOD langfristig zu einem ausgesprochen nützlichen Produkt für die Technologieintegration. Mit der Konvergenz von weit verbreitetem Breitband und dem Wachstum von leistungsstarken, plattformunabhängigen webbasierten Werkzeugen, ist BYOD sowohl pädagogisch als auch unternehmensspezifisch wertvoll.

Kurz gesagt und in freier Übersetzung angegeben sind Laptops „Schoßrechner“. Es handelt sich um aufklappbare Computer, die in ihrer Leistung heute kaum einen Unterschied zum stationären PC aufweisen. In der Praxis verschwimmen die Begriffe Laptop und Notebook miteinander, da sie als gegenseitige Synonyme verwendet werden. Doch es gibt auch neben der Bezeichnung einige Unterschiede zwischen den mobilen Arbeitsplätzen.

Der oder das Laptop – was macht Laptops aus?

Grundsätzlich können Sie sowohl der, als auch das Laptop sagen. Beide Artikel vor der Gerätebezeichnung sind richtig. Doch was ist nun eigentlich ein Laptop und was muss der tragbare und aufklappbare Computer mitbringen, um sich von einem Notebook abzuheben? Fakt ist, dass der Begriff Laptop heute beinahe schon historisch anmutet. Doch es gibt sie nach wie vor, die Unterschiede zwischen dem aufklappbaren Computer und Notebooks oder Stand-PCs. Laptops sind in verschiedenen Größen erhältlich und mit einem großen Kontingent technischer Komponenten ausgestattet. Sie sind dementsprechend schwerer und verfügen über zahlreiche Anschlüsse. Wer Laptops beruflich nutzt, kann sich für ein entsprechend ausgestattetes und mit einem großen Bildschirm gefertigtes Gerät entscheiden. Im Fachhandel schaut Sie der Verkäufer bei der Frage nach einem Laptop meist fragend an und führt Sie zu den Notebooks, die deutlich kleiner sind. Doch selbst viele Hersteller machen keinen wirklichen Unterschied und verwenden die Begriffe Laptop und Notebook geräteübergreifend. Für Sie ist die Bildschirmgröße, sowie die Ausstattung von Relevanz. Hier übertrumpft der tragbare Computer jedes Notebook und ist daher eine gute Wahl für die berufliche, aber auch für die private Nutzung.

Notebook oder Laptop: Die Unterschiede im Überblick

Übersetzt heißt Notebook Notizbuch. Hieraus abgeleitet, ist das Notebook auch deutlich kleiner und leichter als ein Laptop. Optisch und in der Öffnungs- sowie der Verschließfunktion gibt es zwischen Notebooks und Laptops heute keinen wirklichen Unterschied. Als die ersten Notebooks aufkamen, waren sie technisch marginaler ausgestattet und hatten auch weitaus weniger Anschlüsse als ein Laptop. Was auch heute noch einen Unterschied aufzeigt ist die Größe. Ein Notebook ist leichter, da es über ein kleineres Display und meist über eine schlankere Form verfügt. Doch technisch kann es seinem größeren Bruder, dem Laptop, längst die Hand reichen. Wenn Sie nach einem tragbaren Gerät für Ihre tägliche Arbeit suchen, ist ein Laptop aufgrund der größeren Tastatur und dem größeren Bildschirm immer noch die bessere Wahl. Damit Ihr mobiler Arbeitsplatz die Augen nicht überanstrengt, sollten Sie sich für eine entsprechende Bildschirmgröße entscheiden. Tipp: Durch die Differenz in der Tastaturgröße kann es sein, dass Sie zum Beispiel auf einem Laptop schnell und sicher schreiben. Wechseln Sie zu einem kleineren Notebook, kann es in der Umstellungsphase zu einigen Problemen im freien 10-Finger-Schreiben kommen.

 

Können Laptops einen stationären Computer ersetzen?

Die Antwort lautet schlicht und einfach ja. Der PC – der klassische Personal Computer ist in vielen Büros und bei Selbstständigen heute nicht mehr zeitgemäß. Wenn Sie sich nicht an einen festen Ort für die Arbeit binden und flexibel bleiben wollen, ist ein Laptop immer die beste Lösung. Ein PC braucht einen Schreibtisch, auf dem die Tastatur, die Maus und der Monitor stehen. Unter dem Tisch befindet sich der eigentliche Personal Computer, also das Herzstück, in dem die gesamte Technik verbaut ist. Um eine Eingabe von der Tastatur auf den Bildschirm zu bringen, müssen alle Elemente miteinander verkabelt werden. Wenn Sie an Laptops arbeiten, ist das einzige Kabel die Stromzufuhr, mit der Sie den geräteinternen Akku bei Bedarf aufladen. Das heißt: Sie können ein Laptop überall mit hin nehmen, was mit einem stationären Computer nicht möglich ist. Auch wenn es heute bereits viele PCs mit WLAN gibt, erfolgt auch die Einspeisung meist noch über ein Kabel, die LAN-Verbindung.

Zeitgemäß und praktisch – ein mobiler Arbeitsplatz

Wenn von einem mobilen Arbeitsplatz gesprochen wird, handelt es sich immer um einen ortsungebundenen Arbeitsplatz mit flexibel einsatzbereiter Technik. Das heißt, dass Sie an einem Laptop arbeiten und somit Indoor wie Outdoor, im Inland und im Ausland überall einen Arbeitsplatz einrichten und beruflich tätig werden können. Ein Laptop können Sie ganz problemlos als stationären Arbeitsplatz nutzen. Dem gegenüber ist es mit einem konventionellen PC nicht möglich, mobil zu arbeiten und Ihr Arbeitsgerät an jedem beliebigen Ort aufzustellen. Wenn Sie mit einem aufklappbaren Computer am Schreibtisch sitzen, empfiehlt sich zugunsten der Ergonomie eine externe Tastatur. Auch eine Maus kann die Arbeit vereinfachen und beliebig an einem USB Anschluss oder als optische Maus mit dem Laptop verbunden werden. Gerade in einer Zeit, in der Homeoffice immer wichtiger und immer häufiger wird, gewinnen Laptops wieder mehr Beachtung. Die tragbaren vollausgestatteten Computer eignen sich für Ihr lokales Büro, für den Einsatz im Heimbüro und natürlich für Ihre Arbeit, die Sie im Sommer zum Beispiel auf der Terrasse verrichten. Technisch steht er dem PC in nichts nach.

Mit dem englischen Begriff Virtual Desktop Infrastructure (VDI) wird eine IT-Infrastruktur zur Zentralisierung und Virtualisierung der Funktionalitäten von Desktop-Rechnern bezeichnet. Durch den Einsatz von VDI lässt sich die Ausstattung der Desktop-Clients am Arbeitsplatz wesentlich reduzieren.

Allgemeine Informationen

Das Konzept der Desktop-Virtualisierung basiert auf dem Ansatz, sämtliche Funktionalitäten eines Arbeitsplatz-Rechners über ein zentrales System, wie beispielsweise Hyper-V, zur Verfügung zu stellen. Der Anwender benötigt am Arbeitsplatz lediglich einen Client, auf dem er den virtualisierten Desktop-PC aufruft. Die Bedienung gestaltet sich dabei wie bei einem gewöhnlichen Desktop-PC. Per Tastatur und Maus wird der Client gesteuert und die Ausgabe der grafischen Anzeige erfolgt lokal über den Monitor, während sämtliche Software-Komponenten auf einem zentralen Server ausgeführt werden.

Der Anwender befindet sich an einem anderen Ort als sein virtueller Desktop-PC. Die Übertragung aller Ein- und Ausgaben zwischen dem Client und Server wird über das Netzwerk realisiert. Der Zugriff auf eine Virtual Desktop Infrastructure (VDI) ist prinzipiell sowohl über das Internet als auch über ein lokales Netzwerk möglich. Um alle Funktionalitäten performant bereitstellen zu können, muss das Netzwerk bestimmte Mindestanforderungen in Bezug auf die Bandbreite und Latenz erfüllen. Im Kontext einer Virtual Desktop Infrastructure wird der Client als Terminal und der Server als Terminal-Server bezeichnet. Die Protokolle, über die die gesamte Kommunikation realisiert wird, sind bei den meisten Systemen proprietär und unterscheiden sich von Anbieter zu Anbieter. Eines der bekannteren Protokolle ist zum Beispiel das Remote Desktop Protocol (RDP), das von Microsoft entwickelt wird.

Bekannte Systeme

Auf dem Markt gibt es eine Vielzahl von Herstellern die unterschiedliche Virtual Desktop Infrastructure-Systeme anbieten. Neben kostenpflichtigen Lösungen sind auch Open Source-Lösungen für die Virtualisierung der Desktop-Infrastruktur samt Clients erhältlich. Die bekanntesten kommerziellen VDI Systeme werden von folgenden Herstellern entwickelt:

–       HP

–       Fujitsu

–       Microsoft

–       Dell

–       Citrix

–       VMWare

–       ViewSonic

–       VXL Instruments

Frei verfügbare VDI-Lösungen auf Open Source-Basis sind beispielsweise:

–       QVD Community Edition

–       Linux Terminal Server Project

Die verschiedenen Client-Arten im Überblick

Im Rahmen einer Virtual Desktop Infrastructure können unterschiedliche Arten von Clients eingesetzt werden. Grundsätzlich werden drei verschiedene Client-Typen unterschieden. Eine eindeutige Abgrenzung zwischen den einzelnen Typen existiert jedoch nicht:

–       Zero Client

–       Thin Client

–       Thick Client

Der Zero Client

Bei dem sogenannten Zero Client handelt es sich um ein maximal abgespecktes Gerät. Zero Clients sind prinzipiell ohne Eingriff eines Administrators einsatzfähig. Eine individuelle Anpassung  des Zero Clients für den Fernzugriff ist nicht nötig. Sobald der Zero Client an das Netzwerk angebunden und mit einer Maus und Tastatur verbunden ist, kann er als virtueller Desktop eingesetzt werden. Die meisten Zero Clients setzen sich aus einem sehr kleinen Computergehäuse zusammen, das sich mit dem Monitor, der Maus und Tastatur sowie dem Netzwerk verbinden lässt. Weitere charakteristische Merkmale eines Zero Clients sind:

–       kein Konfigurationsaufwand und eine simple Administration

–       auf dem Zero Client befindet sich keine oder nur Minimalsoftware

–       aufgrund der abgespeckten Hardware sind die Anschaffungskosten geringer als bei den anderen beiden Client-Varianten

–       ein geringer Stromverbrauch

Der Thin Client

Thin Clients kommen für die Darstellung virtueller Desktops zum Einsatz. Solche Clients sind mit leistungsschwächerer Hardware ausgestattet und sind i auf die wichtigsten Komponenten zur Ausführung des virtuellen Desktops ausgerichtet. Oft werden bei solchen Geräten keine Massenspeicher oder CD-/DVD-Laufwerke eingesetzt. Da der Hauptprozessor und andere Hardwarekomponenten aufgrund der geringen Leistung wenig Wärme produzieren, arbeiten Thin Clients in der Regel ohne aktive Kühlung und  völlig geräuschlos. Dies wirkt sich äußerst positiv auf die Nutzungsdauer aus, weswegen die Hardware seltener ersetzt werden muss.

Der Thick Client

Bei einem Thick Client handelt es sich um einen voll ausgestatteten PC, auf dem ein Software-Paket zur Darstellung der virtuellen Desktop-Umgebung installiert ist. Konkret bedeutet das, dass der Thick Client sowohl über einen eigenen Desktop als auch über einen Remote-Desktop verfügt. Der wesentliche Vorteil eines solchen Clients ist, dass er sowohl für virtuelle Desktop-Anwendungen als auch für lokal betriebene Anwendungen gleichermaßen gut nutzbar ist. Ein bedeutender Nachteil spiegelt sich jedoch in der Tatsache wider, dass viele Vorteile einer VDI Infrastruktur durch den Einsatz eines Thick Clients verloren gehen.

Vorteile einer VDI Infrastruktur im Überblick

Durch den Prozess der Virtualisierung und Zentralisierung der Desktop-PCs ergeben sich zahlreiche Vorteile. Die zentrale Bereitstellung der Desktop-Services vereinfacht deren Administration und Konfiguration. Updates lassen sich auf diese Weise schnell und einfach einspielen und mit wesentlich weniger Aufwand als in traditionellen LANs durchführen. Des Weiteren können Inkompatibilitäten oder auftretende Probleme dank virtueller Server an einer zentralen Stelle analysiert und gelöst werden. Viele Bereitstellungsprozesse der Desktop-Funktionalitäten sowie Backup-Services lassen sich automatisieren und dadurch wesentlich vereinfachen.

Die bedeutendsten Vorteile einer Virtual Desktop Infrastructure ergeben sich in erster Linie durch den Einsatz weniger aufwendiger Client. Dadurch kann man auch vollwertige PCs mit Komplettausstattung verzichten, die in der Regel viel teurer als die entsprechenden Client-Lösungen sind. Darüber hinaus wird die Verflechtung zwischen Software- und Hardwareanwendungen aufgehoben, sodass ein Austausch der Clients aufgrund neuer Software- oder Hardwareanforderungen überflüssig wird. Die Clients weisen dadurch eine deutlich höhere Nutzungsdauer auf.

Bei Hardwarestörungen muss der Administrator das Problem nicht mehr lokal vor Ort beim Nutzer beheben, sondern die Probleme lassen sich an einem zentralen Server beheben. Auch das Einspielen bzw. Zurückspielen von Updates sowie das Wiederherstellen gelöschter Daten werden zentral realisiert. Da die gesamte Infrastruktur für den professionellen Einsatz ausgelegt ist, erhöht sich die Verfügbarkeit der virtuellen Clients deutlich und ist im direkten Vergleich zu traditionellen Desktops um ein Vielfaches höher. Des Weiteren sollten die Vorteile der VDI Infrastruktur auch in Sachen Ressourcenschonung sowie Energieeffizienz keinesfalls vernachlässigt werden.

Der Begriff Disaster Recovery (DR) bezieht sich auf unterschiedliche Maßnahmen, mit denen die Wiederaufnahme des IT-Betriebs nach einem Katastrophen- oder Störungsfall sichergestellt wird. Die Disaster Recovery beinhaltet unterschiedliche Maßnahmen und Prozesse, um beispielsweise geschäftskritische Daten oder IT-Infrastrukturen schnellstens wiederherzustellen.

Allgemeine Informationen

Dsaster Recovery ist ein wichtiger Bestandteil der Sicherheitsplanung und beschäftigt sich in erster Linie mit der Wiederherstellung wichtiger IT-Dienstleistungen und Daten nach einem Störungsfall. Die Störungen können durch diverse Ausfälle und Ereignisse verursacht werden, wie beispielsweise Hardware-Ausfälle, Naturkatastrophen, Hackerangriffe oder Bedienungsfehler. Das Ziel solcher Wiederherstellungs-Maßnahmen ist es, die negativen Auswirkungen für eine Organisation oder ein Unternehmen zu minimieren. Im Rahmen der Disaster Recovery-Maßnahmen werden zum Beispiel, Server oder Netzwerke wiederhergestellt.

Der Begriff Disaster Recovery ist englischen Ursprungs und bedeutet in die deutsche Sprache übersetzt so viel wie Notfallwiederherstellung oder Notfallplan. In vielen Fällen werden die beiden Begriffe Business Continuity und Disaster Recovery synonym verwendet. Business Continuity ist jedoch umfassender, da es hier nicht nur um die Wiederherstellung von IT-Infrastrukturen geht, sondern auch um die Aufrechterhaltung wichtiger Geschäftsprozesse. Der Fokus von Business Continuity liegt also primär auf der Sicherstellung der geschäftlichen Prozesse. Technische Maßnahmen, die im Rahmen der Disaster Recovery zum Einsatz kommen, sind:

–       Datensicherung

–       Redundanzen

–       Zurverfügungstellung von Ersatzhardware

Durch den Einsatz dieser Maßnahmen sollen sogenannte „Single Point of Failures“ möglichst gut vermieden werden.

Der Disaster Recovery Plan

Der Disaster Recovery Plan (DRP) umfasst alle Verfahren, Vorgaben und Maßnahmen, wie man in einem Störungsfall reagieren sollte, um die Auswirkungen des Ausfalls auf das Unternehmen zu minimieren. Die in dem DRP enthaltenen Maßnahmen sind so konzipiert, dass sie schrittweise durch die Verantwortlichen abgearbeitet werden müssen. Des Weiteren sind im DRP Eskalationsstufen, Meldewege und Definitionen der Verantwortlichkeiten zusammengefasst, die im Notfall umgesetzt werden müssen.

Der Disaster Recovery Test

Mit einem Disaster Recovery Test lässt sich die Effizienz überprüfen und genau analysieren. Damit kann man sicherstellen, dass im Fall einer Störung die unterschiedlichen Maßnahmen und Prozesse des DRPs die Wiederherstellung der IT-Infrastruktur ermöglichen. Die Ergebnisse aus den Tests können bei Bedarf in bestehende Verfahren und Prozesse eingebunden werden, um diese zu optimieren. Mit regelmäßigen Tests können Unternehmen die Pläne auf dem aktuellsten Stand halten und schulen zudem auf diese Weise die Mitarbeiter, wie sie im Notfall reagieren sollten.

Recovery Time Objective und Recovery Point Objective

Bei Recovery Time Objective (RTO) und Recovery Point Objective (RPO) handelt es sich um wichtige Kennwerte, die im Rahmen der Notfallwiederherstellung eine äußerst bedeutende Rolle spielen. Recovery Time Objective gibt beispielsweise Auskunft darüber, wie lange ein IT-System oder ein IT-Service ausfallen darf, ohne einen größeren Einfluss auf die Geschäftsprozesse zu haben. Konkret handelt es sich dabei um den Zeitraum zwischen dem ersten Auftreten der Störung und der Wiederherstellung des IT-Systems oder der IT-Services. Die Zeiträume können dabei zwischen einigen Sekunden und mehreren Tagen oder sogar Wochen betragen. Recovery Point Objective gibt hingegen die Antwort auf die Frage, wie viel Datenverlust man hinnehmen kann. Dabei handelt es sich um die zeitliche Periode, die zwischen zwei Datensicherungen vergehen darf. Je niedriger die Recovery Point Objective ist, umso besser ist es.

Disaster Recovery as a Service (DRaaS)

DRaaS baut auf der Cloud-Infrastruktur auf und nutzt Funktionalitäten aus der Cloud, mit denen sich im Notfall wichtige IT-Systeme wiederherstellen lassen. Bei diesem Angebot stellt ein Provider einen Backup von Daten, Cloud-Speicherplatz für einen Online Backup, virtualisierte IT-Strukturen oder virtuelle Server als Cloud-Angebot zur Verfügung. Damit kann man das Unternehmen vor Notfällen absichern, ohne zusätzliche Hardware- und Software-Lösungen in einem eigenen Rechenzentrum betreiben zu müssen. DRaaS ist in erster Linie auf die Anforderungen von kleineren und mittleren Unternehmen ausgerichtet, die in vielen Fällen nicht über das nötige Fachwissen und die Ressourcen verfügen, um eigene Notfallmaßnahmen optimal umzusetzen.

Bei Power over Ethernet (PoE) handelt es sich um ein Verfahren, das die elektrische Stromversorgung von netzwerkfähigen Geräten wie WLAN-Controller oder Hardware-Firewall über ein gewöhnliches Ethernet Kabel ermöglicht. Durch den Einsatz dieses Standards können Sie auf separate Verkabelungen zur Energieversorgung einzelner Geräte komplett verzichten. Im Rahmen des PoE-Standards existieren verschiedene Spezifikationen, die unterschiedliche Maximalleistungen zulassen.

Allgemeine Informationen

PoE steht für Power over Ethernet. Damit wird ein komplexes Verfahren aus dem Bereich der Netzwerktechnik beschrieben, mit dem sich der für den Betrieb von Netzwerkgeräten benötigte Strom über ein Netzwerkkabel zur Verfügung stellen lässt. Im Rahmen des PoE-Standards überträgt das Ethernet-Kabel nicht nur den gesamten Datenverkehr, sondern auch den elektrischen Strom. Für Power over Ethernet gibt es unterschiedliche Standards. Je nach definiertem Standard werden unterschiedliche maximale Leistungen ermöglicht. Durch den Einsatz von PoE können Sie auf den Einsatz eines separaten Stromanschlusses verzichten, sodass der Aufwand für die Installation deutlich geringer ausfällt als bei netzwerkfähigen Geräten mit herkömmlichen Netzwerkkabel. Diese Technik wird häufig für die Versorgung von abgesetzten Geräten eingesetzt, wie beispielsweise Webcams, WLAN-Access Points oder Überwachungskameras, die in vielen Fällen an unzugänglichen Stellen installiert werden. Die zwei wichtigsten Standards, die innerhalb von PoE zum Einsatz kommen, sind:

–       IEEE 802.3af

–       IEEE 802.3at

Bei IEEE 802.3at handelt es sich um einen PoE-Standard, bei dem die beiden freien Adernpaare in 10Base-T- und 100Base-TX-Ethernet-Kabeln für die Stromübertragung genutzt werden. Die Spannung auf den beiden Kabeln ist begrenzt und beträgt im Normalfall bis zu 48 Volt bei einer Maximalleistung von 15,4 Watt. Durch den Einsatz einer relativ hohen Spannung ist es möglich, die Verlustleistung und die Wärmeentwicklung in den Kabeln auf einem geringen Niveau zu halten.

Im direkten Vergleich zu IEEE 802.3af ermöglicht der IEEE 802.3at-Standard den Einsatz höherer Leistungen. Hier kommen die sogenannten „Endspan-“ und „Midspan- Versorgungsmethoden“ zum Einsatz. Im Rahmen der Endspan-Methode kümmert sich der PoE-Switch um die direkte Versorgung, während bei der Midspan-Methode zwischengeschaltete Quellen, wie zum Beispiel PoE-Injektoren, für die Stromversorgung genutzt werden.

Um Strom über Ethernet zu übertragen, kommen zwei unterschiedliche Varianten zum Einsatz. Bei der ersten Variante handelt es sich um die sogenannte „Fernspeisung“. Diese Variante überträgt den Strom über die Adernpaare, die auch für die Übertragung von Daten genutzt werden. Die andere Variante wird als „Spare-Pair-Speisung“ bezeichnet und benutzt ausschließlich ungenutzte Adernpaare.

Welche Vorteile bietet PoE?

Da mittels Power over Ethernet sowohl die Daten- als auch die Stromübertragung über ein einziges Ethernet-Kabel möglich sind, lassen sich auf diese Weise Kosten für die Anschaffung und den Betrieb mehrerer Kabel einsparen. Hinzu kommt noch, dass die Installation neuer oder die Erweiterung bestehender Netzwerke, wesentlich günstiger ist, da Sie keine zusätzlichen Stromleitungen installieren müssen. Netzwerkgeräte lassen sich so auch an unzugänglichen Stellen installieren, an denen es sonst sehr umständlich wäre, zusätzliche Stromkabel zu verlegen. Dank der zentralen Stromverteilung über Switches können Sie auf externe Netzteile und Netzadapter verzichten. Alle modernen Power over Ethernet-Switches lassen sich mit redundanten Netzteilen ausrüsten, was sich äußerst positiv auf die Verfügbarkeit des Netzwerks und der angeschlossenen Netzwerkgeräte auswirkt.

Netzwerkgeräte mit Unterstützung für Power over Ethernet

Um Schäden an Netzwerkgeräten zu vermeiden, sollten Sie alle angeschlossenen Netzwerkgeräte auf Kompatibilität zu PoE untersuchen. Falls Sie PoE beispielsweise mit IP-Telefonie einsetzen möchten, können Spannungen auf den Adernpaaren nicht kompatible Geräte schwer beschädigen und unter Umständen auch zerstören. Aus diesem Grund sollten Sie die Spannung nur dann einschalten, wenn alle Netzwerkgeräte Power over Ethernet unterstützen.

 

Geräte, die über Power over Ethernet mit Strom versorgt werden, sind in bestimmte Klassen eingeteilt. Die gängigen Klassen für PoE-Geräte sind die Klassen von 0 bis 4. In direkter Relation dazu, wie viel Strom ein Netzwerkgerät voraussetzt, ist es einer bestimmten Klasse zugeordnet. Durch den Einsatz definierter Spezifikationen und Verfahren wird die exakte Menge an Strom über das Ethernet-Kabel übermittelt. Dadurch wird stets die richtige Menge an Strom bereitgestellt. Die gängigsten Geräte, die über PoE betrieben werden, sind:

–       VOIP-Geräte (Voice Over IP)

–       WLAN-Access Points

–       WLAN-Controller

–       WLAN-Extender

Herausforderungen bei Power over Ethernet

Obwohl das PoE-Verfahren zahlreiche Vorteile mit sich bringt, gibt es auch einige Herausforderungen, mit denen Sie rechnen müssen. Je mehr Strom über ein Ethernet-Kabel übertragen wird, umso mehr Wärme wird im Kabel generiert. Bei einem stark erwärmten Kabel kann es dazu kommen, dass die zusätzliche Dämpfung auf die Übertragung der Daten beeinträchtigt. Aus diesem Grund sollten Sie nicht immer mit den maximalen Datenübertragungsraten rechnen, sondern die maximale Übertragungsleistung an die jeweiligen Temperaturbedingungen anpassen. Die Spezifikationen der jeweiligen PoE-Klassen geben genau an, mit welchem Temperaturanstieg Sie beispielsweise bei dem Einsatz von PoE++ (4PPoE) rechnen müssen. Bei einem gewöhnlichen U/UTP-Netzwerkkabel sollten Sie beispielsweise mit einer Erwärmung bis zum fünffachen Faktor des Kabels rechnen. Ein Kabel, das gut geschirmt ist, weist eine Erwärmung von einem dreifachen Faktor auf. Dies ist darauf zurückzuführen, da die Metallschirmung im Inneren hilft, die Wärme nach außen zu transportieren.

Ein weiterer Nachteil von PoE spiegelt sich im Spannungsabfall bei längeren Ethernet-Kabeln wider. Je länger das Kabel ist, desto höher ist der Spannungsabfall und umso weniger Leistung kommt am Endgerät an.

Hinter dem Begriff Plesk verbirgt sich eine Distribution für Webserver. Die Distribution arbeitet mit verschiedenen Plattformen zusammen. Dazu gehören Unix und Windows. Der Hersteller ist die Plesk International GmbH. Diese ging aus der Firma Parallels Inc. hervor. Der Geschäftsbereich für die Serviceprovider ist auch unter der Bezeichnung Odin bekannt. Für Webhoster ist die Distribution kostenpflichtig. Sie findet bei vielen Dienstleistern im Internet ihren Einsatz.

Plesk – einfache Verwaltung von Servern für den Nutzer

Die Distribution richtet sich an Internetdienstleister, die eine einfach zu bedienende Verwaltung für ihre Server suchen. Plesk erlaubt dem User eine Verwaltung von Servern, ohne das spezifische Kenntnisse über ein Betriebssystem vorliegen. Im Hintergrund laufen bei der Verwaltung der Server Vorgänge ab, die sehr komplex sind und die in der Regel Fachwissen erfordern. Mit Plesk ist es möglich, die Server ohne diese Fachkenntnisse zu konfigurieren. Dies erlaubt dem User beispielsweise, einen Mail- oder einen Webserver einzurichten, ohne dafür einen professionellen Dienstleister zu beauftragen. Das ist in der täglichen Arbeit sehr praktisch, denn mit Plesk können Sie viele Bereiche der Konfiguration selbst übernehmen.

Plesk – Komplexes System für verschiedene Anforderungen

Plesk ist ein einfach zu bedienendes, aber dennoch komplexes System, von dem Sie auf verschiedene Weise profitieren. Um die Zusammenhänge zu verstehen, ist es wichtig, dass Sie einige Begrifflichkeiten kennen und einordnen können. Unabhängig von der Ausrichtung ist die Präsenz im Internet für ein Unternehmen sehr wichtig. Sie sollten mit einer Webseite und einer E-Mail-Adresse im Netz erreichbar sein. Viele Kunden informieren sich nicht mehr auf den klassischen analogen Wegen, sondern im Internet. Mit Plesk ist es möglich, die wesentlichen Funktionen auch ohne Vorkenntnisse zu steuern.

Webserver

Der Webserver ist die Festplatte, auf der alle Daten gespeichert sind, die Sie im Internet abrufen. Das Protokoll, mit dem der Webserver arbeitet, ist HTML. Wenn Sie selbst oder Ihre Kunden eine Anfrage in das Internet senden, erfolgt eine automatische Umleitung an den Webserver. Die Beantwortung Ihrer Anfrage erfolgt dann anhand der Informationen, die auf dem Server gespeichert sind. Dabei spielt es keine Rolle, ob Sie in einem sozialen Netzwerk agieren oder eine E-Mail schreiben. Ohne Webserver könnten Sie die Informationen nicht abrufen.

Postfix

Postfix ist eine sogenannte freie Software. Die Bezeichnung beruht auf der Tatsache, dass der Quellcode der Software offen liegt. Programmierern ist der Quellcode bekannt. So ist es möglich, Änderungen und Anpassungen vorzunehmen.

Bereits im Jahre 1998 wurde Postfix als Alternative zu Sendmail entwickelt. Es handelt sich um eine Distribution, die auf Unix und Linux basiert. Der Mail Transfer Agent ist für alle Betriebssysteme geeignet, die auf der Basis von Linux oder Unix arbeiten. Im direkten Vergleich zu Sendmail ist Postfix einfacher zu bedienen und auch weniger anfällig für Sicherheitslücken.

Qmail

Hinter Qmail verbirgt sich ein Mailserver, der für Linux-Systeme entwickelt wurde. Die Entwicklung erfolgte durch den Programmierer und Professor Dan Bernstein. Er entwickelte das neue System, weil er mit den bestehenden Systemen unzufrieden war.

Was ist ein Betriebssystem?

Das Betriebssystem ist die Basis, auf der ein Computer arbeitet. Betriebssysteme gibt es für PCs, Smartphone und Laptops. Sie bilden quasi die Plattform für alle Aufgaben und Befehle, die der User ausführt. Im Betriebssystem sind verschiedene Programme enthalten. Weitere können kostenpflichtig oder kostenlos geladen werden. So haben Sie die Möglichkeit, das System auf Ihren individuellen Bedarf anzupassen.

Windows

Windows ist ein Betriebssystem, das von der amerikanischen Softwarefirma Microsoft unter Bill Gates entwickelt wurde. Weltweit arbeiten die meisten Computer auf der Basis von Windows. In den vergangenen Jahrzehnten ist Windows in verschiedenen Versionen auf den Markt gekommen. Die Versionen wurden an die Entwicklung der Technik und die Bedürfnisse der User angepasst. Bei den gewerblich genutzten Computern arbeiten weltweit mehr als 90 Prozent mit dem Betriebssystem Windows.

Unix

Unix ist ein Betriebssystem für Computer, der bereits im Jahre 1969 entwickelt wurde. Es handelt sich um ein sogenanntes Mehrbenutzer-Betriebssystem. Heute gilt es als eines der Betriebssysteme, die am weitesten verbreitet sind. Es gibt viele verschiedene Entwicklungen, die auf dem Unix-System basieren. Eines der bekanntesten Unix-basierten Betriebssysteme ist MacOS.

Linux

Linux ist ein Betriebssystem, das als besonders stabil und sicher gilt. Es gehört zu den nachweisbaren Fakten über Linux, dass mehr als 85 Prozent der Computer mit sehr hoher Leistung weltweit mit Linux arbeiten. Vor allem die Schnelligkeit des Betriebssystems ist ein Grund dafür, dass Linux häufig in Hochleistungsrechnern Anwendung findet. Ein weiterer Vorteil ist, dass Linux in der Anschaffung sehr günstig ist. Dies gilt nicht nur für das Betriebssystem selbst, sondern auch für die Hardware. Wenn Sie die Systemvoraussetzungen mit Windows vergleichen, brauchen Sie nur einen Bruchteil der Anforderungen umzusetzen. Das Betriebssystem selbst können Sie kostenlos aus dem Internet laden. Dies ist vor allem für Einsteiger ein wichtiger Aspekt. Wenn Sie ein günstiges und leistungsfähiges System suchen, ist Linux die beste Wahl.