Bei Power over Ethernet (PoE) handelt es sich um ein Verfahren, das die elektrische Stromversorgung von netzwerkfähigen Geräten wie WLAN-Controller oder Hardware-Firewall über ein gewöhnliches Ethernet Kabel ermöglicht. Durch den Einsatz dieses Standards können Sie auf separate Verkabelungen zur Energieversorgung einzelner Geräte komplett verzichten. Im Rahmen des PoE-Standards existieren verschiedene Spezifikationen, die unterschiedliche Maximalleistungen zulassen.

Allgemeine Informationen

PoE steht für Power over Ethernet. Damit wird ein komplexes Verfahren aus dem Bereich der Netzwerktechnik beschrieben, mit dem sich der für den Betrieb von Netzwerkgeräten benötigte Strom über ein Netzwerkkabel zur Verfügung stellen lässt. Im Rahmen des PoE-Standards überträgt das Ethernet-Kabel nicht nur den gesamten Datenverkehr, sondern auch den elektrischen Strom. Für Power over Ethernet gibt es unterschiedliche Standards. Je nach definiertem Standard werden unterschiedliche maximale Leistungen ermöglicht. Durch den Einsatz von PoE können Sie auf den Einsatz eines separaten Stromanschlusses verzichten, sodass der Aufwand für die Installation deutlich geringer ausfällt als bei netzwerkfähigen Geräten mit herkömmlichen Netzwerkkabel. Diese Technik wird häufig für die Versorgung von abgesetzten Geräten eingesetzt, wie beispielsweise Webcams, WLAN-Access Points oder Überwachungskameras, die in vielen Fällen an unzugänglichen Stellen installiert werden. Die zwei wichtigsten Standards, die innerhalb von PoE zum Einsatz kommen, sind:

–       IEEE 802.3af

–       IEEE 802.3at

Bei IEEE 802.3at handelt es sich um einen PoE-Standard, bei dem die beiden freien Adernpaare in 10Base-T- und 100Base-TX-Ethernet-Kabeln für die Stromübertragung genutzt werden. Die Spannung auf den beiden Kabeln ist begrenzt und beträgt im Normalfall bis zu 48 Volt bei einer Maximalleistung von 15,4 Watt. Durch den Einsatz einer relativ hohen Spannung ist es möglich, die Verlustleistung und die Wärmeentwicklung in den Kabeln auf einem geringen Niveau zu halten.

Im direkten Vergleich zu IEEE 802.3af ermöglicht der IEEE 802.3at-Standard den Einsatz höherer Leistungen. Hier kommen die sogenannten „Endspan-“ und „Midspan- Versorgungsmethoden“ zum Einsatz. Im Rahmen der Endspan-Methode kümmert sich der PoE-Switch um die direkte Versorgung, während bei der Midspan-Methode zwischengeschaltete Quellen, wie zum Beispiel PoE-Injektoren, für die Stromversorgung genutzt werden.

Um Strom über Ethernet zu übertragen, kommen zwei unterschiedliche Varianten zum Einsatz. Bei der ersten Variante handelt es sich um die sogenannte „Fernspeisung“. Diese Variante überträgt den Strom über die Adernpaare, die auch für die Übertragung von Daten genutzt werden. Die andere Variante wird als „Spare-Pair-Speisung“ bezeichnet und benutzt ausschließlich ungenutzte Adernpaare.

Welche Vorteile bietet PoE?

Da mittels Power over Ethernet sowohl die Daten- als auch die Stromübertragung über ein einziges Ethernet-Kabel möglich sind, lassen sich auf diese Weise Kosten für die Anschaffung und den Betrieb mehrerer Kabel einsparen. Hinzu kommt noch, dass die Installation neuer oder die Erweiterung bestehender Netzwerke, wesentlich günstiger ist, da Sie keine zusätzlichen Stromleitungen installieren müssen. Netzwerkgeräte lassen sich so auch an unzugänglichen Stellen installieren, an denen es sonst sehr umständlich wäre, zusätzliche Stromkabel zu verlegen. Dank der zentralen Stromverteilung über Switches können Sie auf externe Netzteile und Netzadapter verzichten. Alle modernen Power over Ethernet-Switches lassen sich mit redundanten Netzteilen ausrüsten, was sich äußerst positiv auf die Verfügbarkeit des Netzwerks und der angeschlossenen Netzwerkgeräte auswirkt.

Netzwerkgeräte mit Unterstützung für Power over Ethernet

Um Schäden an Netzwerkgeräten zu vermeiden, sollten Sie alle angeschlossenen Netzwerkgeräte auf Kompatibilität zu PoE untersuchen. Falls Sie PoE beispielsweise mit IP-Telefonie einsetzen möchten, können Spannungen auf den Adernpaaren nicht kompatible Geräte schwer beschädigen und unter Umständen auch zerstören. Aus diesem Grund sollten Sie die Spannung nur dann einschalten, wenn alle Netzwerkgeräte Power over Ethernet unterstützen.

 

Geräte, die über Power over Ethernet mit Strom versorgt werden, sind in bestimmte Klassen eingeteilt. Die gängigen Klassen für PoE-Geräte sind die Klassen von 0 bis 4. In direkter Relation dazu, wie viel Strom ein Netzwerkgerät voraussetzt, ist es einer bestimmten Klasse zugeordnet. Durch den Einsatz definierter Spezifikationen und Verfahren wird die exakte Menge an Strom über das Ethernet-Kabel übermittelt. Dadurch wird stets die richtige Menge an Strom bereitgestellt. Die gängigsten Geräte, die über PoE betrieben werden, sind:

–       VOIP-Geräte (Voice Over IP)

–       WLAN-Access Points

–       WLAN-Controller

–       WLAN-Extender

Herausforderungen bei Power over Ethernet

Obwohl das PoE-Verfahren zahlreiche Vorteile mit sich bringt, gibt es auch einige Herausforderungen, mit denen Sie rechnen müssen. Je mehr Strom über ein Ethernet-Kabel übertragen wird, umso mehr Wärme wird im Kabel generiert. Bei einem stark erwärmten Kabel kann es dazu kommen, dass die zusätzliche Dämpfung auf die Übertragung der Daten beeinträchtigt. Aus diesem Grund sollten Sie nicht immer mit den maximalen Datenübertragungsraten rechnen, sondern die maximale Übertragungsleistung an die jeweiligen Temperaturbedingungen anpassen. Die Spezifikationen der jeweiligen PoE-Klassen geben genau an, mit welchem Temperaturanstieg Sie beispielsweise bei dem Einsatz von PoE++ (4PPoE) rechnen müssen. Bei einem gewöhnlichen U/UTP-Netzwerkkabel sollten Sie beispielsweise mit einer Erwärmung bis zum fünffachen Faktor des Kabels rechnen. Ein Kabel, das gut geschirmt ist, weist eine Erwärmung von einem dreifachen Faktor auf. Dies ist darauf zurückzuführen, da die Metallschirmung im Inneren hilft, die Wärme nach außen zu transportieren.

Ein weiterer Nachteil von PoE spiegelt sich im Spannungsabfall bei längeren Ethernet-Kabeln wider. Je länger das Kabel ist, desto höher ist der Spannungsabfall und umso weniger Leistung kommt am Endgerät an.

Das Akronym „PC“ (Abkürzung für Personal Computer) hat vermutlich jeder schon tausendmal gehört und selbst verwendet. Doch wodurch unterscheidet sich ein PC von anderen Rechnerarten und was zeichnet ihn aus?

Wodurch zeichnet sich ein PC aus?

Ein Personal Computer ist ein Mikrocomputer, der für den persönlichen und individuellen Gebrauch gedacht ist. Im Gegensatz zu den frühen Vorläufern des PCs können heutige Personal Computer auch von Laien bedient werden. Der Gebrauch ist somit nicht nur Technikern, Wissenschaftlern und anderen Experten vorbehalten. Man findet PCs sowohl in Privathaushalten wie auch in Büros bzw. generell an Arbeitsplätzen. PCs zeichnen sich durch handliche Größe und einfache Bedienbarkeit aus. Da es sich beim PC grundsätzlich um einen Mehrzweckcomputer handelt, lässt sich dessen Funktionalität nicht exakt definieren und eingrenzen. Je nach Betriebssystem und installierter Software kann er zum Beispiel zum Beispiel für Office-Anwendungen, PC-Spiele, CAD-/CAM-Anwendungen oder für das Surfen im Internet genutzt werden.

Wie ist ein PC aufgebaut?

Typischerweise verfügt ein moderner PC über folgende elf Komponenten: Hauptplatine, CPU, Prozessorkühler, Arbeitsspeicher, Grafikkarte, Netzteil, Festplattenlaufwerk, optisches Laufwerk, Monitor, Tastatur und Maus. Auf der Hauptplatine – dem Motherboard – sind die zentralen Bauteile des PCs montiert. Der Hauptprozessor – die CPU – ist die zentrale Verarbeitungseinheit für die Steuerung und Ausführung von Befehlen. Der Prozessorkühler ist ein Kühlungssystem und Lüftungssystem für den Prozessor. Er verhindert die Überhitzung des Systems. Der Arbeitsspeicher ist ein Teil der CPU (Central Processing Unit). Er enthält alle Daten, welche für die aktuell auszuführenden Programme benötigt werden. Die Grafikkarte ist beim PC für die Umwandlung von Daten in Bilder zuständig. Das Netzteil versorgt den Personal Computer mit Strom. Das Festplattenlaufwerk (bzw. seit 2007 der SSD) ist ein nicht-flüchtiger Speicher, auf dessen rotierender, scheibenförmiger Oberfläche lesbare Daten gespeichert werden. Das optische Laufwerk ermöglicht den Zugriff auf optische Datenträger wie etwa DVDs.

Der Monitor dient der Darstellung der Benutzeroberfläche. Die Tastatur ist ein Steuerelement und Bedienelement, mit dessen Hilfe der Benutzer dem Personal Computer im weiteren Sinne Befehle erteilt. Sie besitzt insbesondere als Eingabegerät für Zahlen und Buchstaben eine große Bedeutung. Auch die Maus ist ein Eingabegerät. Sie ermöglicht dem Benutzer die Ausführung von Aktionen im Betriebssystem oder in der Anwendungssoftware.

Apple I – der erste PC der Welt

Die Fachwelt ist sich mittlerweile einig, dass der Apple I als erster PC der Welt anzusehen ist. Zwar erfüllten auch einige Vorläufer die Voraussetzungen, um als Personal Computer zu gelten, aber erst der Apple I ermöglichte Privatanwendern die preisgünstige Ausführung von Computerprogrammen und Anwendungen. Der Apple I kam im Jahr 1976 auf den Markt und verfügte bereits damals über eine Tastatur und einen handlichen Monitor.

In den 80er Jahren begann der Boom der Heimcomputer

In den 80er Jahren nahm die Entwicklung der als Heimcomputer genutzten PCs deutlich an Fahrt auf. Modelle wie der Commodore C64 und der Amiga 500 wurden tausendfach (später millionenfach) verkauft und machten den PC zu einem Standardgerät in Privathaushalten. Parallel dazu verbesserte sich auch die Leistung der als Bürogerät oder Arbeitsgerät genutzten PCs nach und nach.

Merkmale und Bauformen moderner Personal Computer

Zu den zentralen Aufgaben moderner Personal Computer gehören Textverarbeitung, Tabellenkalkulation und Multimedia-Anwendungen. Mittlerweile gibt es auch spezielle Gaming-PCs, die über extrem leistungsfähige Grafikkarten und eine herausragende Rechnerleistung verfügen. Zu den bekanntesten PC Betriebssystemen gehören Windows, Linux und Mac OS. Die wichtigsten Bauformen sind Desktop PC, Laptop und Tablet.

Welche Aufgaben hat das Betriebssystem eines PCs?

Das Betriebssystem eines PCs erfüllt mehrere Aufgaben. Es verwaltet und kontrolliert die Hardware, es vermittelt zwischen der Hardware und den Anwendungsprogrammen und es schafft eine einheitliche Oberfläche für die zusätzliche Installation von Software. Das Betriebssystem ist die Basis jedes PCs. Es wird – vor den Anwendungsprogrammen – als erstes Softwareprogramm auf dem PC installiert und ermöglicht dem Benutzer einen standardisierten Zugriff auf alle Hardware-Ressourcen und Programme.

Windows – das wichtigste PC Betriebssystem

Windows ist ein von Microsoft entwickeltes und herausgegebenes Betriebssystem für Server und PCs. Ursprünglich lediglich eine Benutzeroberfläche, entwickelte sich Windows im Laufe der Zeit zum wichtigsten Betriebssystem für Personal Computer weltweit. So ermöglichte zum Beispiel das im Jahr 1995 erschienene Betriebssystem Windows 95 einer breiten Bevölkerungsschicht erstmals den Zugang zu Computern und zum Internet. Windows gilt trotz einiger Sicherheitslücken als enorm stabile Plattform. 9 von 10 Desktop PCs sind mit Windows ausgestattet.

Ist der Mac eine gute Alternative zum Windows PC?

Viele Benutzer, die dem Unternehmen Microsoft oder dem Betriebssystem Windows abgeneigt sind, wählen als Alternative einen Macintosh von Apple. Anders als bei einem klassischen PC – gut ein Dutzend Hardware-Hersteller und mehrere Betriebssysteme streiten um die Vormachtstellung am Markt – stammen beim etwas teureren Macintosh die Hardware und die Software vom gleichen Hersteller. Rein (leistungs-)technisch gesehen sind die Unterschiede nicht mehr so groß wie früher.

Ein Notebook ist ein tragbarer Computer. Der Name bedeutet übersetzt „Notizbuch“. Moderne Geräte sind leicht und bieten die Leistung eines PCs. Sie sind der ideale Begleiter für mobile Menschen.

Bei einem Notebook-Gerät sind alle Komponenten in einem tragbaren Gehäuse eingebaut. Das Gehäuse besteht aus einem Unter- und einem Oberteil. Beide Gehäuseteile sind über Gelenke klappbar miteinander verbunden. In der unteren Hälfte sind die wichtigsten Hardware-Komponenten und die Tastatur untergebracht. Das Oberteil besteht im Wesentlichen aus dem Display. Für den Transport kann das Gehäuse zusammengeklappt werden, sodass Tastatur und Display geschützt sind. Im mobilen Betrieb wird ein Notebook durch einen Akku mit Strom versorgt.

Die Ursprünge von Notebooks

Als Vorläufer gilt der 1981 von der Osborne Computer Corporation vorgestellte Osborne 1. Der Osborne 1 war mit einem Gewicht von 11 kg und der Größe eines Aktenkoffers der erste kommerziell verkaufte tragbare Computer. Der Osborne 1 war im Prinzip ein tragbarer Desktop-Computer. Im folgten Mitte der 1980er Jahre die ersten Laptops. Diese mobilen Computer waren im Vergleich immer noch sehr groß und schwer. Sie konnten jedoch auf den Beinen balanciert benutzt werden. Laptops werden daher übersetzt als „Schoß-Computer“ bezeichnet. Die Bezeichnung Notebook wurde erstmals Ende der 1980er Jahre von Toshiba verwendet. Heute werden die Bezeichnungen synonym für mobile Computer verwendet.

Welche Vorteile bietet ein Notebook?

Der größte Vorteil eines Notebooks gegenüber einem stationären Personal Computer ist die Mobilität bei einer vergleichbaren Leistung. Zudem benötigten die Geräte weniger Platz und können bequem in einer Aktentasche oder einem Rucksack transportiert werden. Die Hardware, das heißt, Prozessor (CPU), Arbeits- und Massenspeicher und Display sind bei einem modernen Notebook so leistungsfähig wie bei einem PC. Allerdings handelt es sich bei diesen Komponenten in der Regel um speziell für enge Notebook-Gehäuse gefertigte Bauteile. Aus diesem Grund sind Notebooks meist teurer als vergleichbare PCs. Für die meisten Nutzer überwiegen jedoch die Vorteile den höheren Preis.

Displays und Eingabegeräte

Das Display hat eine Bildschirmdiagonale von 10,4 bis maximal 20 Zoll. Verwendet werden meistens sogenannte TFT-Displays, die eine maximale Auflösung von 4k (UHD) im 16:9 oder 16:10 Bildformat ermöglichen. Jedes Gerät ist mit einer fest eingebauten Tastatur ausgestattet. Die Tastatur ist bei einem modern Notebook flach und schließt bündig mit dem Gehäuse ab. Bei Notebooks mit einer Bildschirmdiagonale von bis zu 15 Zoll fehlt meist der Ziffernblock. Erst bei größeren Bildschirmdiagonalen ist rechts neben der Tastatur genügend Platz für den Ziffernblock. Fast jedes Notebook kann zudem über ein Touchpad oder einen Trackball bedient werden. Bei Bedarf kann eine Maus über einen USB-Schluss verbunden und benutzt werden. Convertibles, das heißt Notebooks, bei denen Tastatur und Bildschirm getrennt werden können, verfügen über einen Touchscreen. Das Display kann wie bei einem Tablet mit einem Stift oder den Fingern bedient werden.

Betriebssysteme

Das Betriebssystem ist bei den meisten Notebooks vorinstalliert. Je nach Hersteller nutzt ein Notebook das Windows Betriebssystem, Chrome OS oder, bei einem MacBook, das Apple eigene MacOS Betriebssystem. Das nur für Apple Notebooks verfügbare MacOS gilt als besonders benutzerfreundlich und schnell. Der Vorteil des Windows-Betriebssystems ist, dass wesentlich mehr kostenlose und kostenpflichtige Anwendungssoftware zur Verfügung steht. Bei einem Notebook ohne vorinstalliertes Betriebssystem können Sie bei Bedarf auch ein Linux Betriebssystem installieren. In Frage kommt hier zum Beispiel Linux Mint, Manjaru Linux oder jedes andere Linux mit einer graphischen Oberfläche wie KDE, etwa Ubuntu oder Fedora.

Stromversorgung

Bei der mobilen Nutzung werden moderne Geräte von Lithium-Ionen oder Lithium-Polymer Akkus mit Energie versorgt. Je nach Leistung, der Displaygröße und der Akkukapazität reicht eine Akkuladung für einen bis zu 12-stündigen Betrieb. Für den stationären Betrieb sind die Geräte entweder mit einer externen oder einer eingebauten Stromversorgung ausgerüstet, über die gleichzeitig der Akku geladen wird.

Worin liegen die Unterschiede zu einem Netbook?

Im Gegensatz zu Netbook ist ein Notebook ein vollwertiger Ersatz für einen PC. Ein Netbook ist ein sehr kompaktes Notebook mit einer deutlich reduzierten technischen Ausstattung. Die Leistung ist meist geringer als die eines Notebooks. Mit einer Bildschirmdiagonale von bis zu 11,6 Zoll sind sie zudem deutlich kleiner und leichter. Heute spielen Netbooks kaum noch eine Rolle. Tablets und große Smartphones bieten mehr Leistung und mehr Funktionen.

Microsoft System Center Configuration Manager (SCCM) verschafft Arbeitnehmern die Freiheit, ortsunabhängig mit dem Gerät ihrer Wahl zu arbeiten. Darüber hinaus bietet SCCM die Möglichkeit, PCs und Server zu verwalten, Konfigurations- und Sicherheitsrichtlinien festzulegen, den Systemstatus zu überwachen und Software stets aktuell zu halten.

Als fester Bestandteil der System Center Suite handelt es sich bei System Center Configuration Manager (SCCM beziehungsweise ConfigMgr) – seit Version 1910 Microsoft Endpoint Configuration Manager (ECM) -um ein Software-Produkt aus dem Hause Microsoft. Frühere Versionen (Systems Management Server, kurz SMS) wurden von SCCM abgelöst. Systems Management bedeutet im IT-Bereich die zentrale Verwaltung von Hard- und Software innerhalb eines Betriebes. Es bildet die Obermenge des Client-Managements. SCCM bietet den Vorteil, dass bestimmte Prozesse für eine sehr hohe Anzahl von Clients komplett automatisiert werden können. SCCM ermöglicht es Ihnen nicht nur, Ihr komplettes System zu verwalten, sondern auch Geräte, Einstellungen, Energie und Softwareupdates zu verwalten sowie Clients zu integrieren und zu überwachen. Möglich macht es die Installation eines Configuration Manager Clients, der als Dienst auf dem System des Endgeräts läuft. Mittels der Client-Push-Installation der Client-Agent auf jedem beliebigen PC installiert werden, ohne dass eine manuelle Installation vonnöten ist. Ziel ist es, die Agents stets selbst am Client arbeiten zu lassen. Ihre Ergebnisse werden dem SCCM-Server anschließend automatisch zur Verfügung gestellt. Der Server speichert sämtliche Ergebnisse in der dafür vorgesehenen SCCM-Datenbank. Über ein Status-System werden Sie als Administrator fortlaufend mit Details zu allen auf dem Client ablaufenden Vorgängen versorgt.

SCCM im Detail

SCCM sowie praktisch jedes Software-Deployment-Tool ermöglicht es Ihnen, folgende Aufgaben vollkommen automatisiert für eine sehr große Anzahl von Notebooks und PCs durchzuführen:

Inventarisierung

Mittels einer Softwareinventarisierung lässt sich herausfinden, auf welchen Geräten eine bestimmte, lizenzpflichtige Software installiert ist. Über WMI sowie weitere Schnittstellen lassen sich zahlreiche Konfigurationsparametern ausgelesen und anschließend an den Server übermitteln. Dabei werden nicht nur Hardware-, sondern auch Betriebssystemkonfiguration und gegenwärtig installierte Software ermittelt. Systemdateien werden inklusive Versionsnummer und Datum der Datei inventarisiert. Die inventarisierten Daten bilden die Basis für Auswertungen mithilfe des SMS Reporting Services. Des Weiteren erleichtert eine Inventarisierung die Verteilung der Software. Schließlich kann eine neue Software-Version ausschließlich an die Clients verteilt werden, auf denen die ältere Version bereits installiert ist.

Reporting

Die SCCM-Datenbank enthält unzählige Konfigurationsparameter aller Clients. Mittels Reporting lassen aufbereiten und als Auswertung zur Verfügung stellen. Voraussetzung dafür ist ein Internet Information Server, also ein Web-Server, der den gewählten Report als ASP-Seite darstellen kann. Hyperlinks ermöglichen es, weitere Reports aufzurufen, was für ein hohes Maß an Benutzerfreundlichkeit sorgt. Eine sehr große Auswahl an Reports, die nach Belieben um eigene Auswertungen ergänzt werden können, steht sofort nach der Installation von SCCM zur Verfügung.

Lizenzüberwachung

Mithilfe der Lizenzüberwachung beziehungsweise des Software Meterings wird die Verwendung von Anwendungen überwacht. Als Administrator werden Sie rechtzeitig über Lizenzüberschreitungen informiert, da mittels Reporting regelmäßig ermittelt wird, welche Anwendungen auf wie vielen Geräten genutzt werden.

Softwareverteilung

Die Softwareverteilung umfasst die Bereiche Betriebs-, Software- und Updateinstallation. SCCM ermöglicht Ihnen das vollautomatisierte Installieren eines Betriebssystems – Ganz ohne manuelle Aktion des Benutzers. Die Softwareinstallation verschafft Ihnen wiederum die Gelegenheit, Programme auf beliebige Organisationseinheiten zu verteilen. Dazu zählen beispielsweise Virenscanner, die jedem Client zur Verfügung gestellt werden. Ein weiterer Vorteil: Clients können in Collections zusammengefasst und manuell oder dynamisch via SQL-Abfrage ausgestattet werden.

Antischad-Software-Management

Microsofts Endpoint Protection verwaltet Richtlinien für Antischadsoftware sowie die Windows-Firewall für Clientcomputer. Voraussetzung für die Verwaltung der Clients in der Configuration Manager-Hierarchie ist eine Lizenz für die Verwendung von Endpoint Protection. In Kombination mit dem Configuration Manager ergibt sich der Vorteil, dass sich sowohl Antischad-Software, als auch die Windows-Firewall auf den Client-Computern jederzeit verwalten und überwachen lassen. Dies umfasst unter anderem das Aktivieren und Deaktivieren der Firewall, als auch das Blockieren eingehender Verbindungen oder bestimmter Programme.

Remote Control

Bei Remote Control handelt es ich um ein praktisches Tool, das es Ihnen ermöglicht, sich aus der Ferne auf einen beliebigen PC aufzuschalten. Dem Benutzer kann so Hilfestellung geboten werden, ohne dass Sie direkt vor Ort sein müssen. Der Remote Control-Agent leitet den Bildschirm des Benutzers weiter, so dass die eigentliche Sitzung nicht unterbrochen wird.

System-Update-(Patch-)Management

Das Patch Management beschäftigt sich mit der Beschaffung und der Installation wichtiger Software-, Treiber- und System-Updates. Automatisiertes Patch-Management, wie es SCCM bietet, prüft Schwachstellen und hält Sie über sämtliche verfügbare Updates auf dem Laufenden. Als Systemadministrator können Sie Patches und Updates anschließend individuell oder automatisch in die Systemumgebung der Clients einpflegen.

Vor- und Nachteile von SCCM – Gibt es Alternativen?

SCCM bietet zweifelsohne den Vorteil, dass es unzählige Software-Produkte gibt, die sich ohne Probleme auf allen Clients automatisch verteilen und aktuell halten lassen. Dazu zählen beispielsweise populäre Programme wie Office, aber auch andere ERP– und CRM-Software. Größter Nachteil der mächtigen Software ist allerdings, dass ihre Einführung Zeit und Aufwand erfordert. Des Weiteren fallen, wie bei fast allen Microsoft-Produkten, Lizenzkosten an. Falls Sie nach einer Alternative suchen, werden Sie bei baramundi fündig. Ebenso zu empfehlen ist OPSI, das vom Mainzer Unternehmen UIB entwickelt wurde. Installation und Betrieb von OPSI setzen eine statische Server-IP-Adresse sowie eine SQL-Datenbank voraus. Die Installation erfolgt durch das Herunterladen eines Repositories. Anschließend müssen zwei OPSI-Pakete installiert werden, die ihrerseits mehrere Software-Pakete mit sich bringen.

Bring Your Own Device (BYOD) ist ein Trend aus den USA, der vor allem in der Arbeitswelt eine Rolle spielt. Vor- und Nachteile für alle Beteiligten werden seit einigen Jahren intensiv diskutiert. Seit Inkrafttreten der Datenschutzgrundverordnung (DSGVO) kommt hierbei dem Datenschutz eine besondere Bedeutung zu. Die Voraussetzungen für den technisch und rechtlich sicheren Einsatz privater Geräte stellen zunehmend eine Herausforderung dar.

BYOD – Definition und Varianten

Die privaten mobilen Endgeräte oder auch Speichermedien mit- oder einbringen heißt konkret, auf interne Netzwerke von Firmen oder Bildungseinrichtungen und Bibliotheken zuzugreifen. Für Arbeitnehmer ist eine solche Vereinbarung grundsätzlich freiwillig. Dieses Konzept ist ursprünglich als Instrument bekannt, um die Produktivität von Arbeitnehmer zu steigern und dabei gleichzeitig die Kosten auf Arbeitgeberseite zu senken. Hinzu kommt die positive Auswirkung auf den ökologischen Fingerabdruck.

Mit wachsender praktischer Erfahrung hat sich die Auffassung durchgesetzt, dass Kosten und Nutzen sich in etwa die Waage halten. Der Anteil von Smartphones und Tablets steigt stetig an. Die Varianten, wie BYOD in unterschiedlichen Unternehmen gelebt wird, sind vielfältig. Hier einige Beispiele:

– Private Endgeräte werden unabhängig von der Unternehmens-IT betrieben.

– Endgeräte werden von der Unternehmens-IT unterstützt und gewartet.

– Softwarelizenzen des Unternehmens werden dienstlich und privat genutzt.

-Mitarbeiter beteiligen sich an den Kosten für Hard- und Software.

-Ausschließlich separates Gäste-WLAN, das ebenso von Besuchern genutzt wird.

BYOD: Vorteile für Arbeitgeber

In manchen Branchen wie beispielsweise dem Customer Service (Callcenter), entfallen die Kosten für einen kompletten Bildschirmarbeitsplatz. In diesem Bereich kommen auch private Desktop-PCs zum Einsatz. Zumindest jedoch werden mittels BYOD die regelmäßigen Anschaffungskosten für adäquate Hardware reduziert. Teilweise ergibt sich zusätzlich ein Einsparpotenzial im Bereich der Softwarelizenzen.

Mobiles Arbeiten ist ein entscheidender Faktor für die Attraktivität des Arbeitsplatzes und trägt zur Mitarbeiterzufriedenheit bei. Dies wiederum wirkt sich positiv aus auf die Produktivität.

BYOD: Vorteile für Beschäftigte

Egal ob Smartphone oder Notebook, das vertraute Arbeitsgerät stellt einen Wohlfühlfaktor dar. Mobiles Arbeiten verbessert die Vereinbarkeit von Beruf und Familie und ist gerade auch für Pendler attraktiv. Dienstreisende benötigen nur noch jeweils ein Smartphone, Tablet oder Notebook.

BYOD: Nachteile für Arbeitgeber

Die Kosten für die Erarbeitung eines BYOD-Konzeptes sind nicht zu unterschätzen. Die Umsetzung der Datenschutzgrundverordnung allein erfordert einen erheblichen administrativen und technischen Aufwand. Hinzu kommen höhere Wartungskosten. Private Endgeräte stellen immer ein potenzielles Sicherheitsrisiko dar. Ein Angriff auf die IT-Infrastruktur kann existenzbedrohend sein.

BYOD: Nachteile für Beschäftigte

Je nach Unternehmenskonzept erhält der Arbeitgeber Kontroll- und Zugriffsrechte. Durch die uneingeschränkte Erreichbarkeit verschwimmen die Grenzen zwischen Arbeit und Freizeit. Dies führt dazu, dass Arbeitszeiten nicht erfasst und folglich nicht vergütet werden.

 

Rahmenbedingungen für BYOD

Die rechtlichen Grundvoraussetzungen aber auch die Risiken für beide Seiten erfordern ein Regelwerk, dass die Interessen aller Beteiligten berücksichtigt – ein BYOD-Konzept. Dieses sollte folgende Aspekte behandeln:

Betriebssystem, Firewall und Virenscanner

– Zugriffshürden und Zugriffsbeschränkungen

– Verwendung von Blickschutzfiltern in der Öffentlichkeit

– Trennung von dienstlichen und privaten E-Mail-Konten

Speicherung von Firmendaten auf dem privaten Endgerät

– Zeitliche Zugriffsbeschränkung

Risiken minimieren bei BYOD

Wie umfassend Ihr BYOD-Konzept auch sein mag, ein Restrisiko in Bezug auf die Datensicherheit bleibt immer. Um Ihre sensiblen Firmendaten und alle personenbezogenen Daten bestmöglich zu schützen, gibt es eine Reihe von Möglichkeiten.

Technische Zugriffshürden

Ein sogenannter VPN-Tunnel ermöglicht eine verschlüsselte Verbindung zwischen dem Endgerät und dem Unternehmensserver. Ein Virtual Private Network (VPN) nutzt das Internet als Datenleitung. Mithilfe des VPN-Client auf dem Endgerät und einer zweiten Authentifizierungsmethode wird ein Zugriff Dritter auf Ihre Unternehmensdaten deutlich erschwert. Zusätzlich haben Sie die Möglichkeit, den Zugang auf „Remote-Access“ zu beschränken. Das heißt, Dokumente oder Datensätze können gelesen und bearbeitet aber nicht gespeichert werden.

Verschlüsselte „Container“ bei BYOD

Bei dieser Methode wird der lokale Festplattenspeicher des privaten Endgeräts in zwei Bereiche (Partitionen) geteilt. Somit entstehen aus technischer Sicht zwei separate Festplatten, von denen eine verschlüsselt ist. Verbindungen zum Unternehmensnetzwerk werden ausschließlich über den Container hergestellt.

Mobile Device Management (MDM)

Das Mobile Device Management wird mithilfe einer speziellen Software durchgeführt. Über dieses Tool gelingt es Ihrer Unternehmens-IT, die privaten Endgeräte in die IT-Infrastruktur zu integrieren und zu verwalten. Des Weiteren ermöglicht ein professionelles MDM:

– die Verwaltung von Daten

– das Installieren von Updates

– die Sperrung unsicherer Verbindungen (WLAN)

– die Sperrung unbekannter Apps

Sandboxing

Mithilfe einer Sandbox arbeiten Sie in einer abgeschirmten virtuellen Umgebung. Hierbei werden keine Daten auf dem privaten Gerät gespeichert. Eine Sandbox wird auch als Testumgebung für Software in der Entwicklung eingesetzt.

Wenn Sie sich für diese Lösung entscheiden, ist es unabdingbar, den ganzen Weg zu gehen. Auch der gelegentliche Einsatz privater Endgeräte bedarf technischer Grundvoraussetzungen und klarer Vereinbarungen. Eine einzige E-Mail kann eine signifikante Bedrohung für den Datenschutz und die IT-Sicherheit in Ihrem Unternehmen bedeuten.

Für die Skeptiker bietet „Choose Your Own Device“ (CYOD) eine Alternative. Mit „Own Device“ ist hier jedoch Unternehmens-Equipment gemeint.

Kein Unternehmen arbeitet heute in der Regel ohne die Unterstützung einer möglichst maßgeschneiderten IT-Infrastruktur. Doch was ist das eigentlich genau? Was gehört zu diesem Begriff und was sollte rund um die passende IT-Infrastruktur eines Unternehmens unbedingt beachtet werden? Das Wichtigste dazu bietet Ihnen dieser kompakte Überblick.

Die zwei Hauptkomponenten der IT-Infrastruktur

Das wesentliche Unterscheidungskriterium der an einer IT-Anlage eines Unternehmens beteiligten Elemente ist die Einteilung in Hardware und Software. Hardware sind alle Geräte, die die physische Ausstattung der IT betreffen. Das sind zum einen physische Server und die Rechner des Unternehmens, aber auch alle Ein- und Ausgabegeräte wie Tastatur, Maus, Monitor und Drucker. Auch die mobilen Endgeräte eines Unternehmens, beispielsweise Smartphones, Tablets und Netbook, zählen zur IT-Infrastruktur. Dies alles kann nur funktionieren, wenn eine Software installiert ist. Sie ist das zweite wichtige Element in der betrieblichen IT. Softwareprodukte sind zum Beispiel das Betriebssystem der Rechner und die bedarfsgerechten Anwendungen für die Anforderungen der Nutzer. Auch CRM- und ERP-Programme sowie Antivirenschutz zählen zum Softwarebereich der IT-Infrastruktur.

Das Netzwerk Ihres Unternehmens

Wenn eine gute funktionierende IT-Infrastruktur mit hoher Professionalität und passgenauem Praxisbezug geschätzt wird, ist immer wichtig, dass Hard- und Softwareprodukte bedarfsgerecht ausgewählt, installiert und konfiguriert werden. Das Zusammenspiel der einzelnen Bestandteile im Rahmen eines soliden und geschützten Netzwerks spielt für das Unternehmen und seine Anforderungen eine wichtige Rolle.

Zwei Beispiele dieser Zusammenarbeit im Netzwerk sollen der Veranschaulichung dienen. Ein Beispiel ist das CRM, das Customer Relationship Management. Bei diesen Programmen werden alle Kundenkontakte nicht nur lückenlos dokumentiert, sondern unternehmensintern auch all denjenigen verfügbar gemacht, die diese benötigen. So ist es insbesondere möglich, eine Kundenanfrage auch dann professionell und präzise zu betreuen, wenn der zuständige Sachbearbeiter im Urlaub sein sollte. Ein zweites Beispiel ist das Bestandsmanagement in einem Betrieb. So kann mittels eines gut ausgebauten Netzwerks ein Außendienstmitarbeiter mit dem Smartphone die Auskunft aus der IT erhalten, ob ein bestimmter Artikel, für den sich der Kunde interessiert, auf Lager ist.

Zentraler Datenabruf und Datenspeicherung

Bei einer modernen IT-Infrastruktur ist der zentrale Datenzugriff oft besonders wichtig. Die obigen Beispiele demonstrieren das. Die Daten, die in einem Unternehmen gespeichert, aufbewahrt, geändert und verarbeitet werden, haben hohe Volumina. Das bedeutet, dass die Speicherkapazitäten klassischer Server oft überlastet sind. Denn alle Unternehmensprozesse von der Angebotserstellung über die Produktionsabwicklung bis zu Werbung und Verkauf werden heute IT-basiert abgewickelt. Es ist häufig sinnvoll, die internen Rechnerkapazitäten durch ein effizientes Outsourcing zu entlasten. So ist es möglich, physische und virtuelle Server zu mieten, Switches zu integrieren oder die modernen Cloudlösungen dazu zu nutzen, die eigene IT-Infrastruktur optimal zu ergänzen. All diese Möglichkeiten schonen nicht nur die eigenen Kapazitäten des Unternehmens. Sie können auch einen zentralen und bedarfsgerechten Datenzugriff ermöglichen.

Sicherheit ist das A und O bei der IT-Infrastruktur

Eine IT-Infrastruktur ist eine moderne Errungenschaft, die für Ihr Unternehmen mit einer ganzen Reihe von überzeugenden Vorteilen verknüpft ist. Doch gibt es dadurch natürlich auch ein Datenrisiko. Zum einen kann ein Datenverlust durch einen Software- oder Hardwarefehler verursacht sein. Typisch sind die geschrottete Festplatte oder der Blitzeinschlag, der die Serverdaten löscht. Auch ein Virus kann die Daten des Unternehmens löschen. Zum anderen sind es aber auch die Hackerangriffe, die beispielsweise Kundendaten oder Konkurrenzdaten sammeln. Deshalb gehört zu jeder modernen IT-Infrastruktur auch ein professioneller Schutz. Dieser wird durch die Firewall von Rechnern und Servern, aber auch spezielle Antivirenprogramme umgesetzt.

Einen kompetenten IT-Dienstleister beauftragen

Wenn ein Unternehmen keine Professionalität in Sachen IT-Infrastruktur in den eigenen Reihen besitzt, ist es wichtig, sich diese heute unverzichtbare Unterstützung durch Experten von außen zu holen. Ein IT-Dienstleister hat die Expertise, die IT-Infrastruktur eines Unternehmens bedarfsgerecht zu erstellen, zu konfigurieren und bezüglich individueller und sich oft ändernder Anforderungsprofile kompetent zu skalieren. Im Rahmen einer öffentliche IT-Infrastruktur wird die Hard- und Software beim gewählten Anbieter beauftragt, gewartet und auch repariert.

Ein wichtiger Vorteil, den ein solches Arrangement hat: Diese IT-Infrastruktur wird durch den IT-Dienstleister konsequent mit spezieller Softwareprodukten überwacht. Dieses Monitoring ist wertvoll, weil es reibungslos funktionierende Betriebsabläufe und die Sicherheit der IT-Infrastruktur nachhaltig umsetzen kann. Für ein Unternehmen bedeutet das, dass es sich ganz auf seine Kernkompetenzen konzentrieren kann.

Insbesondere bei der Datensicherheit werden IT-Dienstleister immer mehr geschätzt. Seit dem Inkrafttreten der DSGVO am 25. Mai 2018 ist Datensicherung ein wichtiges Thema. Die Nichtbeachtung der komplexen Regelungen der Europäischen Union sind unangenehm. Da viele Datenschutzlecks und Sicherheitslücken in der IT-Infrastruktur der Unternehmen vorhanden sind, ist es die Tendenz, für die Sicherheit die IT-Experten zu beauftragen. Oft ist dies mit Cloud-Lösungen verbunden, die bei Datencrash durch Backups die Daten in aller Regel wiederherstellen können.