Beiträge

Windows Hello ist ein biometrisches System, das es Windows 10-Usern ermöglicht, den sicheren Zugriff auf ihre Geräte, Anwendungen, Online-Dienste und Netzwerke mit einem Fingerabdruck, Iris-Scan oder Gesichtserkennung zu authentifizieren. Es ist eine Alternative zu Passwörtern und gilt als benutzerfreundlicher, sicherer und zuverlässiger als die herkömmliche Methode.

So funktioniert Windows Hello

Windows Hello begrenzt die Möglichkeit von Angriffen bei Windows 10, indem es die Notwendigkeit von Passwörtern und anderen relativ unsicheren Methoden eliminiert. Windows Hello ermöglicht es Ihnen, ein Microsoft-Konto oder einen Nicht-Microsoft-Dienst zu authentifizieren, der Fast Identity Online (FIDO) unterstützt. Windows Hello verwendet strukturiertes 3D-Licht, um ein Gesichtsmodell zu erstellen und nutzt dann Anti-Spoofing-Techniken, um eine Manipulation durch falsche Scans zu verhindern. Mit Windows 10 können Sie Windows Hello einrichten. Dazu müssen Sie einen Gesichtsscan, Irisscan oder Fingerabdruck erstellen. Sie können diese Scans jederzeit verbessern und zusätzliche Fingerabdrücke hinzufügen oder entfernen. Einmal eingerichtet, ermöglicht ein Blick auf das Gerät oder ein Fingerscan den Zugriff auf Microsoft-Konten und Anwendungen von Drittanbietern, die die API verwenden. Die FIDO-Spezifikation wurde 2014 von der FIDO Alliance entwickelt.

Für wen ist es sinnvoll?

Windows Hello wurde sowohl für Unternehmen als auch für Privatanwender entwickelt und gewinnt in beiden Bereichen an Bedeutung. Obwohl Windows Hello eine beachtliche Benutzerzahl hat, wird es von der massiven Windows 10-Installationsbasis in den Schatten gestellt. Wenn Microsoft die Mehrheit der Windows 10-Benutzer in Windows Hello konvertieren kann, wäre dies ein Wendepunkt im Kampf gegen unpraktische Passwörter.

Wie sicher ist Windows Hello?

Ein Passwort kann gehackt, ausspioniert und vergessen werden. Windows Hello beseitigt diese Sicherheitslücken mit der Fingerabdruck- und Gesichtserkennungstechnologie. Der Fingerabdruck-Scan ist ziemlich sicher. Die Gesichtserkennung  ist noch sicherer, da sie in der Lage ist, zwischen Ihrer physischen Anwesenheit und einem Bild von Ihnen zu unterscheiden. Das ist Sicherheit auf Unternehmensebene für Privatanwender, einfach zu implementieren und äußerst effektiv.

Speichert Microsoft persönliche Daten?

Es gibt einige Berichte über die Privatsphäre oder besser gesagt, den Mangel an Privatsphäre in Windows 10. Der Gedanke lässt einige Benutzer die Effektivität von Windows Hello infrage stellen. Microsoft sagt dazu, dass Windows 10 während der Einrichtung die vom Gesichts- oder Irissensor oder Fingerabdruckleser erfassten Daten übernimmt und eine Darstellung anfertigt, die es verschlüsselt und auf Ihrem Gerät speichert. Dies ist kein Bild, sondern eher wie ein Diagramm. Ihre Identifikationsdaten, die bei der Registrierung erstellt werden, verlassen niemals Ihr Gerät. Microsoft sammelt Nutzungsdaten, wie z. B. die Methode, mit der Sie sich angemeldet haben (Gesicht, Iris, Fingerabdruck oder PIN), die Anzahl der Anmeldungen und ob jede Anmeldung erfolgreich war oder nicht. Diese Daten werden ohne jegliche Informationen, die zur eindeutigen Identifizierung Ihrer Person verwendet werden könnten, verschlüsselt, bevor sie übertragen werden.

Die Hardwareanforderungen

Es ist mit spezifischen Hardwareanforderungen verbunden. Microsofts Surface Pro, Surface Book und die meisten Windows 10 PCs, die mit Fingerabdruckscannern oder Kameras ausgestattet sind, die zweidimensionale Infrarotspektroskopie erfassen können, sind mit Windows Hello kompatibel. Microsoft arbeitet auch mit Geräteherstellern zusammen, um eine konsistente Leistung und Sicherheit für alle Benutzer zu gewährleisten. Der akzeptable Leistungsbereich für Fingerabdrucksensoren ist eine Fehlannahmequote von weniger als 0,002 Prozent. Der akzeptable Bereich für Gesichtserkennungssensoren ist eine Fehlannahmequote von weniger als 0,001 Prozent, so Microsoft.

Bei Linux handelt es sich um ein Open-Source-Betriebssystem, das in einer Vielzahl unterschiedlicher Distributionen erhältlich ist und in Zusammenarbeit von Entwicklern aus der ganzen Welt programmiert wird. Das Betriebssystem verbreitet sich durch eine freie Lizenz bereits seit dem Jahr 1992. Obwohl die Bedienung von Linux und seine breite Funktionsvielfalt auf den ersten Blick äußerst kompliziert wirken, bietet das offene Betriebssystem dennoch eine zuverlässige und bequeme Plattform für all Ihre Anwendungen, sobald Sie sich mit dem Linux-OS besser vertraut gemacht haben.

Was ist Linux?

Das unter der GPL-Lizenz (General Public License) lizensierte Betriebssystem wurde im Jahr 1991 von dem damals 21-jährigen Informatikstudenten Linus Torvalds entwickelt. Das Betriebssystem wurde ursprünglich als ein Uni-Projekt gestartet, wuchs aber binnen kürzester Zeit zu einem vollwertigen Betriebssystem heran. Die erste Version des Betriebssystems veröffentlichte Torvalds im September 1991 im Usenet. Im Laufe der Jahre hat sich eine gigantische internationale Entwicklergemeinde rund um das Linux-OS aus Unternehmen, Organisationen und Einzelpersonen gebildet, deren Zahl stetig wächst. Der Erfinder Linus Torvalds ist heute noch der hauptverantwortliche Entwickler des Kernels.

Streng genommen handelt es sich bei dem von Torvalds entwickelten Linux nur um den Systemkern, den sogenannten Kernel. Das Kernel ist das Grundprogramm einer jeder Linux-Distribution. Dieses Kernprogramm ist dafür zuständig, um zwischen der Hardware und Software eines Computers zu vermitteln. Wenn man den Kernel mit einer grafischen Benutzeroberfläche und weiterer Software versieht, entsteht eine Distribution. Der Kernel arbeitet im Hintergrund einer Linux-Distribution und ist dafür verantwortlich, dass die einzelnen Bestandteile des Betriebssystems miteinander harmonieren. Auch Hardware und Software müssen reibungslos funktionieren.

Linux Geschichte

Wie entstand Linux?

Den Namen Linux nutzte man anfänglich ausschließlich für das von ihm entwickelte Kernel. Sein Kernel wurde anfänglich in Kombination mit dem unixorientierten System Minix verwendet. Linus und die anderen Entwickler lizenzierten im Jahr 1992 Linux unter der GNU (General Public License), sodass sie den Kernel in die GNU integrieren konnten. Diese Version entwickelte sich schnell zu der meist genutzten Variante, da zu dieser Zeit kein anderer funktionsfähiger freier Kernel zur Verfügung stand. Als Linus und seine Kollegen später das gesamte Betriebssystem als Linux bezeichneten, versuchte Richard Stallmann, der Gründer des GNU-Projekts, die Bezeichnung GNU/Linux durchzusetzen, was jedoch von den meisten Entwicklern und Distributoren abgelehnt wurde.

Unterschiedliche Distributionen

Da der Kernel alleine nicht funktionsfähig ist, muss man ihn mit sogenannter Hilfssoftware versehen, wie zum Beispiel den GNU Core Utilities und vielen weiteren Anwendungsprogrammen. Ein solches Paket, das aus dem Kernel und Anwendungssoftware besteht, nennt man Distribution. Dabei handelt es sich um eine Zusammenstellung verschiedener Software, die je nach vorgesehenem Einsatzgebiet sehr unterschiedlich ausfallen kann. Die so zusammengesetzten Distributionen können sich teilweise stark voneinander unterscheiden. Der Entwickler einer solchen Distribution heißt Distributor.
Die Notwendigkeit der Distributionen lässt sich in erster Linie durch das Entwicklungsmodell von Linux begünstigen.

Die ersten Distributionen waren:

MCC Interim
Softlanding Linux System (SLS)
Yggdrasil

Die älteste Distribution, die heute noch weiterentwickelt wird, ist Slackware von Patrick Volkerding.
Mit der rasanten Ausbreitung der Distributionen bekamen mehr Nutzer die Möglichkeit, das quelloffene Betriebssystem zu testen. Hinter den in erster Linie kleineren Distributionen, die man heutzutage über das Internet koordiniert, stehen Projekte Freiwilliger. Die größeren Distributionen werden von Stiftungen und Unternehmen entwickelt und verbreitet. Auch die Einsatzmöglichkeiten der einzelnen Distributionen weichen stark voneinander ab, sodass von Systemen für Desktop-PCs, Server-Installationen und Live-DVDs mittlerweile alles vertreten ist.

Die Vor- und Nachteile im Überblick

Vorteile und Nachteile von Linux

Welche Vorteile hat Linux?

Das quelloffene Betriebssystem gilt als besonders sicher und performant. Einer der größten Vorteile spiegelt sich in der Tatsache wider, dass für Linux beinahe keine Schadsoftware existiert. Dank der Open-Source-Lizenz (GPL) sind der Kernel und die meisten anderen Module quelloffen. Die GPL-Lizenz ermöglicht Entwicklern und Nutzern, den Quellcode beliebig zu verändern und zu verbreiten. Da Linux quelloffen und modular aufgebaut ist, kann es schnell und unkompliziert auf andere Plattformen portiert und für andere Einsatzmöglichkeiten angepasst werden. Dadurch ist das gesamte System in hohem Maße skalierbar, sodass es sich auf allen Arten von Computersystemen problemlos einsetzen lässt, wie beispielsweise mobile Geräte, Server, Supercomputer oder PCs.

Als nachteilig kann man die Tatsache betrachteten, dass eine Vielzahl an Anwendungsprogrammen, Geräten und Spielen offiziell nicht unterstützt werden. Während Endanwender das Betriebssystem vollständig über die grafische Benutzeroberfläche steuern können, erwartet man von Administratoren einen guten Umgang mit der Kommandozeile.

Lizenz Linux

Wie erhält man eine Lizenz?

Red Hat, Ubuntu und SUSE

Da Linux quelloffen ist, haben sich im Laufe der Zeit viele unterschiedliche Distributionen etabliert. Zu den meistgenutzten Distributionen gehören:
– Red Hat
– Ubuntu
– SUSE

Ubuntu ist nach Windows und macOS das beliebteste Betriebssystem für Desktop- und Laptop-PCs. Die Ubuntu-Distribution wird von der Firma Canonical entwickelt und ist kostenlos erhältlich. Die beiden Firmen Red Hat und SUSE haben sowohl kostenlose als auch kostenpflichtige Distributionen im Angebot. Red Hat ist aktuell der weltweite Marktführer im Bereich der Server- und Workstation-Lösungen, während SUSE insbesondere in Deutschland sehr beliebt ist. Lesen Sie hier mehr über SUSE.

Linux auf Desktop-Systemen

Obwohl das quelloffene Betriebssystem eine Vielzahl unterschiedlicher Einsatzbereiche abdeckt, kommt das System in erster Linie auf Desktop- und Laptop-PCs als Alternative zu Windows zum Einsatz. Eine Distribution lässt sich sowohl als das primäre Betriebssystem betreiben, als auch im Rahmen eines Multi-Boot-Systems nutzen. Nutzer können beispielsweise neben Windows oder macOS auch Linux parallel installieren und betreiben. Aktuelle Distributionen, wie beispielsweise Red Hat oder Ubuntu, führen den Nutzer durch den Installationsprozess und erkennen vorhandene Betriebssysteme automatisch. So sollten auch unerfahrene Nutzer mit der Installation des Systems keine Probleme haben.

Nutzern steht eine Vielzahl kostenloser Anwendungen zu Verfügung, die sie sich individuell nach persönlichen Anforderungen auswählen können. Mit Anwendungen für Textverarbeitung, Tabellenkalkulation und Multimedia sowie Programmen für die wissenschaftliche Anwendungen sind die meisten Anwendungsbereiche abgedeckt, die im Büro- und Privatalltag wichtig sind.

Ceph – was ist das? Viele Internetnutzer haben – in den meisten Fällen unbewusst – schon damit zu tun gehabt. Mit Ceph – einer Softwarelösung – können große Datenmengen einfach und günstig verarbeitet und auf standardisierter Industriehardware gespeichert werden. Ceph kommt zum Beispiel in Speichersystem von Webshops oder bei Anbietern von Onlinespeicher zur Anwendung.

Was ist Ceph?

Ceph ist eine nahezu endlos skalierende und hochverfügbare Softwarelösung zur verteilten Speicherung von Daten im Netzwerk. Die Software ist Open Source, basiert auf Linux und wurde für den Einsatz als Objekt-, Block- und Dateispeicher entwickelt. Das Gesamtsystem ist extrem robust und eignet sich für Datenmengen von wenigen hundert Gigabyte bis hin zu einigen Peta– und sogar Exabytes (1 Exabyte sind 1 Milliarde Gigabyte!).

Die Geschichte von Ceph

Ceph wurde als ein Projekt für die Doktorarbeit von Sage Weil an der University of California in Santa Cruz ins Leben gerufen. Die ersten Codezeilen wurden 2004 geschrieben und im Jahr 2005 gab es den ersten funktionierenden Prototypen von Ceph. Das System wurde 2006 durch Sage Weil bei zwei Konferenzen der Öffentlichkeit vorgestellt.

Weil arbeitete nach seiner Dissertation weiter am Projekt und gründete im Jahr 2012 die Firma Intank Storage, um das System auch professionell nutzen und vermarkten zu können. Kurz vorher, 2010, wurde der erste Ceph Client in den Linux-Kernel integriert. Intank Storage wurde 2014 von RedHat, einem Anbieter von professionellen Linux Systemen, gekauft und ist heute als „Red Hat Ceph Storage“ ein Bestandteil der Produktpalette von RedHat.

Unabhängig davon steht das Ceph-Projekt weiterhin als Open Source Software kostenfrei jedem zur Verfügung.

Wie funktioniert Ceph?

Ceph läuft als Software auf einem herkömmlichen Linux System. Mindestens drei, besser sind mehr als vier, Computer (Knoten oder englNodes) bilden ein Cluster. Lesen Sie hier mehr über Linux.

Ceph-Knoten

Storage-Knoten sind wichtig

 

Die wichtigsten Komponenten im Ceph Cluster sind die Storage Knoten. Sie sind verantwortlich für die Speicherung der Daten und verfügen daher im Regelfall über eine große Speicherkapazität. Die Festplatten und Disksysteme sollten im RAID-Verbund zur Verbesserung der Fehlertoleranz und Geschwindigkeit organisiert sein. Der Primary Storage Node entscheidet im Cluster über die Datenverteilung, Replikation und Recovery. Alle anderen Knoten stehen als Secondary Storage Node zur Überwachung zur Verfügung und können im Fehlerfall die Rolle des Primary Storage Nodes übernehmen.

Relevante Fehlertoleranz

Eine wichtige Funktion ist die Fehlertoleranz, sprich die Reaktion auf Ausfälle einzelner Komponenten des Gesamtsystems. Zu diesem Zweck tauschen die Knoten untereinander Informationen über den Zustand der Einzelsysteme aus und können so auf verschiedene Betriebszustände wie hohe Last, Ausfall eines Knotens oder Ähnliches reagieren. Die einzelnen Knoten haben dabei unterschiedliche Aufgaben und Wertigkeiten. Die Entscheidungsfindung bei Hardwarefehlern ist kompliziert und immer dem Ziel des maximalen Datenschutzes untergeordnet. Im Normalfall isoliert sich der fehlerhafte Knoten und der Betrieb geht mit den verbliebenen Knoten unterbrechungsfrei weiter. In sehr seltenen Fällen kommt der Cluster nach den vorgegebenen Regeln zur Entscheidungsfindung zu keinem Ergebnis oder die verbleibenden Knoten reichen nicht zur Sicherung der Fehlertoleranz aus. Anschließend schaltet sich das gesamte System im Sinne des Schutzes der Daten ab.

Ceph

Wie kommuniziert Ceph?

Die Kommunikation zwischen den Knoten und mit den Storage Clients erfolgt über das normale Netzwerk. Im Serverbereich wird heute zumeist die 10Gbit Technik eingesetzt, die einzelnen Server/Knoten können zur Erhöhung der Geschwindigkeit mit mehreren (gebündelten) Netzkarten versehen werden. Die Anbindung an das Netzwerk wird im Idealfall über mehrere Switcheredundant realisiert. Durch diese Maßnahme gibt es im Ceph Cluster keine zentrale Komponente, deren Fehler das Gesamtsystem zum Ausfall bringen könnte.

Welche Vorteile bietet Ceph?

Der große Vorteil von Ceph ist, dass der Anwender unabhängig von proprietären und teuren hardwarebasierten Storagesystemen großer Hersteller wird. Ceph läuft auf Standard-Hardware und kann unterschiedliche Systeme verschiedener Hersteller unter einen Hut bringen. Durch den Einsatz der Open Source Software und preisgünstiger standardisierter Hardware kann der Anwender Kosten in Höhe von 20% bis 50% gegenüber den Storagesystemen großer Hersteller einsparen.

Ein Ceph-Storagesystem ist sehr hoch skalierbar. Durch Hinzufügen von zusätzlichen Knoten und Festplatten lässt sich die Kapazität einfach und schnell erweitern. Neben der Kapazität kann man die Performance des Systems durch Zufügen von Hardware verbessern. Da Ceph verteilt arbeitet, gibt es keinen einzelnen Performance-Engpass (Flaschenhals oder englBottleneck), das System steuert die Lastverteilung auf die einzelnen Knoten selbst.

Durch das Hinzufügen weiterer Knoten lässt sich ebenso die Redundanz des Gesamtsystems steigern. Die intelligente Datenverteilung auf den Disksystemen und über die verschiedenen Knoten macht das System sehr robust. Hardwarefehler einzelner Bauteile oder Knoten kann der Cluster im Betrieb transparent überbrücken. Je nach Konfiguration der Regeln zur Datenverteilung über die Knoten ist der Ausfall mehrerer Knoten ohne Ausfall des gesamten Systems möglich.

Gibt es auch Nachteile?

Ceph-Nachteile

Nachteile von Ceph

Planung, Installation und Pflege eines Storagesystems mit Ceph stellen den Anwender vor große Herausforderungen. Er sollte mit Linux als Betriebssystem und der Software Ceph gut vertraut sein. Bei der Planung sind Kenntnisse im Bereich der StoragetechnologienRedundanzkonzepten und Netzwerk unerlässlich. Im Fehlerfall ist der Anwender auf Eigenhilfe oder die Unterstützung der Community angewiesen.

Der Kauf einer professionellen Variante (zum Beispiel von RedHat) bietet Vorteile bezüglich der Handhabbarkeit und vor allem beim professionellen Support durch den Hersteller, erhöht im Gegenzug allerdings die Kosten.

Wo wird Ceph eingesetzt?

Der Speicherbedarf im Internet und bei Unternehmen wächst beständig. Neue Anwendungen, Clouds, Social Media, Online Shops und Multimedia Dienste benötigen immer größere Speicherkapazitäten. Vorhandene Daten müssen per Backup gesichert und alte Daten archiviert werden, die Grenzen des Speicherwachstums sind momentan nicht absehbar. Dabei steigt vor allem der Bedarf nach kostengünstigen und einfach skalierbaren Speicherlösungen. In diesem Bereich spielt Ceph seine Stärken aus.

Es wird heute von Kunden aus verschiedenen Bereichen eingesetzt. E-Commerce Lösungen mit Magento oder Shopwarearbeiten mit Ceph im Hintergrund, Datenbanken profitieren von der enormen und skalierbaren Geschwindigkeit von Ceph. Viele Onlinedienste nutzen Ceph als Datenspeicher und schätzen dabei vor allem die geringen Kosten und die einfache Erweiterbarkeit.

In großen Rechenzentren kommen die Vorteile von Ceph zum Tragen. Hohe Redundanz und Geschwindigkeit werden mit der steigenden Anzahl von Knoten im Cluster besser nutzbar. In Virtualisierungsumgebungen wie KVM oder XEN ist neben den genannten Punkten die hohe Skalierbarkeit wichtig, um dem Wachstum der angeschlossenen Dienste gerecht zu werden.

Was ist hardware Motherboard beispiel

Hardware ist die Gegenkomponente zu Software. Der Begriff beinhaltet alle technischen Komponenten eines Computers, Laptops, Smartphones oder Tablet PCs. Jedes auf mechanische oder elektronische Impulse reagierende Bauteil, inklusive Drucker, USB Sticks und Tastaturen gehören zur Hardware. Dabei sind Hardwarekomponenten im Zusammenspiel mit dem Betriebssystem die Basis eines Computers, ohne die das Gerät nicht nutzbar wäre und keine Software installieren ließe.

Hardware hat unterschiedliche Größen und Formen

Das Mainboard, die Grafikkarte, die Tastatur und der Arbeitsspeicher wie der Prozessor sind Hardwarekomponenten eines Computers. Die unterschiedlichen Leistungen und Geschwindigkeiten basieren auf den verschiedenen Größen, in denen die technischen Komponenten hergestellt sind. Einfach erklärt könnte man sagen, alle Bauteile der technischen Geräte mit einer Haptik sind Hardware. Hingegen sind Programme und physisch nicht greifbare Details eines PCs oder Smartphones Software. Schon die Übersetzung der englischen Termini gibt Auskunft darüber, welche Komponenten als Hardware bezeichnet und in allen technischen Geräten eines Genres verbaut sind. Jeder PC hat ein Mainboard und eine Tastatur, die allerdings unterschiedlich beschaffen sein kann.

Interne und externe Hardware

Fällt der Begriff, gehen die Gedanken in erster Linie zu integrierten Bauteilen. Aber auch der Monitor, die Maus und Ausgabegeräte wie ein Drucker fallen in die Rubrik. Hierbei handelt es sich um externe Komponenten, die ebenfalls auf mechanische oder elektrische Impulse reagieren und entsprechend zu den Hardwarekomponenten des Computers gehören. Die Funktionalität von Computern basiert auf dem Zusammenspiel zwischen Hard- und Software, sodass eine Komponente die andere bedingt. Ohne Software sind technische Geräte nicht nutzbar und ohne Hardware besteht keine Basis, Programme aufzuspielen und den PC oder das Smartphone in Betrieb zu nehmen. Auch externe Hardware benötigt Komponenten, durch die eine Erkennung des Anschlusses am PC erfolgt.

Jedes physisch greifbare Bauteil ist Hardware

Laien denken bei der Begriffsbezeichnung primär an die Festplatte, den Prozessor oder den Arbeitsspeicher. Dass auch der Bildschirm, ein USB Stick oder die Maus unter die Rubrik fallen, ist für unerfahrene Computernutzer nicht selten eine Neuigkeit. Am besten lassen sich Hardwarekomponenten damit erklären, dass sie greifbar und damit haptisch sind. Man sieht sie, man kann sie berühren und sie bestehen aus einem festen Material. Selbst das Gehäuse eines Computers oder die Schale des Handys ist nicht einfach nur eine Hülle aus Metall oder Kunststoff, sondern zählt ebenfalls zu den Hardwarekomponenten des Geräts. Auch wenn es keine elektrischen oder mechanischen Impulse aufnimmt und weiterleitet.

Hardware als maßgeblicher Bestandteil zur Nutzbarkeit

Die Installation von Software und der Anschluss externer Geräte ist nur möglich, wenn es Hardwarekomponenten gibt. Irgendwo müssen die Daten gespeichert und zur jederzeitigen Abrufung hinterlegt werden. Dazu dienen die Speicherkarte oder die Festplatte, während der Prozessor die Geschwindigkeit regelt und der Arbeitsspeicher dafür sorgt, wie viele Anwendungen geöffnet sein können und wie das die Leistung des PCs oder Smartphones beeinflusst.

Ohne Hardwarekomponenten gibt es keine physischen Bauteile und somit keine Basis für die Installation von Software. Einfach erklärt: Ohne diese Bauteile wäre der PC oder das Smartphone überhaupt nicht existent. Das fällt im Hinblick auf die Tatsache auf, dass selbst das Gehäuse eine Hardwarekomponente und ein physisches Bauteil ist.

Nachdem der Markt für PCs in den jüngsten Jahren stagniert hat, gehen Marktforscher wie IDC nun von einer Stabilisierung des Computer-Absatzes aus. Insbesondere Firmen und gewerbliche Nutzung von PCs sollen wieder für Wachstum sorgen. Insbesondere der Trend zum Austausch von Computern in Unternehmen soll den Markt beflügeln, so Experten.

Überblick zum Markt und seiner Entwicklung

Schon seit einigen Jahren monieren Marktforscher einen schrumpfenden Absatz von PCs. Über mehrere Jahre erlebten PC-Verkäufe einen Rückgang, wobei jedoch für die folgenden Jahre von einer Trendwende ausgegangen wird. Wie das Analyseunternehmen Gartner mitteilt, wird für das Jahr 2019 ein Absatz im Gesamtvolumen von 273 Millionen Endgeräten erwartet. Dies entspricht einem leichten Zuwachs gegenüber dem Absatz von 273 Millionen Geräten.

IDC sieht Trend gebremst

So sieht ein im PC verbaute CPU von innen aus.

So sieht ein im PC verbaute CPU von innen aus.

Auch das Marktforschungsunternehmen IDC geht davon aus, dass im laufenden Jahr 2017 zunächst das Negativwachstum abgebremst wird, bevor sich der Markt 2018 stabilisieren wird. Hierbei soll ein großer Teil des Wachstums auf das Segment von Geschäfts-PCs entfallen. Bis 2019 rechnen die Marktforscher von IDC mit einem Absatz-Plus von 3,7 Prozent. Im Hinblick auf das Consumer-Segment gehen die Experten jedoch von einem weiteren Rückgang der Verkaufszahlen bis mindestens 2020 aus. Wesentliche Gründe finden sich in der Konkurrenz durch Smartphones und Tablets. Diese soll jedoch die Entwicklung der Gerätekategorie leichter und dünner Ultra-Mobiles ankurbeln. Diese Notebook-Kategorie kann den Rückgang der Verkaufszahlen klassischer Notebooks kompensieren. Schon in den vergangenen Monaten hat die wachsende Beliebtheit von Mini-Notebooks die Absatzverluste teurerer PCs kompensiert.

Die Bedeutung der Firmen-Computer

Die Marktforschung geht von einer verstärkten Austausch-Offensive von Unternehmens-PCs aus. Viele Firmen modernisieren oder stellen ihre Computer-Systeme um, was dem Absatzrückgang auf dem Consumer-Markt entgegenwirkt. Gleichzeitig bleibt zu berücksichtigen, dass Notebooks und Desktop-PCs auch unter Privatanwendern nicht verschwinden werden. Es ist nicht davon auszugehen, dass Tablets den PC verdrängen werden, da Verbraucher nicht auf den Zusatznutzen des Computers verzichten wollen. So sind etwa zahlreiche Anwendungen und Applikationen für Mobilgeräte noch nicht verfügbar. Auch sind Möglichkeiten, Monitore und Tastaturen an Smartphones anzuschließen noch in der Entwicklungsphase.

Cloud-Computing und Hardware-Austausch

Seit einigen Jahren zeigen Unternehmen eine verstärkte Tendenz zum Cloud-Computing. Hierbei greifen mehrere Mitarbeiter im Unternehmen über Cloud-Profile auf die gleichen Computer zu. Experten gehen davon aus, dass diese gemeinsame Nutzung zu einem schnelleren Verschleiß der Geräte führen wird. Die Folge wäre die Notwendigkeit eines schnelleren Austauschs der Computer.

Gleichfalls geht das Analyseunternehmen Gartner davon aus, dass sich der Markt für Handys und Smartphones weiterhin positiv entwickeln wird. Allerdings wird mit einem im Verhältnis zu den Vorjahren gebremsten Wachstum gerechnet, wie der dpa mitgeteilt wurde.