Beiträge

Schadsoftware und heimtückische Websites erkennen Sie nicht mit dem bloßen Auge. Auch Angriffe von Hackern können nicht einfach so und ohne eine im Hintergrund laufende Unterstützung abgewehrt werden. Hier kommt der Virenscanner ins Spiel, der sich auf jedem PC und Smartphone befinden und neben der Firewall zusätzlich vor Eindringlingen auf einem Computer oder dem Server schützen soll.

Definition Virenscanner

Grundsätzlich werden Virenscanner in drei verschiedene Arten, abhängig von ihrer Funktion unterteilt. Es gibt manuelle Scanner, Echtzeitscanner und Onlineprogramme zur Aufspürung und Unschädlichmachung von Schadware. Jeder Virenscanner dient unabhängig seiner häufig implementierten Zusatzfunktionen dazu, Würmer, Trojaner und Viren aufzuspüren und diese in die Quarantäne zu verschieben oder durch Löschung unschädlich zu machen. Antivirus-Programme sperren Hacker aus und sind neben der Firewall essenzielle Schutzmechanismen für die sensiblen Daten auf Servern und Computern. Der Begriff Virenscanner ergibt sich aus der Funktion des Programms, das bestenfalls automatisch im Hintergrund läuft und den PC kontinuierlich nach Schadware scannt.

Anwendungsbereiche von Virus-Scannern

Ein Antivirus-Programm ist für Heimanwender ebenso wichtig wie für Firmen. Viren oder Mal- und Spyware gefährden die Funktionalität Ihres Computers und stellen die digitale Sicherheit durch das Ausspähen und Abgreifen von Daten in Frage. In den letzten Jahren haben sich immer mehr Virenscanner-Hersteller darauf konzentriert, künstliche Intelligenz einzubauen und auf diesem Weg die Entdeckung und Unschädlichmachung von Schadware zu beschleunigen. Noch vor einigen Jahren brauchte ein Virenprogramm bis zur Lösungsfindung meist einige Tage, was in der heutigen schnelllebigen Zeit unverhältnismäßig wäre. Ältere Scanner beschäftigten sich mit der Suche nach bekannten „Verhaltensmustern“ von Websites und nahmen die Einordnung in sicher und unsicher anhand dieser Faktoren vor.

Heute arbeitet der Virenscanner mit Analysen, die sich nicht auf bekannte Muster, sondern auf das tatsächliche Verhalten einer Website oder Software in Echtzeit beziehen. Schadware, aber auch Sicherheitslücken und Bugs werden aufgespürt und können nach der Verschiebung ins Quarantäneverzeichnis entfernt werden.

Die verschiedenen Begrifflichkeiten im Zusammenhang mit Virenscannern

Wenn Sie sich intensiv mit Virenscannern beschäftigen, wird Ihnen der Begriff Vulnerability häufiger vor Augen geführt. Die Bezeichnung wird in verschiedenen Bereichen verwendet und steht für die Wunde, beziehungsweise die Verwundbarkeit. PC-Technik und Serverschutz mit geringer Vulnerabilität, also mit einem minimalen Verwundungsrisiko bieten Ihnen die beste und der Datenschutzgrundverordnung entsprechende Sicherheit. Im Kontext zu Sicherheitslücken taucht der Begriff Exploit auf. Exploits sind kleine Programme von Hackern. Sie spüren Schwachstellen in Software und auf Computern auf. Für einen effektiven Rundumschutz sollte Ihr Antivirus-Programm daher nicht nur konventionelle Schadware aufspüren, sondern sich vollumfänglich für die Sicherheit im Internet und die Sicherheit Ihrer Daten einsetzen lassen. Beim effektiven Schutz für Unternehmen muss man auf komplexere und geräteübergreifende Lösungen setzen.

Antivirus-Lösungen für Firmen

Zwei essenzielle Faktoren spielen bei der Entscheidung für einen Virenscanner eine übergeordnete Rolle. In größeren Firmen werden Programme bevorzugt, die man unkompliziert zentral installieren und auf gleichem Weg verwaltet. Dabei sollte der Virenscanner kostenlos und äußerst effektiv sein. Die Einzelinstallation und Updates über jeden einzelnen Computer wären zu aufwendig. Sie würden obendrein innerhalb des Systems Lücken und damit die Gefahr von Eindringlichen von außen begünstigen. Zentrale Lösungen mit Management-Option sind für Firmenkunden die beste Lösung. Es gibt verschiedene renommierte Hersteller von Antivirus-Software, die kostenlose Komplettlösungen für Unternehmen anbieten.

Bei ESET nennt sich die Lösung ESET Remote Administrator (kurz ERA) und ist eine kostenlose Möglichkeit für Firmen, sich umfassend vor Schadware und den damit verbundenen Sicherheitsrisiken und Kosten zu schützen. Die Ausrichtung des Managements hängt davon ab, wie viele Geräte Sie mit einem Virenscanner überwachen und von Sicherheitsrisiken befreien möchten.

Der Virenscanner muss zum Risiko passen

Bei der Auswahl eines Virenscanners sollten Sie als gewerblicher Anwender mit Kompetenz und einer realistischen Einschätzung Ihrer Risiken vorgehen. Fakt ist, dass ein Scanner für Trojaner und Würmer heute nicht mehr ausreicht und mehr Schadware durchlässt als stoppt. Da die Kombination von Scanner häufig zu Kompatibilitätsproblemen führt, sollten Sie sich für eine Software entscheiden. Arbeiten Sie mit sensiblen Daten im Kundenverkehr, ist ein besonders umfangreicher Schutz notwendig. Wenn Sie sich für einen Virenscanner entscheiden, prüfen Sie vorab die Updates für die stetige Aktualisierung und Anpassung auf neue Risiken.

Red Hat, innovative Open-Source-Lösungen, kurz vorgestellt

Wer sich über ein geeignetes Server-Betriebssystem oder über Cloud-Anwendungen Gedanken macht, stößt über kurz oder lang auf Red Hat. Was ist Red Hat und wofür steht der rote Hut als Markenzeichen?

Der Begriff Red Hat kennzeichnet sowohl das amerikanische Software-Unternehmen als auch die gleichnamigen Linux-Distributionen. Der rote Hut symbolisiert das Engagement von Red Hat als Agent im Einsatz für Open Source in der digitalen Welt.

Die Geschichte der Entwicklung von Red Hat

Das weltweit agierende Unternehmen Red Hat wurde im Jahr 1993 gegründet und hat seinen Hauptsitz im nordamerikanischen Raleigh, North Carolina.

Das Unternehmen hat sich mit seinen Produkten dem Dienst an der Entwicklung von Open Source verschrieben. Anders als häufig gemeint, bedeutet Open Source dabei nicht immer kostenlos, sondern quelloffen, d. h. der Quellcode der Software ist für jedermann einsehbar.
Die ursprünglich kostenfreie Distrubution Red Hat Linux (RHL) wurde bereits 1994 vorgestellt und zählt damit zu den ältesten Linux-Distributionen.

2003 wurde die freie, nicht kommerzielle Distribution von Red Hat eingestellt und wird seitdem als eigenes Projekt von der Fedora Community fortgeführt. Das Unternehmen Red Hat konzentriert sich nun auf kommerzielle Open-Source-Lösungen für den Unternehmensbereich, u. a. mit dem Projekt Red Hat Enterprise Linux (RHEL).

RHEL gilt unter den Linux-Distributionen im unternehmsbezogenen Anwendungsbereich als Markt- und Innovationsführer. Sie wird seit vielen Jahren durch eine Vielzahl unabhängiger Software-Hersteller im Unternehmensbereich unterstützt u. a. von SAP und Oracle. RHEL zeichnet sich durch lange und stabile Laufzeitzyklen von rund 10 Jahren pro Version aus und gewährleistet damit unternehmerische Planungssicherheit.

Unter Berücksichtigung der Quelloffenheit des Systems hat das Unternehmen Red Hat zur Betreuung seiner Firmenkunden ein besonderes Lizenzsystem eingeführt. Die Nutzung von RHEL wird mit dem Abschluss verschiedener kostenpflichtige Supportverträge (Subskriptionsmodell) verknüpft.

Seit Ende 2018 gehört das Unternehmen Red Hat zum IBM-Konzern. Mit rund 30 Milliarden Euro gehört dies zu den größten Übernahmen in der Unternehmensgeschichte von IBM.

Red Hat heute

Das Geschäftsfeld von Red Hat konzentriert sich beim IBM-Konzern heute auf zunehmend auf Unternehmensanwendungen im Cloud Computing, hier vor allem im Feld der Hybrid-Cloud-Lösungen.

Unternehmen jeder Branche und Größe wenden sich zunehmend Cloud-Anwendungen zu. Sie benötigen vor allem flexible, hybride Lösungen und Multi-Cloud-Services. Ziel ist es, die eigenen Server mit unterschiedlichsten Cloud-Plattformen sowie Cloud-Services zu verbinden und diese gemeinsam zu nutzen. Open-Source stellt aufgrund der Quelloffenheit oftmals eine sinnvollere Atlernative dar, als proprietäre, d. h. geschlossene Cloud-Lösungen.

Daher ist es auch erklärtes Ziel von IBM, die Unabhängigkeit von Red Hat im Bereich Open-Source zu wahren und fortzuführen. Nicht ohne Grund zählt Red Hat seit Jahren als zu den Innovationführern und Vordenkern im Bereich der Open-Source-Anwendungen.

Das Unternehmen Red Hat bietet im IBM-Konzern ein umfangreiches Produktportfolio an, darunter Lösungen für Hybrid-Cloud-Infrastrukturen und Middleware. Agile Integration sowie cloudnative Anwendungsentwicklung kommen hinzu, ebenso wie Services zum Management und zur Automatisierung. Auch die Entwicklung von Container-Technologien und das Kubernetes-Projektes werden von Red Hat beim Cloud Computing unterstützt.

Red Hat bietet Unternehmen jeder Größe Technologien, die diese im Zeitalter der digitalen Transformation sowie Vernetzung zukunftsfähig machen und ihnen die notwendige Anpassungsfähigkeit ermöglichen.

Für kleinere Unternehmen: CentOS

RHEL ist als kostenpflichtiges Linux-Betriebssystem eher im Hochpreissegment angesiedelt und wird von Red Hat nur in Verbindung mit den zugehörigen Supportverträgen geliefert. Daher kommt es in der Regel auf den Servern großer Unternehmen zum Einsatz.

Kleinere und mittelständische Unternehmen (KMU) haben die Möglichkeit, auf CentOS als Alternative auszuweichen. Das sog. Community Enterprise Operating System gehört zu neben Debian und Ubuntu mittlerweile zu den erfolgreichsten Linux-Distributionen. CentOS legt bei der Entwicklung Wert darauf, möglichst langfristig einsetzbar und stabil zu sein. Dies wiederum führt dazu, dass es häufig auf Servern zur Anwendung kommt.

Engagierte Entwickler

CentOS basiert als Gemeinschaftprojekt freiwilliger Softwareentwickler auf der Red Hat Enterprise Linux-Distribution (RHEL). Möglich ist dies dadurch, dass Red Hat die Quellpakete von RHEL als Open Source im Internet zur Verfügung stellt. Damit konnten engagierte Entwickler im Projekt CentOS eine mit RHEL-kompatible eigene Linux-Distribution schaffen. Aktuell unterstützt Red Hat das Projekt CentOS Stream, ein sog. Rolling Release. CentOS bietet damit eine Beta-Version kommender Versionen von RHEL an.

Die Binärkompatibilität bringt es mit sich, dass Unternehmen die Vorteile von RHEL nebst zugehöriger freier Software nutzen können, ohne sich an entsprechende Supportverträge binden zu müssen. Eine kurze zeitliche Verzögerung, die die um meist zwei bis drei Monate gegenüber RHEL nachgelagerte Entwicklung der jeweils neuesten Version von CentOS mit sich bringt, fällt demgegenüber nicht sehr ins Gewicht.

Digitale Transformation – die richtigen Entscheidungen treffen

Professionelle Systemhäuser unterstützen Sie mit Erfahrung und Sachverstand bei der richtigen Entscheidung für die IT-Landschaft Ihres Unternehmens. Welche IT-Lösungen Sie am Ende für Ihr Unternehmen auch bevorzugen, ob ausschließlich eigene Server, Hybrid- und /oder Multi-Cloud-Modelle: Ziehen Sie frühzeitig qualifizierte IT-Fachleute für Ihr Unternehmen hinzu. So gelingt es Ihnen, den digitalen Wandel zu meistern und Ihr Unternehmen erfolgreich in die Zukunft digitaler Transformation zu führen.

Dank RIPE NCC finden Ihre IP-Pakete ihr Ziel

Das RIPE NCC, eine von weltweit fünf RIRs, verwaltet die IP-Adressen hauptsächlich im eurasischen Raum. Dazu gehören beispielsweise Länder der ehemaligen Sowjetunion und des mittleren Ostens. Damit erfüllt das RIPE NCC ähnliche Aufgaben wie die IANA und erhält auch von dort IP-Adressbereiche zugeteilt. Anders als die ICANN ist es nicht für Domain-Registrierung und DNS Server zuständig.

Was ist das RIPE NCC genau?

Das RIPE NCC erfüllt die Funktion einer „Regional Internet Registry“, abgekürzt RIR. Die IANA delegiert seit Anfang der 1990er-Jahre die Verwaltung von IP-Adressbereichen an unabhängige Organisationen, jeweils für einen bestimmten geographischen Raum, grob orientiert an den Kontinenten. Wenn Sie etwa als ISP in Deutschland ganze Netze öffentlich zugänglicher IP-Adressen benötigen, ist nicht ICANN/IANA sondern das RIPE NCC der richtige Ansprechpartner. Das gilt aber auch für Grönland, obwohl es zum amerikanischen Kontinent gehört. Die Zuständigkeit bezüglich der Tätigkeit leichter zu erfassen.

Ist das RIPE NCC nur für IP-Adressen zuständig?

RIRs befassen sich primär mit der IP-Adresse und der damit verwandten Autonomous System Number (ASN), nicht aber mit einem Domain-Namen, obwohl dieser über den DNS Server mit einer IP-Adresse verknüpft ist. Als entscheidender Unterschied sind IP-Adresse und ASN für das Routing im Internet nötig. Das heißt, sie regeln den Transport von Datenpaketen. Sie geben Aufschluss, welcher Weg über welche Router ein IP-Paket ans Ziel führt. Dagegen ist der Name einer Domain für den menschlichen Nutzer gedacht. Ein FQDN wie www.biteno.de ist leichter zu merken als ein numerischer Wert. Letztendlich ist es gerade der Zweck des Domain Name Systems, Domain-Namen über DNS Server mit der zugehörigen IP-Adresse zu verknüpfen, die der Router benötigt.

Diese Nebenaufgaben erfüllt das RIPE NCC

Neben seiner Hauptaufgabe bietet das RIPE NCC, wie die anderen RIRs, Information und Weiterbildungsgangebote für seine Mitglieder. Das sind vor allem ISPs, Organisationen der Telekommunikationsbranche, Regierungs-, Forschungs- und Bildungseinrichtungen sowie größere Unternehmen. Prinzipiell können Sie aber auch als Privatperson Mitglied werden, wenn Sie sich an der Weiterentwicklung des Internets beteiligen wollen. Als weitere Nebenaufgabe leistet das RIPE NCC technische und administrative Unterstützung für RIPE.

Wie ist das RIPE NCC organisiert?

Ähnlich wie beim Duo ICANN/IANA gibt es beim RIPE NCC ebenfalls eine Zweiteilung. RIPE ist ein europäisches, nicht institutionalisiertes, offenes Forum für die technische Entwicklung des Internets. Dieses hat 1992 das RIPE NCC als Organisation nach niederländischem Recht gegründet, die als RIR fungiert. Dieser Zusammenhang macht auch den Namen RIPE NCC verständlicher, der sich aus einem französischen und einem englischen Teil zusammen setzt: die Abkürzung steht für Réseaux IP Européens Network Coordination Centre. Anders als bei ICANN und IANA ist aber das institutionalisierte RIPE NCC die verantwortliche Stelle für die Vergabe von IP-Adressblöcken und ASNs. Im Gegensatz zur ICANN sind weder RIPE noch RIPE NCC für Domain Registrierung und DNS Server verantwortlich. Hier wird ausschließlich die Funktion des Internets als Datentransportmittel gesichert. Warum sind dafür Registraturen wie das RIPE NCC notwendig?

IP-Adresse und ASN, Domain und DNS Server, wofür brauchen Sie was?

Wenn Sie beispielsweise für den Abruf einer Webseite die Domain der URL über einen DNS Server nach der IP-Adresse auflösen, erhalten Sie eine eindeutige Adresse im Internet, an die Sie Ihre Anfrage schicken können. Für die effiziente Verarbeitung setzt sich diese aus einer Netzwerk- und einer Host-Adresse zusammen. Letztere ist nur im LAN mit der gegebenen Netzwerkadresse interessant, denn sie identifiziert genau eine Netzwerkschnittstelle darin. Im Beispiel ist das der DNS Server für die Adressauflösung der Domain und der Webserver für den Seitenaufruf. Für das Routing im WAN, das die Start- und Zielnetze verbindet, reicht die Netzwerkadresse. Das reduziert den Aufwand bei den Routern.

Was sind Netzwerk- und Host-Teil einer IP-Adresse?

Bei der Einführung des Internet Protokolls besteht die Netzwerkadresse aus den acht höchstwertigen Bits der IP-Adresse. Damit sind aber nur 256 Netze möglich, mit jeweils über 16 Millionen Hosts. Viel zu wenige, aber auch zu große Netze für ein wachsendes Internet aus zunehmend kleineren Organisationen. Die IANA teilt daher den IP-Adressraum zunächst in Klasse A, B, und C auf, mit 8, 16 und 24 Bit langen Netzwerkadressen. Die damit möglichen über 500 Millionen Class-C-Netze bieten jeweils 254 Hostadressen. Das ist für viele Organisationen zu wenig und die 65.534 der Klasse B zuviel. Daher gibt es vor der Einführung von IPv6 drei weitere, sich ergänzende Lösungsansätze, um die Erschöpfung des IP-Adressraums hinauszuzögern: Subnetting, Classless Inter-Domain Routing (CIDR) und Autonomous Systems (AS). Letztere fassen IP-Adressbereiche für das WAN-Routing zusammen. Die betroffenen Router informieren sich darüber eigenständig mittels Border-Gateway-Protokoll (BGP). Wie beim DNS Server ist damit eine Software für die automatische Verteilung der Daten zuständig.

Warum delegiert die ICANN die Verwaltung des IP-Adressraums an RIRs?

Grund für die Einführung der RIRs ist, neben dem zunehmende Verwaltungsaufwand für IANA und später ICANN, die größere Nähe zu den Nutzern des IP-Adressraums, das Fehlen einer internationalen Finanzierung der IANA, die im Gegensatz zur ICANN keine Organisation ist.

Was ist Azure und wofür wird es verwendet?

Bei Microsoft Azure handelt es sich um eine performante Cloud-Computing-Plattform des IT-Giganten Microsoft. Die Plattform stellt Cloud-Dienste wie IaaS- (Infrastructure as a Service), SaaS- (Software as a Service) und PaaS-Lösungen (Plattform as a Service) über ein weltweit verteiltes Netzwerk an Rechenzentren zur Verfügung.

Die Azure-Plattform ist hoch skalierbar und richtet sich mit ihrem Angebot in erster Linie an Entwickler und Unternehmen. Microsoft hat seine Cloud-Dienste erstmals im Jahr 2010 der breiten Öffentlichkeit zugänglich gemacht und arbeitet seither kontinuierlich an der Optimierung bestehender und der Einführung neuer Dienste.

Vielzahl unterschiedlicher Cloud-Dienste

Was es mit Azure und Cloud Computing auf sich hatMicrosoft bietet seinen Nutzern unterschiedliche Services an, die diese aus der Cloud beziehen können. Hierzu gehören Dienstleistungen aus den Bereichen Infrastructure as a Service (IaaS), Platform as a Service (PaaS) und Software as a Service (SaaS). Zum Angebot an verfügbaren Cloud-Diensten gehören auch hoch performante Datenbankensysteme und Speicherlösungen, die Nutzern weltweit zur Verfügung gestellt werden.

Das Ziel, das Microsoft mit seiner Cloud-Strategie verfolgt, ist es, Anwendern eine flexible und skalierbare Cloud-Infrastruktur bereitzustellen, die man den eigenen Anforderungen und Wünschen schnell und unkompliziert anpassen kann, wodurch der Betrieb einer privaten IT-Infrastruktur überflüssig wird.

Da Microsoft Rechenzentren auf der gesamten Welt auf strategisch wichtigen Standorten platziert hat, stehen alle Cloud-Dienste mit hoher Verfügbarkeit rund um den Globus zur Verfügung. Dank innovativer Technologien ermöglicht Azure den Einsatz von hybriden Systemen, bei denen nur ein Teil der Infrastruktur in der Cloud betrieben und der Rest auf lokalen Servern realisiert wird.

Einteilung der Azure-Cloud in unterschiedliche Bereiche

Die Cloud von Microsoft lässt sich in unterschiedliche Bereiche einteilen, und zwar:
– der Computing-Bereich
– der Speicher-Bereich
– das Content Delivery Netzwerk (CDN)
– der Marketplace
– der AppFabric-Bereich

Im Computing-Bereich wird Rechenleistung für Anwendungen, virtuelle Server, Datenbanken und Rechenaufgaben zur Verfügung gestellt. Durch den Einsatz der virtuellen Cloud-Server der Azure-Cloud können eigene Server, die lokal betrieben werden, über Images schnell und einfach in die Cloud ausgelagert werden. Das Speichern von Daten in der Cloud wird im Bereich Storage realisiert. AppFabric bietet Entwicklern die Möglichkeit, verteilte Anwendungen schnell und einfach über die Infrastruktur des Cloud-Systems von Microsoft zu betreiben. Bei dem Marketplace handelt es sich um einen Online-Marktplatz, auf dem Dienstleistungen von Drittanbietern Kunden von Azure bereitgestellt werden.

Die Azure-Cloud und Aspekte des Datenschutzes

Die gesamte Infrastruktur der Microsoft-Cloud inklusive all ihrer Services wird in Rechenzentren betrieben, die rund um den Globus verteilt sind. Sie als Microsoft-Kunde haben in der Regel die Wahl, darüber zu entscheiden, in welchem Rechenzentrum Sie Ihre Dienste betreiben möchten. Die aktuellen EU-Datenschutzvorgaben und Compliance-Richtlinien können es für manche Unternehmen erforderlich machen, Server zu nutzen, die in Deutschland oder in der Europäischen Union platziert sind. Dies bietet nicht nur den Vorteil von kürzeren Latenzzeiten, sondern Sie stellen damit sicher, dass Ihr Unternehmen mit den europäischen Datenrichtlinien konform ist.

Wie hängt Azure mit dem Datenschutz zusammen?

Eigens für deutsche Nutzer hat Microsoft eine Dienstleistung in Form eines Treuhand-Konstruktes zur Verfügung gestellt, die den deutschen Datenschutzbedürfnissen genügen sollte. Der Zugriff auf Daten, die in den deutschen Rechenzentren in Magdeburg und Frankfurt am Main aufbewahrt wurden, wurde durch einen Datentreuhändler kontrolliert. Obwohl die deutschen Rechenzentren einen wichtigen Bestandteil der globalen Azure-Cloud darstellten, wurde somit gewährleistet, dass Daten nicht in ein Rechenzentrum außerhalb Deutschlands transferiert werden. Leider wurde dieser Service inklusive der in Deutschland stationierten Rechenzentren im Jahr 2018 aufgrund mangelnden Interesses eingestellt.

Microsoft-Cloud und das Betriebssystem Linux

Obwohl die Azure-Cloud ein Produkt des IT-Giganten Microsoft ist, müssen Sie nicht ausschließlich auf dem Betriebssystem Windows basierende Server nutzen. Sie können in der Microsoft-Cloud problemlos verschiedene Linux-Distributionen betreiben. Realisiert wird das durch den Einsatz sogenannter „virtueller Maschinen“, wo Sie Betriebssysteme wie Debian, Red Hat oder Ubuntu installieren können.

Funktioniert Azure nur mit Windows?

Dadurch entsteht die nötige Flexibilität, unabhängig vom Betriebssystem die Software zu nutzen, die optimal auf Ihre Anforderungen zugeschnitten ist. Darüber hinaus werden zahlreiche Tools und Applikationen von Herstellern wie IBM oder SAP unterstützt. Die Leistungsfähigkeit und die Ressourcen der virtuellen Maschinen können Sie nach persönlichen Anforderungen variabel wählen, wobei die Abrechnung nutzungsabhängig ist.

Garantierte Verfügbarkeit und Ausfallsicherheit

Unternehmen, die ihre Dienstleistungen und Anwendungen auf externe Server verlagern, müssen mit einer hohen Verfügbarkeit und Ausfallsicherheit rechnen. Dank der innovativen Azure-Cloud-Infrastruktur können SLAs (Service Level Agreements) realisiert werden, mit denen Verfügbarkeiten von bis zu 99,9 Prozent

Höhere Verfügbarkeiten mit Azure

gewährleistet werden. Je nach Bedeutung werden die Azure-Cloud-Services in unterschiedliche Verfügbarkeitsgruppen unterteilt. Für die Storage- und Computing-Services garantiert Microsoft beispielsweise eine Verfügbarkeit von bis zu 99,9 Prozent.

Das Betriebssystem vermittelt zwischen Hardware und Programm

Ein Betriebssystem, auch OS (von englisch operating system) ist eine Software zwischen Hardware und Anwendungsprogrammen. Das Betriebssystem vermittelt den Zugriff auf die Hardware-Ressourcen des Computers, wie Arbeitsspeicher, Festplatten, Drucker und USB-Ports. Nicht nur der PC braucht ein Betriebssystem, sondern auch Tablets, Smartphones und andere Computer. Bekannte Betriebssysteme sind Windows, Mac OS , Unix, Linux, iOS und Android.

 

Das Betriebssystem verwaltet und kontrolliert die Hardware, also die Komponenten des jeweiligen Computers. Dazu gehören auch Ausgabegeräte, wie Drucker, DVD-Laufwerk, Tastatur, die Maus und andere Schnittstellen der Hardware, wie etwa USB-Ports. Im Grunde könnte eine Anwendungssoftware, wie z. B. MS Word, diese Aufgaben auch selbst übernehmen. Dann müsste das Anwendungsprogramm jedoch für die verschiedenen Hardwareausführungen der Computer spezielle MS-Word-Versionen anbieten. Mit dem Betriebssystem wird hingegen der Verwaltungsaufwand für die Anwendungsprogramme reduziert und zusätzlich eine einheitliche Oberfläche geschaffen, auf die eine Software von Drittanbietern aufsetzen kann.

 

Betriebssystem als Softwareschicht zwischen Hardware und Programm

Betriebssysteme verbinden die Anwendersoftware mit den Hardware-Ressourcen. Auf fast allen Arten von intelligenten, computergestützten Geräten wird zunächst ein Betriebssystem installiert: Desktoprechner, Laptops, Server, Minicomputer, Großrechner in Rechenzentrum sowie kleinere Systeme wie Smartphones, PDAs (Blackberry u.a.) haben ein Betriebssystem, um anderen Programmen einen standardisierten Zugriff und Kontrolle auf die Hardware-Ressourcen zu ermöglichen. Neben Windows, Mac OS und Linux nutzen einige Universitäten und Forschungseinrichtungen selbst entwickelte Betriebssysteme. Dazu gehören beispielsweise das Betriebssystem Amoeba der Vrije Universiteit Amsterdam. Amoeba ist inzwischen eines der bekanntesten Betriebssysteme für verteilte Systeme. Weitere Uni-Betriebssysteme sind Barrelfish der ETH Zürich und Microsoft Research sowie Rainbow, ein verteiltes Betriebssystem der Universität Ulm.

Bestandteile von Betriebssystemen

Zum Betriebssystem gehören drei grundlegende Bestandteile:

Kernel: Der Systemkern verwaltet den Speicher, den Prozessor und die Prozesse des Systems. Er ist für die Hardware zuständig und triggert beim Start andere Programme für weitere Aufgaben, wie etwa die Gerätetreiber für Drucker und Peripherie.

– Über den Befehlsübersetzer man mit dem Betriebssystem kommunizieren.

– Dateisystem: Das Betriebssystem definiert auch das Dateisystem, das für die Struktur und Ablage von Dateien zuständig ist.

Abläufe im Betriebssystem:

– Benutzerkommunikation

– Ausführen und Beenden von Programmen

– Zuteilung der Prozessorzeit

– Verwaltung von Speicherplatz und angeschlossenen Geräten Zugriffsbeschränkungen.

Anforderungen an ein Betriebssystem

  1. a) Schaffung von Schnittstellen zu Anwendungsprogrammen

Jede Anwendung (z. B. eine Textverarbeitung) erhält mit dem Betriebssystem einen klar definierten und sauberen Zugriff auf die verfügbare Hardware. Der Programmierer wendet sich nicht an die jeweiligen RAM-Module des Arbeitsspeichers, sondern an die zuständige Softwarekomponente des Betriebssystems. Damit muss der Programmierer die spezifischen Hardwareeigenschaften der verbauten RAM-Module nicht kennen. Das Betriebssystem erzeugt demzufolge abstrakte Objekte, um die Komplexität der unterliegenden und oftmals recht herstellerabhängigen Hardware beherrschbar zu machen.

  1. b) Die Verwaltung der Hardware-Ressourcen

Das Betriebssystem teilt den Benutzern bzw. der Anwendungssoftware die Prozessorleistung zu. Auch Speichereinheiten und Peripheriegeräte werden vom Betriebssystem verwaltet und verteilt. Übernimmt ein Anwendungsprogramm eine Ressource, wie z. B. einen Drucker, so übernimmt das Betriebssystem gleichzeitig die Überwachung des Vorgangs. Bei mehreren Druckanfragen von unterschiedlichen Programmen, entscheidet das Betriebssystem nach definierten Algorithmen, wie eine Verteilung der Ressource erfolgt. Wird ein Computer oder ein Netzwerk von mehreren Benutzern verwendet, müssen vom Betriebssystem zusätzlich Maßnahmen für den Speicherschutz getroffen und konkurrierende Zugriffe auf andere Betriebsmittel geregelt werden.

Systemsoftware vs. Betriebssystem

Das Betriebssystem ist Teil der Systemsoftware, die sämtliche Abläufe auf dem Rechner steuert. Zur Systemsoftware gehören Editoren, Compiler und Interpreter. Browser und andere Anwendungssoftware, wie z. B. ein Buchhaltungsprogramm, nutzen die Systemsoftware für einen ordnungsgemäßen Ablauf. Geregelt ist der Begriff des Betriebssystems sowie sein Umfang in der DIN 44300. Der Umfang des Betriebssystems ist jedoch nicht unumstritten und führende Informatiker grenzen die Komponenten des Betriebssystems weiter ein oder weiten seinen Umfang aus. Im Informatik-Duden gehören auch Übersetzungsprogramme und Dienstprogramme zu den wesentlichen Betriebssystem-Komponenten. Ein Beispiel für die Kontroversen um die Abgrenzung des Betriebssystems ist der GNU/Linux-Namensstreit.

Treiber für Hardwarekomponenten

Die Computer-Hardware eines Desktop-Computers ist zwar selbst zwischen den Herstellern sehr ähnlich, jedoch können die jeweiligen Hardwarekomponenten oder Bauteile unterschiedliche Anforderungen stellen. Wird beispielsweise eine Komponente eines Computers ersetzt, sind meist zusätzlich spezielle Treiberprogramme des Herstellers erforderlich. Einige dieser Treiber werden mit dem Betriebssystem, wie z. B. MS Windows ausgeliefert, jedoch sind nicht alle Versionen und Geräte im Lieferumfang enthalten. In einem solchen Fall müssen die Treiber von der Herstellerseite heruntergeladen werden.

Geschichte der Betriebssysteme

Anfänglich wurden Software und Daten noch über Lochkarten in den Computer gebracht. Der Begriff der „Batchverarbeitung“ (deutsch: Stapelverarbeitung) stammt aus dieser Zeit. Die Lochkarten mussten als Stapel in das Lesegerät des Großrechners eingelegt werden. Meist war die Reihenfolge der Lochkarten wichtig und durfte nicht durcheinandergebracht werden. War eine Lochkarte beschädigt, musste der Stapel beendet, die Karte erneuert und die Einleseprozedur nochmals gestartet werden. In den Anfängen der Großrechner gab es zunächst keine Hardwarespeicher und externe elektronische Speichermedien. Festplatten wurden später entwickelt und waren lange Zeit sehr teuer. An die permanente Ablage von Daten auf einer Festplatte war nicht zu denken. Nach den Lochkarten übernahmen Magnetbänder die Rolle der erschwinglichen Datenträger. Der Begriff der Batch- oder Job-Verarbeitung beschreibt heute die sequentielle Planung von Programmläufen, die meist automatisch getriggert wird.

Aktuelle Hardware und ihre Betriebssysteme

Die Vorläufer der Desktopsysteme waren Heimcomputer mit Betriebssystemen wie AmigaOS, DOS, LUnix, MiNT oder GEOS für den Commodore C64. Auf Großrechnersystemen, die häufig IBM-Maschinen waren, wurde häufig das Betriebssystem AIX installiert. Die Betriebssysteme BS1000 bis BS3000 liefen auf Siemens Großrechnern. Java-basierte Betriebssystem sind typische Middleware-Produkte, wie etwa das JavaOS von Sun Microsystems, MIDP (Mobile Information Device Profile) und JNode (Java New Operating System Design Effort). Auf Desktoprechnern laufen heute Microsoft Windows, BSD inkl. Mac OS von Apple sowie GNU/Linux.

Server-Betriebssysteme

Die bekanntesten Systeme sind Microsoft Windows, Unix und Linux. Für Windows sprechen seine einfache Bedienbarkeit sowie die Vielzahl der windows-basierten Anwendungssoftware, die zudem oft nur eingeschränkt auf anderen Betriebssystemen lauffähig ist.

Linux-basierte Serversysteme haben ihre Vorteile, wie etwa die das offen gelegte Coding (Open-Source-Software). Damit kann jeder das Betriebssystem einsehen, ändern und erweitern. Ein weiterer Vorteil der Open-Source-Systeme ist eine sich bildende Community, die ständig Neuerungen und Sicherheits-Updates bereitstellt.

In großen Rechenzentren spielen Unix-Betriebssysteme noch immer eine Rolle. Sie sind besonders stabil und zuverlässig. Herausgebildet haben sich auf dem Markt die Unix-Derivate AIX (IBM) und HP-UX (Hewlett-Packard). Unix-Betriebssysteme gelten als weniger angreifbar.

Ein Managed Server ist das, was man ein Rundum-Sorglos Paket nennt. Neben dem eigentlichen virtuellen Server als Speicherplatz und Host beinhalten Managed Server eine Vielfalt praktischer und sicherer Serviceleistungen. Backup Systeme und die Wartung des Internetauftrittes sind zwei der zahlreichen und häufig genutzten Beispiele.

Managed Server sind ausschließlich für den Kunden da während ein Shared Server nur gemietet wird und einen Teil des vorhandenen Speicherplatzes anhand der Mietkosten zur Verfügung stellt, bieten Managed Server ihren Kunden unendlich viel Speicherplatz. Ebenso wird das Maximum an Serviceleistungen per Fernwartung geboten, wodurch der Kunde auf der sicheren Seite und bestens betreut ist. Das Konzept Managed Server wird immer beliebter, was nicht zuletzt an der Kundenorientierung und den zahlreichen integrierten Zusatzleistungen liegt. Der Kunde steht im Mittelpunkt und erhält die besten Leistungen vom Anbieter.

Leistungsumfang beim Managed Server

Techniker wartet einen ServerDie Fernwartung, das Patch Management, ein Remote Data Backup und viele Aspekte zur Sicherheit sowie die Überwachung des Desktop sind integrierte Leistungen. Kunden sparen mit einem Managed Server eine Menge Zeit und Geld, da sie keinen eigenen IT Support beschäftigen oder sich selbst mit der IT Wartung beschäftigen müssen. Für private und klein gehaltene Websites ist ein Managed Server nur bedingt geeignet. Für Unternehmer, die keine eigene Energie und Zeit in das Hosting und die darum auflaufenden Aufgaben investieren möchten, bietet sich diese Option aber an.

Wie wird ein Managed Server bezahlt?

Der Kunde schließt einen All-Inklusive Vertrag ab und zahlt seine monatliche Rate. Bei allen gewünschten Änderungen und im Rahmen der vertraglich vereinbarten Dienstleistung genügt eine Anfrage des Kunden und die Aufgabe wird erledigt. Die sichere und seriöse Wartung der Seite ist ein deutlicher Vorteil, den sich Unternehmer durch das Outsourcing an einen Hoster sichern, der ihnen einen Managed Server anbietet. Ein einfacher Host ist günstiger, aber: Benötigt ein Unternehmen einen vollständigen IT Support, ist der Managed Server auf lange Sicht die günstigere und praktischere Variante. Vor allem Großkonzerne und mittelständische Unternehmen erhalten so einige Vorteile.

Weitere Artikel im Blog der Biteno GmbH zum Thema Server und Virtualisierung

Sicherheitskonzept Managed Server

Die Haftung für die Sicherheit der Kundendaten und der gesamten Website obliegt dem Betreiber des Servers. Bei einem Managed Server können Unternehmer sicher sein, dass der Betreiber seine Haftung ernst nimmt und seine Server mit der entsprechenden Sicherheitssoftware und Betriebssoftware ausstattet. Die Daten werden gesichert und der Kunde profitiert von einem Support, der keinen Wunsch offen und keine Frage unbeantwortet lässt. Datenschutz und Datensicherheit sind zwei Grundpfeiler von Managed Servern und liegen den Betreibern am Herzen.

Managed Server vs, klassischer Host

Beim klassischen Hosting bucht man Speicherplatz, der streng begrenzt und in der Aufstockung teuer ist. Beim Managed Server bucht man ein Full-Service Paket, das so viel Speicherplatz wie gewünscht beinhaltet. Expandiert das Unternehmen, wächst die Website ohne Probleme mit. Denn auf dem Managed Server können prinzipiell unendlich viele Daten gespeichert werden, wodurch Unternehmen nicht in ihrer Performance begrenzt werden. Wer nur eine kleine Firma oder einen kleinen Onlineshop betreibt, ist mit einem klassischen Host besser beraten. Großunternehmer und mittelständische Firmen sparen sich die IT Abteilung, da der Managed Server diese Dienstleistung beinhaltet und per Fernwartung vornimmt.