Bei Docker handelt es sich um eine Softwareplattform, mit der Entwickler schnell und einfach Anwendungen erstellen, testen und Nutzern bereitstellen können. Mit Docker können Entwickler Software in standardisierte Einheiten, die sogenannten Container, verpacken. Diese Container beinhalten alles, was zum Ausführen der verpackten Software benötigt wird, einschließlich aller Bibliotheken, der benötigten Laufzeitumgebung, Systemtools und Code. Mittels Docker lassen sich Anwendungen schnell und ohne größeren Aufwand in jeder Umgebung bereitstellen und nach Bedarf skalieren.

Docker im Detail

Bei Docker handelt es sich um eine innovative Softwarelösung, welche die Virtualisierung von containerisierten Anwendungen ermöglicht. Anwendungen können mit all ihren Abhängigkeiten in ein Image verpackt werden. Durch den Einsatz einer speziellen Engine, kann die so verpackte Software in einem Docker-Container plattformunabhängig ausgeführt werden. Die dockerisierte Anwendung ist bis auf einige wenige Schnittstellen zum Betriebssystem vollständig isoliert. Aus einem einzelnen Image lassen sich beliebig viele Container erstellen und parallel betrieben. Aus diesem Grund eignet sich Docker besonders gut, um cloudnative Anwendungen und Dienste bereitzustellen.

Die Container-Virtualisierungstechnologie ist keine neue Technik und wird im Linux-/Unix-Bereich schon seit vielen Jahren äußerst erfolgreich eingesetzt. Neben Docker gibt es auch eine Vielzahl ähnlicher Lösungen, die auf eine ähnliche Weise versuchen, die bestehenden Skalierungs- und Virtualisierungs-Probleme zu lösen. Docker ist jedoch der unangefochtene Spitzenreiter, um die Arbeit mit Containern möglichst unkompliziert und intuitiv zu gestalten.

Container im Vergleich zu virtuellen Maschinen

Im Vergleich zu Containern sind Virtuelle Maschinen (VMs) wahre Schwergewichte. Virtuelle Maschinen enthalten neben der simulierten Hardware und dem Hypervisor auch eine Kopie des Betriebssystems inklusive aller installierten Programme und Abhängigkeiten. Da sie eine große Menge an Informationen beinhalten, verbrauchen sie dementsprechend viel an Ressourcen und Speicherplatz. Nichtsdestotrotz haben virtuelle Maschinen nach wie vor einige Vorteile gegenüber Docker und Co. Insbesondere in Sachen Isolation bieten VMs eine viel höhere Sicherheit in den unteren Isolierungsschichten.

Auch im Fall, wenn auf einem Server mehrere virtuelle Maschinen mit jeweils unterschiedlichen Hardware-Konfigurationen oder Betriebssystemen bereitgestellt werden sollen, kommen virtuelle Server zum Einsatz. Im Vergleich hierzu besitzt ein Docker-Container kein eigenes OS und auch keine simulierte Hardware. Containerisierte Anwendungen greifen auf das System des darunterliegenden Hosts zu, sodass sich alle Container die Ressourcen des Betriebssystems und der Hardware teilen.

 

Ein Container ist also nur mit den nötigsten Informationen ausgestattet, die von den installierten Anwendungen tatsächlich auch benötigt werden. Neben der auszuführenden Anwendung selbst sind die Container in vielen Fällen auch mit spezifischen Frameworks und Bibliotheken versehen, auf denen die jeweilige Anwendung aufbaut. Konkret bedeutet das, dass ein Container so viel Informationen enthält, wie es nötigt ist.

Während eine traditionelle VM Hardware und Betriebssystem simuliert, teilt eine containerisierte Anwendung alle Ressourcen via Docker Engine mit dem darunterliegenden Host. Ein Container ist außerdem in der Lage, bei Bedarf auf externe Bibliotheken zuzugreifen. So lassen sich beispielsweise Abhängigkeiten auslagern, die von mehreren Docker-Containern benötigt werden, wodurch die Größe der Container nochmals reduziert wird.

Docker: Hochskalierbar und performant

Die Docker-Engine stellt das Herzstück der Containerisierung bei Docker dar. Die Software fungiert als eine Art Schnittstelle zwischen den Ressourcen des Host-Systems und den darauf ausgeführten Containern. Container können auf jedem System ausgeführt werden, auf dem die Docker-Engine installiert ist. Die Containertechnologie wurde ursprünglich für den Einsatz auf Linux-Systemen entwickelt. Da Microsoft in den letzten Jahren kräftig in Docker investiert und sich auch intensiv an der Weiterentwicklung beteiligt hat, kann die Containertechnologie mittlerweile auch auf allen modernen Windows-Systemen genutzt werden.

Im Vergleich zu VMs sind die containerisierten Images sehr schlank. In modernen Cloudumgebungen bringt das eine Vielzahl unterschiedlicher Vorteile mit sich. So können beispielsweise auf einem virtuellen Server deutlich mehr Container-Instanzen betrieben werden. Außerdem starten die Container viel schneller als virtuelle Maschinen, was eine viel besserer Flexibilität und Skalierung mit sich bringt.

Docker kann relativ einfach in bestehende DevOps-Systeme wie beispielsweise Puppet oder Ansible eingebunden werden, was die Verwaltung und Bereitstellung von Containern zusätzlich vereinfacht. Ein bedeutender Vorteil von Docker spiegelt sich in der Tatsache wider, dass sich die Container per Skript steuern lassen. Ein Docker-File ist mit allen notwendigen Informationen versehen, um einen Container selbständig starten zu können. Aus diesem Grund eignet sich die Container-Plattform ideal, um in der Cloud betrieben zu werden und automatisch zu skalieren. Außerdem lassen sich die Container über eine zentrale Repository schnell und unkompliziert verwalten.

Großer Einfluss in der Softwareentwicklung

In der modernen Softwareentwicklung bieten isolierte Container eine Vielzahl unterschiedlicher Vorteile. Softwareprojekte können so beispielsweise unabhängig voneinander entwickelt werden, wodurch die Arbeit an großen Projekten wesentlich erleichtert wird. Durch den Einsatz von Containern geht das Packen und das Ausliefern von Anwendungen schnell und einfach vonstatten, da sie prinzipiell in jeder Umgebung mit Docker Engine sofort einsatzbereit sind. Dies ist insbesondere für die beiden Entwicklungsansätze Continuous Deployment und Continuous Integration interessant, da jeder Softwareentwickler selbständig an seinem isolierten Teil des Projekts arbeiten kann. Hinzu kommt noch, dass sich über Docker Container ein Projekt schnell und unkompliziert mit Kollegen teilen und unabhängig vom jeweiligen Client verwenden lässt. Da ein Container in einer isolierten Umgebung ausgeführt wird, lassen sich verschiedene Umgebungen ohne größeren Aufwand simulieren.

Der Begriff „Hybrid Cloud“ bezieht sich auf die Kombination mindestens zweier Teile. Im Cloud Computing handelt es sich dabei um eine Public und eine Private Cloud. Diese Teile werden zu einer Hybrid Cloud verbunden.

Was ist Cloud Computing?

Der Begriff bedeutet die Bereitstellung von IT-Ressourcen, die über das Internet oder seine Protokolle nutzbar sind. Zu diesen Ressourcen gehören Hardware und APIs bis zu Anwenderprogrammen, die online verfügbar sind. Wer diese Ressourcen besitzt und wo sie sich befinden, verschwimmt in der Unterscheidung immer mehr.

Was ist eine Public Cloud?

In einer Public Cloud werden Ressourcen öffentlich verfügbar gemacht. Ein einfaches Beispiel sind Angebote wie Gmail oder andere Anbieter von E-Mail Adressen und deren Hosting. Ob dafür eine Bezahlung verlangt wird, spielt für die Einstufung als Cloud Computing keine Rolle. Es sollte Ihnen aber klar sein, dass Sie im Fall von Gratisangeboten mit Ihren Daten bezahlen.

Der Vorteil von Public Clouds ist der, dass Ressourcen nur dann bezahlt werden müssen, wenn sie tatsächlich gebraucht werden. Dann aber sind diese Ressourcen in praktisch unbegrenztem Umfang verfügbar. Dazu kommt die Möglichkeit für Experimente, die in der Cloud möglich sind. Die Anschaffung und Inbetriebnahme eigener Geräte ist dafür nicht erforderlich.

Was ist ein Private Cloud?

Dabei handelt es sich um eine Cloud, die nur für Sie als einzigem Kunden zugänglich ist. Die Hardware kann bei Ihnen stehen oder auch in einem externen Rechenzentrum. Der wesentliche Punkt ist, dass nur Sie Zugriff auf das System haben.

Der Vorteil dieser Version einer Cloud ist die maximale Sicherheit. Nachdem der Zugang am stärksten eingeschränkt ist, lassen sich Anforderungen wie Vertraulichkeit und Konformität mit gesetzlichen Vorgaben am besten umsetzen. Außerdem können Sie ein solches System genau nach Ihren Vorstellungen konfigurieren.

Die Nachteile sind im Wesentlichen identisch mit denen eines Verzichts auf Cloud Computing. Als Unterschied zum völligen Verzicht bleibt bestehen, dass Sie eine Private Cloud von einem externen Anbieter erwerben und so gewisse Leistungen auslagern können.

Die Zuverlässigkeit ist aber weniger hoch, weil Ihre Daten nur auf den Rechnern Ihrer privaten Cloud liegen. Eine private Cloud ist auch nicht im selben Ausmaß skalierbar wie eine Public Cloud. Das betrifft sowohl die Auslastung der privaten Cloud als auch die Möglichkeit zu einer Erweiterung bei Belastungsspitzen.

Wie verbinden sich Private und Public zu einer Hybrid Cloud?

Wie die Bezeichnung nahelegt, werden in einer Hybrid Cloud eine private und eine öffentliche Lösung zusammen genutzt. Der springende Punkt ist, dass diese beiden Teile durch eine eigene Software verbunden sind und so miteinander kommunizieren können. Es ist klar, dass sich dabei ganz von selbst Probleme mit der Kompatibilität ergeben. Deren Bewältigung gehört zu den Hauptproblemen mit Hybrid Clouds.

Wie sehen die technische Umsetzung und Benutzung aus?

Im privaten Teil, also in der privaten Cloud werden die vertraulichen Daten gespeichert. Die restlichen Daten können in der Public Cloud gehalten und verarbeitet werden. Dort sind auch die Ressourcen verfügbar, auf die im Fall erhöhten Bedarfs zurückgegriffen werden kann.

Im Gegensatz zu einer Hybrid Cloud werden in einer Multi-Cloud-Lösung mehrere Public Clouds unabhängig nebeneinander genutzt. Die Hybrid Cloud erfordert einiges mehr an Organisation und Aufwand, weil beispielsweise jeder Mitarbeiter zu genau den Daten Zugang erhalten muss, die er für seine Arbeit braucht. Dazu sind entsprechende Autorisierungslösungen notwendig.

Wie setze ich eine Hybrid Cloud um?

Eine solche Lösung wird gerade deshalb gewählt, weil sie sich individuell auf die Anforderungen des Kunden anpassen lässt. Eine Möglichkeit ist deshalb eine Maßanfertigung durch entsprechende Entwickler.

Es gibt aber auch Anbieter für Komplettlösungen für Hybrid Clouds. Dazu gehören AWS Outposts, Microsoft mit Azure Stack und Google Anthos.

Anwendungen

Eine typische Situation ist die Verarbeitung von Daten mit unterschiedlichen Sicherheitsstandards. Für diese Notwendigkeit ist die unterschiedliche Gesetzeslage in den USA und in Europa ein Beispiel. Vielleicht bietet ein amerikanischer Anbieter wie Google eine Public Cloud, die Sie gerne verwenden möchten. Diese unterliegt aber den Gesetzen der USA und insbesondere dem Patriot Act, der den Betreiber zur Herausgabe Ihrer Daten an US-Behörden verpflichtet. Eine mögliche Lösung ist die Verwendung einer Hybrid Cloud mit dem privaten Bereich in Europa.

Eine andere Situation ist ein Projekt zur Verlagerung von IT-Leistungen in eine Public Cloud. Oft müssen einzelne Anwendungen aus den verschiedensten Gründen von diesem Prozess ausgeschlossen werden. Für diese kann der private Teil einer Hybrid Cloud eine Lösung sein.

Eine weitere Anwendung ist eine Datenverarbeitung mit saisonaler und vorhersehbarer Spitze. Auch wenn die Daten nicht vertraulich sind, kann es Sinn machen, die reguläre Verarbeitung im Haus zu halten und nur die Spitzen mit einer Public Cloud abzudecken. Eine tragfähige Verbindung zwischen diesen zwei Teilen kann dann mit einer Hybrid Cloud sichergestellt werden.

Schließlich ist das Konzept der Hybrid Cloud auch die Grundlage für das Edge Computing. Bestimmte Daten müssen aus verschiedenen Gründen geografisch näher am Nutzer verarbeitet werden. Die nutzernahen Teile können dann den privaten Teil einer Hybrid Cloud bilden.

Bei der Kernel-based Virtual Machine (KVM) handelt es sich um eine Virtualisierungs-Infrastruktur des Linux-Kernels. Diese ist mit den Hardwarevirtualisierungs-Techniken von AMD (AMD-V) oder Intel (VT) und den entsprechenden X86-Prozessoren sowie mit der System-Z-Architektur kompatibel. Die Kernel-based Virtual Machine wurde im Oktober 2006 erstmals in einer Betaversion veröffentlicht und ist seit der Version 2.6.2 des Linux-Kernels in diesem enthalten. Das System wurde unter der Führung des israelischen Software-Entwicklers Avi Kivity in seinem Unternehmen Qumranet entwickelt. Die Software-Schmiede Qumranet wurde im September 2008 von Red Hat übernommen.

Allgemeine Informationen

Die Kernel-based Virtual Machine wurde in erster Linie für den Einsatz in Kombination mit x86-Plattformen entwickelt und setzt sich für diese aus den folgenden beiden Komponenten zusammen:

–       aus dem Kernel-Modul „kvm.ko“, und

–       aus den hardwarespezifischen Modulen kvm-amd.ko (für AMD-Plattformen) oder kvm-intel.ko (für Intel-Plattformen)

Inzwischen ist KVM auch für weitere Plattformen, wie beispielsweise System Z, ARM und PowerPC erhältlich. Die Kernel-based Virtual Machine realisiert selbst keine Emulation, sondern stellt lediglich die dafür nötige Infrastruktur bereit. Die freie Virtualisierungs-Software QEMU stellt eine der Möglichkeiten dar, um KVM zu nutzen. QEMU stellt für virtualisierte Gastsysteme die erforderlichen Geräte wie Grafik-, Sound-, Netzwerkkarten und Festplatten bereit. Nachdem das Modul geladen ist, fungiert der Linux-Kernel selbst als Hypervisor für VMs (virtuelle Maschinen). Als Gastsystem bietet KVM Unterstützung für eine Vielzahl moderner Betriebssysteme, wie zum Beispiel:

–       Windows (32 und 64 Bit)

–       Linux (32 und 64 Bit), etwa CentOS, Ubuntu, Fedora, Debian und ebenso Desktop Linux Systeme wie Linux-Mint oder Kali Linux.

–       FreeDOS

–       Solaris

–       Hauku

–       AROS

–       ReactOS

–       diverse BSD-Derivate

Mittlerweile lässt sich auch Paravirtualisierung in KVM realisieren und wird unter Linux mittels der Paravirtualisierungsschnittstelle Virtio für Hardware-Komponenten bereitgestellt. Auch für Windows-Systeme sind mittlerweile paravirtualisierte Gerätetreiber erhältlich.

Das Paravirtualisierungs-Verfahren bietet einige Vorteile im Vergleich zu traditionellen Virtualisierungs-Methoden, wie zum Beispiel ein geringerer Overhead sowie eine bessere Performance, da sich das Gastsystem der Tatsache „bewusst“ ist, dass es auf virtualisierter Hardware betrieben wird und mit dem Hypervisor zusammenarbeitet.

KVM Funktionen und Features

KVM stellt einen festen Bestandteil von Linux dar. Alles was Linux bietet, ist auch in KVM zu finden. Es gibt jedoch einige Besonderheiten, welche die Kernel-based Virtual Machine zum bevorzugten Hypervisor für Unternehmen machen. Im Folgenden stellen wir Ihnen einige der Besonderheiten von KVM vor:

Sicherheit: Die Kernel-based Virtual Machine nutzt eine Kombination von Linux mit sicherer Virtualisierung (sVirt) und erweiterter Sicherheit (SELinux), um eine optimale VM-Sicherheit und Isolierung zu gewährleisten. SELinux legt dabei die Sicherheitsgrenzen der virtuellen Maschine fest, während sVirt die Funktionalitäten von SELinux erweitert. So ermöglicht sVirt beispielsweise den Einsatz von Mandatory Access Control für Gast-VMs und verhindert, dass manuelle Kennzeichnungsfehler zu den höheren System-Ebenen propagiert werden.

Storage: KVM ist in der Lage, jedes Speichermedium zu verwenden, das von Linux unterstützt wird, einschließlich komplexer NAS-Systeme (Network Attached Storage). Sogenannte „Mehrpfad-I/O“ können eingesetzt werden, um das Storage-System zu optimieren und Redundanz zu bieten. Die Kernel-based Virtual Machine bietet außerdem Unterstützung für gemeinsam genutzte Dateisysteme, sodass sich VM-Abbilder von unterschiedlichen Hosts gemeinsam nutzen lassen. Darüber hinaus unterstützen Festplattenabbilder sogenanntes „Thin-Provisioning“ und sind in der Lage, Storage nach Bedarf zuzuweisen, anstatt im Voraus wie es bei vielen ähnlichen Systemen der Fall ist.

Hardware-Unterstützung: KVM kann auf diversen Plattformen eingesetzt werden, die von Linux unterstützt werden. Viele Hardware-Produzenten tragen regelmäßig zur Kernel-Entwicklung bei, sodass die neuen Hardware-Funktionen und -Features in vielen Fällen sehr schnell in den Kernel integriert werden.

Speicherverwaltung: Die Kernel-based Virtual Machine nutzt die Speicherverwaltung-Infrastruktur von Linux inklusive des Non-Uniform Memory Access und des Kernel Same Page Merging. Der Speicher einer virtuellen Maschine lässt sich nach persönlichen Anforderungen gestalten und durch größere Kapazitäten oder bessere Leistung verstärken.

Echtzeit-Migration: KVM bietet native Unterstützung für die Live-Migration. Dabei handelt es sich um die Möglichkeit, eine laufende virtuelle Maschine zwischen physischen Hosts zu verschieben, ohne dass dabei der Betrieb der VM unterbrochen wird. Die virtuelle Maschine kann in Betrieb bleiben, Anwendungen laufen weiter und Netzwerkverbindungen bleiben aktiv, während die VM schnell und einfach auf einen anderen Host verschoben wird. KVM sichert außerdem den aktuellen Stand (State) einer virtuellen Maschine, sodass diese lokal oder in der Cloud gespeichert und später wieder fortgesetzt werden kann.

Skalierbarkeit und Performance: KVM baut auf der Leistung von Linux auf und lässt sich automatisch an den Lastbedarf skalieren, sobald die Anzahl der Anfragen an die VMs steigt. Mit der Kernel-based Virtual Machine lassen sich große Anwendungen-Workloads schnell und einfach virtualisieren. Darüber stellt KVM die Basis für viele Setups der Unternehmens-Virtualisierung dar, wie beispielsweise für private Clouds und Rechenzentren.

Verwaltungs-Tools

Für die Kernel-based Virtual Machine sind mehrere Werkzeuge zur Steuerung erhältlich. So ist es beispielsweise möglich VMs mittels Kommandozeilenprogrammen wie QEMU oder VIRSH zu erstellen und zu verwalten. Eine angenehmere und übersichtlichere Option stellen Tools mit grafischen Benutzeroberflächen dar, wie mit dem Virtual Machine Manager (VMM) oder dem UCS VM Manager. Es sind auch Lösungen erhältlich, welche die Verwaltung von VMs über Weboberflächen gestattet. In diesem Zusammenhand ist das oVirt-Projekt oder die FOSS-Cloud zu nennen, die als kostenlose Open Source-Lösungen bereitgestellt werden.

 

 

Monitoring mit PRTG ermöglicht Ihnen, über Ihr Netzwerk optimal informiert zu sein und rechtzeitig die notwendigen Maßnahmen treffen zu können. Alle relevanten Parameter werden in Echtzeit erhoben und grafisch dargestellt. Mit diesem Werkzeug erkennen Sie Probleme, bevor sie für Ihr Netzwerk kritisch werden.

Das Produkt PRTG und seine Herstellerfirma

Das IT Monitoring Werkzeug PRTG wird von der Firma Paessler AG in Nürnberg hergestellt und steht in 9 Sprachen zur Verfügung. Der Support der Firma stellt den Anspruch, eine Anfrage an Werktagen innerhalb von 24 Stunden zu bearbeiten. Auf der Webseite wird eine ausführliche Dokumentation geboten, zu der auch detaillierte Erklärungen grundlegender Begriffe der Netzwerktechnik gehören. Die Hauptkunden für dieses Werkzeug sind kleine und mittlere Unternehmen und Organisationen.

Was kann PRTG?

Der Hauptzweck von PRTG ist die Überwachung eines Netzwerks, das aus Servern, Switches und Routern besteht, zu denen insbesondere auch virtuelle Server und Webserver gehören können. Zu diesem Zweck werden Daten gesammelt, gespeichert und ausgewertet. Bei Problemen wird nach Ihren Bedürfnissen ein Alarm ausgelöst. Zu hohe Hardwareauslastung, zu wenig Speicherplatz oder eine zu geringe Bandbreite des Netzwerks können früh genug erkannt werden. Dafür werden Sensoren für Bandbreite, CPU-Last, Arbeitsspeicher, Massenspeicher und Hardwarezustand eingesetzt. Eine Besonderheit von PRTG ist seine Vollständigkeit. Sie müssen also keine Zusatzprogramme oder Moduln erwerben. Für die Überwachung muss das System nur wenig Belastung für die Prozessoren und Bandbreite in Anspruch nehmen. Bedient wird es vollständig von einem Webinterface aus.

Die technischen Grundlagen von PRTG

Das System baut auf Sensoren auf, worunter in diesem Zusammenhang Software zur Erhebung bestimmter Daten unter Verwendung geeigneter Protokolle zu verstehen ist. Beispiele für diese Daten sind Serverbelastung, Antwortzeiten über eine Netzwerkverbindung, freier Speicherplatz und der Datendurchsatz. Auch die Temperatur der Server in Ihrem Netzwerk wird erhoben, was den Einsatz eigener Werkzeuge dafür überflüssig macht.

 

PRTG baut zu einem wesentlichen Teil auf dem SNMP oder simple network monitoring protocol auf. Dieses läuft auf einem Computer als Verwaltungseinheit und kann Anforderungen an andere verwalteten Geräte richten. Besonders beim Auftreten von Problemen können diese Geräte auch selbständig Nachrichten an die Verwaltungseinheit schicken.

Zusätzlich zu SNMP verwendet PRTG auch Packet Sniffing, wenn eine genauere Analyse des Inhalts von Datenpaketen in Ihrem Netzwerk erforderlich ist.

Verfügbare Funktionen

Treten akute Probleme in Ihrem Netzwerk auf, müssen die Administratoren sofort davon in Kenntnis gesetzt werden. Sie können bei der Konfiguration von PRTG Nachrichten verschiedener Dringlichkeit nach Wunsch behandeln und übermitteln lassen. Weniger dringende Meldungen können zum Beispiel in den Nachtstunden zurückgehalten werden. Versendet werden solche Nachrichten über SMS, E-Mail, Push Nachricht oder auch durch HTTP Datenpakete. Zum Empfang sind Apps für iOS und für Android erhältlich.

Die Ergebnisse der Datenerhebungen werden von PRTG grafisch dargestellt. Die Statusanzeigen können Sie individualisieren und live verfolgen.

Bei der Installation verwendet das System eine Auto-Discovery Funktion. Alle ans Netzwerk angeschlossenen Geräte werden automatisch ins Monitoring aufgenommen. Dann müssen Sie nur noch die gewünschte Feineinstellung vornehmen.

In welcher Form ist PRTG erhältlich?

Das System ist nur für Windows Systeme verfügbar. Benutzerinterfaces funktionieren allerdings auch unter MacOS und unter Linux. Das Überwachungssystem kann auf Ihren eigenen Servern gehostet werden, was also einer Inhouse Lösung entspricht. Verfügbar ist aber auch eine auf den Servern  in der Cloud. Die Lizenz und die Kosten sind abhängig von der Zahl der Sensoren, die Sie für die Überwachung Ihres Netzwerks benötigen. Eine Version mit 100 Sensoren ist gratis verfügbar.

Für erste Schritte mit PRTG steht ein niederschwelliges Angebot zur Verfügung. Für 30 Tage können Sie die Vollversion von PRTG nutzen und sich mit dem System vertraut machen. Ob es Ihren Erwartungen und Anforderungen entspricht, stellt sich in dieser Zeit sicher heraus. Die Lizenz für die notwendige Anzahl von Sensoren müssen Sie erst erwerben, wenn das System bereits erfolgreich auf Ihrem Netzwerk läuft.

Bei Bitrix24 handelt es sich um ein Online-CRM, das in erster Linie auf die speziellen Anforderungen von kleinen und mittleren Unternehmen ausgerichtet ist. Die Software wird von dem gleichnamigen russischen Softwareunternehmen Bitrix mit Hauptsitz in Kaliningrad in Russland entwickelt. Bitrix24 zeichnet sich in erster Linie durch eine große Vielfalt an unterschiedlichen Funktionalitäten und Features aus. Mit mehr als 35 verschiedenen Social Kollaborations-Tools bietet die Lösung die richtigen Tools für effiziente Projektarbeit, schnelle Kommunikation und produktive Kundenbetreuung.

Allgemeine Informationen zu Bitrix24

Bitrix24 glänzt in erster Linie mit einem Feature-Reichtum, der im hohen Maße über den eines gängigen Social Intranet- und CRM-Tools hinausgeht und mit bekannten CRM-Systemen wie Salesforce, Pipedrive oder Odoo vergleichbar ist. Für die mobile Nutzung werden sogar eigene Android- und iOS-Apps zur Verfügung gestellt. Im Fokus des CRM-Systems stehen die umfangreichen Optionen, die Ihnen die Möglichkeit geben, mit Ihrem Team jederzeit zu kommunizieren und sich zu vernetzen. So bietet Bitrix24 beispielsweise eine breite Palette an wichtigen Funktionen und Features, um Ihre interne Kommunikation so angenehm und effizient wie möglich zu gestalten. So werden im zentralen Activity Stream alle Neuigkeiten aus dem Unternehmen übersichtlich angezeigt. Hier können Sie Posts Ihrer angestellten jederzeit liken und wichtige Ankündigungen und Neuigkeiten für alle Nutzer auf einer prominenten und gut sichtbaren Stelle anpinnen.

 

Sie haben die Möglichkeit, Einzel- oder Gruppenchats zu starten und auch eine Funktionalität für Video- und Sprachanrufe ist integriert. An einer Videokonferenz können bis zu vier Teilnehmer mitwirken. Des Weiteren verfügt Bitrix24 über ein eingebautes Screen-Sharing-Feature, mit dem Sie Ihren Mitarbeitern schnell und einfach einen Blick auf Ihren Desktop gewähren können. Dokumente werden entweder in ein gemeinsames Verzeichnis (Shared Directories) oder in Ihren privaten Cloudspeicher geladen. So können Sie und Ihre Kollegen, auf eine ähnliche Weise wie bei OneDrive, gemeinsam und kontrolliert auf Dokumente zugreifen. Um Ihnen die Suche nach Dokumenten zu erleichtern, stellt Bitrix eine globale Suchfunktion zur Verfügung. Technisch basiert Bitrix24 auf der Skriptsprache PHP und nutzt MySQL als Datenbank.

Integration von CRM und HRM

Zusätzlich zu den zahlreichen Funktionalitäten, die für die interne Kommunikation bereitgestellt werden, ist Bitrix24 auch mit umfangreichen Features für ein effizientes Kundenbeziehungs– und Human Resource-Management versehen. So können Sie beispielsweise Ihre Unternehmensstruktur schnell und einfach visualisieren und ein Angestelltenverzeichnis anlegen, sodass Sie automatisch Berichte versenden und Aufgaben delegieren können. Sie haben die Möglichkeit für alle Bitrix24-Nutzer die automatische Zeitaufzeichnung zu aktivieren. Mit einem einfachen Klick können Ihre Mitarbeiter auf diese Weise Ihren Arbeitsalltag im Unternehmen starten und beenden. Einer detailliertere Verwaltung Ihrer Mitarbeiter wird Ihnen durch Urlaubsplanungs- und Abwesenheitslisten-Funktionalität ermöglicht. Ein ausführlicher Statusbericht über Ihre aktiven Rechnungen und Aufträge wird übersichtlich im Dashboard dargestellt. Dort können Sie mithilfe von IP-Telefonie direkt aus der Software heraus Kontakt zu Ihren Kunden aufnehmen. Durch den Einsatz eines speziellen HTML-Codeschnipsels haben Sie die Möglichkeit auf Ihrer Website einen Live-Chat zu implementieren, über den Sie Ihre Kunden jederzeit kontaktieren können.

Performantes Powerpaket

Bitrix24 zeichnet sich durch die Integration einer großen Vielfalt an Schnittstellen zu anderen Apps und Softwareprodukten aus, sodass sich das CRM-System problemlos in Kombination mit vielen anderen Lösungen nutzen lässt. Falls dies jedoch für Ihre individuellen Bedürfnisse nicht ausreichend ist, können Ihre Entwickler dank Zugriff auf das Application Programming Interface (API) und das Software Development Kit (SDK) individuelle Lösungen programmieren, die optimal auf Ihre Anforderungen zugeschnitten sind. Darüber hinaus können Sie auch im offiziellen App-Store nach einer alternativen Lösung suchen. Im Rahmen der selbstgehosteten Version (On-Premise) erhalten Sie sogar den Zugriff auf den kompletten Quellcode von Bitrix24.

Der größte Vorteil von Bitrix24 ist seine gigantische Funktionsvielfalt. Hier liegt jedoch auch der größte Nachteil, zumindest in Bezug auf die Usability. Obwohl Bitrix übersichtlich gestaltet und die Benutzeroberfläche in modernem Flat Design umgesetzt ist, ist das CRM-System aufgrund der vielen Funktionen und Features anfangs kompliziert zu bedienen. Insbesondere Anfänger werden anfangs mit der gigantischen Informationsflut nahezu erschlagen.

Basis- und Premium-Version von Bitrix

Bitrix24 ist in der Basis-Version kostenlos erhältlich. Die Bitrix-Basis erlaubt eine unbegrenzte Zahl an Nutzern und 5 GB kostenlosen Cloudspeicher. Dafür müssen Sie jedoch einige Einbußen in Bezug auf Funktionen und Features in Kauf nehmen. Während beim Social Intranet kaum Einschnitte vorhanden sind, werden sämtliche HR- und CRM-Funktionen stark heruntergefahren. In der Premium-Version sind alle Funktionalitäten inklusive sehr spezieller Features enthalten. Aus diesem Grund sollten Sie sich vorher selbst informieren, welche Version am besten die Anforderungen Ihres Unternehmens erfüllt. Die kostenpflichtige Premium-Version ist je nach Funktionsumfang ab 24 Euro im Monat erhältlich. Die selbstgehostete Version kostet ab 1490 US-Dollar. Hier kommen allerdings die Kosten für den Betrieb sowie die Administration des eigenen Bitrix-Servers hinzu, der in vielen Fällen nginx als Webserver nutzt.

Schneller Support mit einem eigenen Bitrix-Forum

Auch in Sachen Support überzeugt Bitrix mit einer Vielzahl an unterschiedlichen Optionen. Bei auftretenden Problemen steht Ihnen als erste Recherche ein umfangreiches Online-FAQ zur Verfügung. Falls Ihnen das nicht ausreichend weiterhilft, können Sie Ihr Problem im mehrsprachigen Online-Forum posten. Bitrix-Administratoren werden sich binnen kürzester Zeit, um Ihr Problem kümmern. Alternativ können Sie eine Anfrage über das Online-Ticketsystem stellen. Hier wird jedoch der Support nur in englischer Sprache angeboten. Eine Telefon-Hotline ist nicht vorhanden.

Wo Server betrieben werden, ist Virtualisierung heutzutage meist nicht weit. Hyper-V heißt die Lösung von Microsoft in diesem Bereich. Einzelne Server lassen sich darauf bequem erstellen und verwalten. Aber auch ganze Netzwerkstrukturen können virtualisiert werden. Skalierbarkeit und Ausfallsicherheit sind Hauptargumente für einen Betrieb virtueller Server. Zudem kann Hardware besser ausgelastet und Systemlast einfacher verteilt werden.

Allgemeines zu Hyper-V

Im Jahr 2008 stellte Microsoft seine Virtualisierungslösung mit dem Namen Hyper-V vor. Sie war erstmals in den Betriebssystemversionen Windows Server 2008 und Windows 8 enthalten. Ihre Vorgänger waren der Microsoft Virtual Server im Bereich der vServer und der Virtual PC für den Desktop-Bereich.

Wie aus dem Namen schon hervorgeht, ist Hyper-V ein sogenannter Hypervisor. Dieser stellt eine Abstraktionsschicht zwischen der realen Hardware und dem virtualisierten System, Gastsystem genannt, dar. Im Gegensatz zu vollständig virtualisierten Systemen, werden dem Gastsystem auch Ressourcen der physikalischen Hardware zur Verfügung gestellt. Dies aber nur unter Überwachung und Steuerung des Hypervisors. Diese Technik wird Paravirtualisierung genannt.

Hyper-V gibt es als Typ-1- und Typ-2-Hypervisor. Die Ausführung vom Typ 1, die auch als Bare-Metal-Hypervisor bezeichnet wird, stellt nur ein abgespecktes Betriebssystem zur Verfügung. Hauptbestandteil ist der Hypervisor. Die Administration erfolgt über die Kommandozeile oder per Remoteverbindung mit der Software „Hyper-V-Manager“, die ab der Windows-Versionen „Professional“ Bestandteil des Betriebssystems ist. Sie muss lediglich in der Systemsteuerung aktiviert werden.

Die Ausführung des Typ-2-Hypervisors ist in den Server-Betriebssystemen von Windows und den Desktop-Varianten „Professional“ und „Enterprise“ enthalten. Sie lässt sich ebenfalls in der Systemsteuerung zu den Programmen hinzufügen. Die Bedienung erfolgt auch hier mit dem „Hyper-V-Manager“. Die Bedienung ähnelt der von im Desktop-Bereich bekannter Virtualisierungssoftware, etwa Virtual-Box oder VMWare-Player.

Funktionsweise und Vorteile

Durch die Virtualisierungssoftware werden virtuelle Hardwareplattformen erzeugt. Bei der Paravirtualisierung müssen die Gastsysteme kompatibel zur Plattform des Wirtsrechners (Host) sein. Die Erzeugung der virtuellen Maschinen kann auf herkömmliche Weise, mit einem Installationsmedium erfolgen. In der Regel werden aber Vorlagen verwendet, die in Minutenschnelle geladen sind und ein betriebsbereites Gastsystem bieten.

Die virtuellen Maschinen haben jeweils ihren eigenen, abgeschotteten Bereich. Die Hardware stellt der Hypervisor zur Verfügung. Entsprechend besteht dabei große Flexibilität. So kann Arbeitsspeicher einfach angepasst werden und dynamischer Speicherplatz zugeteilt werden. Auf diese Weise können Lastspitzen abgefangen und zu lastärmeren Zeiten die Leistung wieder verringert werden.

Eine weitere große Stärke spielt eine Virtualisierungslösung wie Hyper-V bei der Virtualisierung von Netzwerkstrukturen aus. Es können beliebig Switche und Router erzeugt und damit getrennte Netze oder Subnetze gebildet werden. Letztlich lassen sich ganze Rechenzentren auf diese Weise virtuell verwirklichen.

Der Aufwand für die Einrichtung und Wartung wird dabei minimiert. Anstatt Patchkabel zu stecken, müssen nur Einstellungen im Hyper-V-Manager vorgenommen werden.

Eine recht neue Technologie ist die der Container-Lösungen wie Docker. Diese werden seit der Hyper-V-Version 2016 ebenfalls unterstützt. Hierbei wird keine vollständige virtuelle Maschine erzeugt, sondern nur eine Laufzeitumgebung für einzelne Anwendungen. Diese verwendet Ressourcen zudem nur solange, wie sie auch in Benutzung ist. Die Last, die ein Betriebssystem im Leerlauf erzeugt, fällt bei Nutzung von Container-Anwendungen weg.

 

Bezüglich der Gastbetriebssysteme besteht eine große Auswahl. Virtualisiert werden können:

-Windows-Server-Betriebssysteme,

-Windows-Desktop-Betriebssysteme,

RedHat-Enterprise,

Debian-Linux,

Ubuntu-Linux,

SuSE-Linux,

FreeBSD.

Zu beachten ist, dass das Betreiben virtualisierter Systeme eine gültige Lizenz für das Gastsystem erfordert.

Lizenzen von Hyper-V

Hyper-V ist grundsätzlich kostenlos. Allerdings sind die Betriebssysteme, in denen der Hypervisor eingebettet ist, kostenpflichtig. Ebenso die darin betriebenen Server-Versionen von Windows. Auch für die Anbindung an Speicherlösungen, etwa der Windows-Datacenter-Editionen, fallen Kosten an. Insbesondere verteilte Speicherlösungen von Windows, wie etwa „Direkte Speicherplätze“ (Storage Spaces Direct, abgekürzt: S2D), verursachen nicht unerhebliche Lizenzkosten. Für den Testbetrieb stellt Microsoft zudem kostenlose Evaluierungsversionen von Hyper-V zur Verfügung.

Anwendungsbereiche

Im Firmenbereich kann eine saubere Abschottung von Servern mit unterschiedlichen Aufgabenbereichen erzielt werden, ohne zusätzliche Hardware zu benötigen. Dies können beispielsweise ein Exchange-Server, der Domain-Controller, ein SQL-Server und der Fileserver sein. Weiterhin lassen sich ohne großen Aufwand Subnetze für verschiedene Arbeitsbereiche bilden. Eine physikalische Trennung der Netze ist damit nicht erforderlich. Auch im Bereich von Rechenzentren findet Software wie Hyper-V Anwendung. Mit dieser Technologie ist es Hosting-Anbietern beispielsweise möglich, Kunden kurzfristig virtuelle Server zur Verfügung zu stellen.

Alternativen

Bekanntester kommerzieller Mitbewerber ist der Anbieter VMWare. Dieser bietet mit dem ESXi-Server einen Bare-Metal-Hypervisor vergleichbarer Art. Einen Hypervisor des Typs 2 hat VMWare ebenfalls im Angebot, die VMWare Workstation.

Auch Open-Source-Lösungen sind verfügbar. Auf Basis des etablierten Linux-Hypervisors KVM/QEMU stellt der PROXMOX-Server einen Hypervisor des Typs 1 zur Verfügung.

Zudem steht unter Linux-Systemen der Hypervisor XEN kostenfrei zur Verfügung. Hierbei handelt es sich um ein Projekt der Universität Cambridge.

Bei den freien Versionen ist allerdings zu beachten, dass diese aufgrund ihrer Komplexität oftmals mit einem kostenpflichtigen Support Anwendung finden. So ist beispielsweise der Linux-Distributor RedHat in diesem Bereich tätig und bietet Support für den von ihm mitentwickelten Hypervisor KVM/QEMU.