Beiträge

Bei Bitrix24 handelt es sich um ein Online-CRM, das in erster Linie auf die speziellen Anforderungen von kleinen und mittleren Unternehmen ausgerichtet ist. Die Software wird von dem gleichnamigen russischen Softwareunternehmen Bitrix mit Hauptsitz in Kaliningrad in Russland entwickelt. Bitrix24 zeichnet sich in erster Linie durch eine große Vielfalt an unterschiedlichen Funktionalitäten und Features aus. Mit mehr als 35 verschiedenen Social Kollaborations-Tools bietet die Lösung die richtigen Tools für effiziente Projektarbeit, schnelle Kommunikation und produktive Kundenbetreuung.

Allgemeine Informationen zu Bitrix24

Bitrix24 glänzt in erster Linie mit einem Feature-Reichtum, der im hohen Maße über den eines gängigen Social Intranet- und CRM-Tools hinausgeht und mit bekannten CRM-Systemen wie Salesforce, Pipedrive oder Odoo vergleichbar ist. Für die mobile Nutzung werden sogar eigene Android- und iOS-Apps zur Verfügung gestellt. Im Fokus des CRM-Systems stehen die umfangreichen Optionen, die Ihnen die Möglichkeit geben, mit Ihrem Team jederzeit zu kommunizieren und sich zu vernetzen. So bietet Bitrix24 beispielsweise eine breite Palette an wichtigen Funktionen und Features, um Ihre interne Kommunikation so angenehm und effizient wie möglich zu gestalten. So werden im zentralen Activity Stream alle Neuigkeiten aus dem Unternehmen übersichtlich angezeigt. Hier können Sie Posts Ihrer angestellten jederzeit liken und wichtige Ankündigungen und Neuigkeiten für alle Nutzer auf einer prominenten und gut sichtbaren Stelle anpinnen.

 

Sie haben die Möglichkeit, Einzel- oder Gruppenchats zu starten und auch eine Funktionalität für Video- und Sprachanrufe ist integriert. An einer Videokonferenz können bis zu vier Teilnehmer mitwirken. Des Weiteren verfügt Bitrix24 über ein eingebautes Screen-Sharing-Feature, mit dem Sie Ihren Mitarbeitern schnell und einfach einen Blick auf Ihren Desktop gewähren können. Dokumente werden entweder in ein gemeinsames Verzeichnis (Shared Directories) oder in Ihren privaten Cloudspeicher geladen. So können Sie und Ihre Kollegen, auf eine ähnliche Weise wie bei OneDrive, gemeinsam und kontrolliert auf Dokumente zugreifen. Um Ihnen die Suche nach Dokumenten zu erleichtern, stellt Bitrix eine globale Suchfunktion zur Verfügung. Technisch basiert Bitrix24 auf der Skriptsprache PHP und nutzt MySQL als Datenbank.

Integration von CRM und HRM

Zusätzlich zu den zahlreichen Funktionalitäten, die für die interne Kommunikation bereitgestellt werden, ist Bitrix24 auch mit umfangreichen Features für ein effizientes Kundenbeziehungs– und Human Resource-Management versehen. So können Sie beispielsweise Ihre Unternehmensstruktur schnell und einfach visualisieren und ein Angestelltenverzeichnis anlegen, sodass Sie automatisch Berichte versenden und Aufgaben delegieren können. Sie haben die Möglichkeit für alle Bitrix24-Nutzer die automatische Zeitaufzeichnung zu aktivieren. Mit einem einfachen Klick können Ihre Mitarbeiter auf diese Weise Ihren Arbeitsalltag im Unternehmen starten und beenden. Einer detailliertere Verwaltung Ihrer Mitarbeiter wird Ihnen durch Urlaubsplanungs- und Abwesenheitslisten-Funktionalität ermöglicht. Ein ausführlicher Statusbericht über Ihre aktiven Rechnungen und Aufträge wird übersichtlich im Dashboard dargestellt. Dort können Sie mithilfe von IP-Telefonie direkt aus der Software heraus Kontakt zu Ihren Kunden aufnehmen. Durch den Einsatz eines speziellen HTML-Codeschnipsels haben Sie die Möglichkeit auf Ihrer Website einen Live-Chat zu implementieren, über den Sie Ihre Kunden jederzeit kontaktieren können.

Performantes Powerpaket

Bitrix24 zeichnet sich durch die Integration einer großen Vielfalt an Schnittstellen zu anderen Apps und Softwareprodukten aus, sodass sich das CRM-System problemlos in Kombination mit vielen anderen Lösungen nutzen lässt. Falls dies jedoch für Ihre individuellen Bedürfnisse nicht ausreichend ist, können Ihre Entwickler dank Zugriff auf das Application Programming Interface (API) und das Software Development Kit (SDK) individuelle Lösungen programmieren, die optimal auf Ihre Anforderungen zugeschnitten sind. Darüber hinaus können Sie auch im offiziellen App-Store nach einer alternativen Lösung suchen. Im Rahmen der selbstgehosteten Version (On-Premise) erhalten Sie sogar den Zugriff auf den kompletten Quellcode von Bitrix24.

Der größte Vorteil von Bitrix24 ist seine gigantische Funktionsvielfalt. Hier liegt jedoch auch der größte Nachteil, zumindest in Bezug auf die Usability. Obwohl Bitrix übersichtlich gestaltet und die Benutzeroberfläche in modernem Flat Design umgesetzt ist, ist das CRM-System aufgrund der vielen Funktionen und Features anfangs kompliziert zu bedienen. Insbesondere Anfänger werden anfangs mit der gigantischen Informationsflut nahezu erschlagen.

Basis- und Premium-Version von Bitrix

Bitrix24 ist in der Basis-Version kostenlos erhältlich. Die Bitrix-Basis erlaubt eine unbegrenzte Zahl an Nutzern und 5 GB kostenlosen Cloudspeicher. Dafür müssen Sie jedoch einige Einbußen in Bezug auf Funktionen und Features in Kauf nehmen. Während beim Social Intranet kaum Einschnitte vorhanden sind, werden sämtliche HR- und CRM-Funktionen stark heruntergefahren. In der Premium-Version sind alle Funktionalitäten inklusive sehr spezieller Features enthalten. Aus diesem Grund sollten Sie sich vorher selbst informieren, welche Version am besten die Anforderungen Ihres Unternehmens erfüllt. Die kostenpflichtige Premium-Version ist je nach Funktionsumfang ab 24 Euro im Monat erhältlich. Die selbstgehostete Version kostet ab 1490 US-Dollar. Hier kommen allerdings die Kosten für den Betrieb sowie die Administration des eigenen Bitrix-Servers hinzu, der in vielen Fällen nginx als Webserver nutzt.

Schneller Support mit einem eigenen Bitrix-Forum

Auch in Sachen Support überzeugt Bitrix mit einer Vielzahl an unterschiedlichen Optionen. Bei auftretenden Problemen steht Ihnen als erste Recherche ein umfangreiches Online-FAQ zur Verfügung. Falls Ihnen das nicht ausreichend weiterhilft, können Sie Ihr Problem im mehrsprachigen Online-Forum posten. Bitrix-Administratoren werden sich binnen kürzester Zeit, um Ihr Problem kümmern. Alternativ können Sie eine Anfrage über das Online-Ticketsystem stellen. Hier wird jedoch der Support nur in englischer Sprache angeboten. Eine Telefon-Hotline ist nicht vorhanden.

Im Bereich der IT wird mit dem Begriff „Monitoring“ die kontinuierliche Überwachung oder Kontrolle von IT-Systemen auf ihre einwandfreie Funktionalität bezeichnet. Um Ergebnisse zu vergleichen oder auszuwerten muss Monitoring systematisch und regelmäßig durchgeführt werden. Im Rahmen moderner Informationssysteme gehören diese Prozesse zu den wichtigsten Aspekten von Netzwerk- und Systemadministratoren.

Allgemeine Informationen zum Monitoring

Für die reibungslose Funktionalität einer IT-Infrastruktur müssen IT-Administratoren sicherstellen, dass sich alle beteiligten Komponenten innerhalb ihrer normalen Parameter bewegen. Diese Parameter werden durch Monitoring ermittelt, also durch die regelmäßige und systematische Überwachung relevanter Indikatoren. Früher wurden oft nur die reinen Performance-Parameter erfasst, wie zum Beispiel:

–       die Auslastung der CPU bei einer Datenbanktransaktion

–       der Speicherverbrauch bei einer Client-Anfrage

–       die Zeit, die der Server braucht, um eine Anfrage zu beantworten

Heutzutage umfasst Monitoring jedoch sämtliche Bereiche der IT, wie beispielsweise:

–       Sicherheit

–       Nutzerverhalten

–       Verfügbarkeit

Ziele

Im obigen Absatz haben wir das Ziel aller Prozesse bereits mit der „reibungslosen Funktionalität“ definiert. Grundsätzlich handelt es sich dabei um die Ermittlung der Ursachen, die direkt oder indirekt dafür verantwortlich sind, System-Parameter außerhalb der erwünschten Grenzen zu erzeugen. Dabei wird Monitoring eingesetzt, um:

–       das Problem möglichst früh zu identifizieren, sodass es beseitigt werden kann, bevor größere Schäden entstehen können

–       die Ursache des Problems ausfindig zu machen und zu lokalisieren

–       durch das Beseitigen auftretender Probleme Früherkennungsmaßnahmen zu optimieren, sodass künftige Probleme besser erkannt und behoben werden können

Falls ein System innerhalb der normalen Parameter funktioniert, können Maßnahmen beispielsweise auch eingesetzt werden, um die zukünftige Nutzung zu planen. Hat eine Webapp beispielsweise über das vergangene Jahr hinweg nur 60 Prozent ihrer CPU genutzt, lässt sich etwa ein physikalischer Server mit weniger Leistung betreiben.

Methoden und Verfahren

In Bezug auf den Betrachtungszeitraum der im Rahmen des Monitorings erfassten Informationen können zwei Vorgehensweisen unterschieden werden, und zwar:

–       Das sogenannte „Historical Monitoring“, das primär bei der automatischen Erzeugung von Langzeitstatistiken zu IT-Diensten eingesetzt wird. Diese Art ermöglicht u. a. die Kapazitätsplanung anhand der Wachstumsraten innerhalb einer bestimmten Zeitperiode, Rechenauslegung oder die Planung des Budgets. Darüber hinaus sind derartige Datensätze oft gute Indikatoren für systematische Verfügbarkeitsprobleme und entsprechende Lösungen solcher Probleme. Bei dieser Vorgehensweise arbeitet der IT-Administrator proaktiv.

–       Das sogenannte „Real-Time Monitoring“ ist eher reaktiv ausgelegt. Durch die kontinuierliche und systematische Überwachung der Funktionalitäten sämtlicher Dienste sollen Ausfälle schnellstmöglich identifiziert werden und die IT-Verantwortlichen in Kenntnis gesetzt werden. Im Idealfall werden auftretende Probleme identifiziert, bevor der Nutzer etwas davon merkt.

Hohe Verfügbarkeit und niedrige Ausfallraten

Im Rahmen des aktiven Monitorings versuchen dedizierte Systeme das Problem vorübergehend zu beseitigen. Dabei wird jedoch nur die Symptomatik und nicht die eigentliche Ursache des Problems eliminiert. Darüber hinaus ist für viele auftretende Probleme eine solche Vorgehensweise gar nicht möglich, wie beispielsweise bei einem Serverausfall. Ein wesentlicher Nachteil des aktiven Monitorings ist, dass in der Regel ein privilegierter Zugriff auf Dienste und Systeme benötigt wird, was einen erhöhten Risikofaktor darstellt.

Bei dem sogenannten „durchgängigen Monitoring“ wird hingegen das gesamte System inklusive aller relevanten Parameter und Dienste kontinuierlich überwacht. Dies benötigt jedoch eine hohe Disziplin aller IT-Mitarbeiter: Wenn beispielsweise ein neues Gerät oder ein neuer Server in das Netzwerk integriert wird, darf man nicht vergessen, diesen in das Monitoring einzubinden. Des Weiteren erzeugt diese Form des Monitorings eine gigantische Datenmenge, deren gezielte Analyse viel Zeit in Anspruch nehmen kann.

Unterschiedliche Anwendungen

Im Rahmen des sogenannten „End-to-End-Monitoring“ beschränkt sich die Messung auf die Funktionalität eines einzelnen Dienstes. Wenn beispielsweise ein Kunde in einem Webshop, wie Amazon, einkaufen möchte, dann wird die vollständige Transaktion eines Dienstes gemessen und ausgewertet. Bei dieser Vorgehensweise steht das sogenannte „Application Response Time Monitoring“ im Fokus. Damit lässt sich die exakte Antwortzeit einer Webanwendung ermitteln und ob diese in einer akzeptablen Zeit erfolgt.

Im Rahmen des externen wird ein dediziertes Gerät an das Netzwerk angeschlossen, während beim internen auf ein solches Gerät verzichtet wird. Weitere Bezeichnungen für diese Vorgehensweise sind aktives und passives Monitoring. Im Rahmen des aktiven Monitorings werden noch zusätzlich Pakete an das Netzwerk gesendet, während beim passiven lediglich „mitgehört“ wird.

Monitoring Tools

Die Prozesse finden in der IT in Form zahlreicher Tools Unterstützung. Es ist sind eine Vielzahl kommerzieller als auch Open Source-Produkt erhältlich, die jeweils auf unterschiedliche Einsatzszenarien in unterschiedlichen Umgebungen ausgerichtet sind. Nicht jedes Werkzeug eignet sich für jede Netzwerkinfrastruktur und jedes Verfahren gleichermaßen. Einige Tools verfügen über zahlreichen Funktionen und Features, während andere auf spezialisierte Aufgaben ausgerichtet sind. Bei der Auswahl eines solchen Werkzeugs sollten also die eigenen Anforderungen und Bedürfnisse beachtet werden. Welche Funktionen und Features benötigt werden, hängt von folgenden Faktoren ab:

–       Anforderungen der Netzwerkinfrastruktur

–       Benötigte Alarmmeldungen

–       Auf welche Art und Weise sollen Alarmmeldungen gesendet werden?

–       Welcher Monitoring-Typ ist erforderlich?

 

Das Bundesamt für Sicherheit in der Informationstechnik ist eine deutsche Bundesbehörde, die Sie bei Fragen zur IT-Sicherheit unterstützt. Während das BSI in Einrichtungen des Staats aktiv Schutzmaßnahmen ergreift, profitieren die Gesellschaft und die Wirtschaft insbesondere von Informationen sowie Handlungsempfehlungen der Behörde. Unternehmen nutzen die Vorgaben und Standards der Organisation, um sich beim Business Continuity Planning auf IT-Notfälle vorzubereiten.

BSI: Förderung der IT-Sicherheit in Staat, Wirtschaft und Gesellschaft

Unter der Aufsicht des Bundesinnenministeriums trägt das BSI mit rund 1.000 Mitarbeitern als Bundesbehörde die Verantwortung für Deutschlands IT-Sicherheit. Durch Fördermaßnahmen erleichtert die Behörde Ihnen einen sicheren Einsatz von Kommunikations- und Informationstechnologie. Diese Hauptaufgabe nimmt das BSI für den Staat, die Wirtschaft und die Gesellschaft wahr. Mit Mindeststandards, Leitlinien und Handlungsempfehlungen entwickelt die Bundesbehörde hierzu klare Kriterien. Darüber hinaus ist das BSI direkt für die IT-Sicherheit der deutschen Bundesverwaltung zuständig. Daher sind die Erkennung und die Abwehr eines Hacker-Angriffs auf Regierungssysteme unmittelbare Pflichten der Behörde. Die Bekämpfung der entdeckten Exploits, Viren und Bedrohungen koordiniert die Organisation im nationalen Cyber-Abwehrzentrum.

Sensibilisierung von Unternehmen und Bürgern durch BSI Informationen

Als IT-Sicherheitsbeauftragter oder einfacher Angestellter in einem Unternehmen profitieren Sie ebenso wie private Verbraucher von den regelmäßigen Empfehlungen zur IT-Sicherheit, die das BSI veröffentlicht. Denn eine zentrale Aufgabe der deutschen Bundesbehörde besteht darin, die Wirtschaft und die Bürger mit Informationen über Sicherheitsschwachstellen zu sensibilisieren. Das BSI macht Sie mit Hinweisen auf ein verbreitetes Exploit, Viren oder sonstige Angriffe durch Hacker frühzeitig auf die Vulnerability von Systemen aufmerksam. Mit diesen Ratschlägen gelingt es IT-Sicherheitsbeauftragten auch, sich beim Business Continuity Planning frühzeitig auf IT-Notfälle vorzubereiten und ohne unnötigen Zeitverlust im Ernstfall zu reagieren. Allgemeine BSI-Empfehlungen helfen Ihnen außerdem zum Beispiel dabei, ein sicheres Passwort anzulegen.

IT-Grundschutz mit Standardschutzmaßnahmen als Empfehlungen zur IT-Sicherheit

Bis 2017 aktualisierte die Bundesbehörde jährliche die sogenannten IT-Grundschutz-Kataloge. Danach ersetzte das BSI die Kataloge mit einem IT-Grundschutz-Kompendium. Wenn Sie verbreitete IT-Systeme nutzen, finden Sie in diesen Veröffentlichungen hilfreiche Empfehlungen mit Standardschutzmaßnahmen. Mit dem IT-Grundschutz veranschaulicht das BSI Methoden zur Steigerung der IT-Sicherheit in Firmen, die teilweise auch für Anfänger umsetzbar sind. Ein IT-Sicherheitsbeauftragter erhält durch das IT-Grundschutz-Kompendium die Möglichkeit, mit umfassenden Maßnahmen ein System gegen Hacker und Exploits weitgehend abzusichern. Insgesamt beinhalten die BSI-Hinweise zum IT-Grundschutz rund 5.000 Seiten. Somit bilden die Informationen eine nützliche Grundlage für den Umgang mit der Vulnerability von Computersystemen und die Verbesserung der Business Continuity.

BSI Zertifizierungen für Unternehmen mit geprüften IT-Produkten und Dienstleistungen

Das BSI gibt Ihnen die Chance, als Unternehmer Zertifizierungen zu erlangen und damit die Durchführung der Maßnahmen zum Schutz vor Hacker-Angriffen oder sonstigen Bedrohungen nachzuweisen. Wichtige Zertifizierungen vergibt die Bundesbehörde beispielsweise für die Umsetzung der Standardmaßnahmen aus dem IT-Grundschutz-Kompendium. Hierzu müssen Sie laut den BSI-Vorgaben einen zertifizierten IT-Grundschutz-Auditor um ein Testat-Verfahren bitten. Dabei wird überprüft, ob ein IT-System die Anforderungen des IT-Grundschutzes erfüllt. Im Anschluss an eine erfolgreiche Prüfung stellt der Auditor ein Testat aus. Das BSI verleiht im Erfolgsfall ein Testat-Logo mit einer befristeten Gültigkeit, das die jeweilige Institution im Zusammenhang mit den geprüften Systemen öffentlich verwenden darf.

Für die Überprüfung von IT-Produkten und Systemen sind vor einer Zertifizierung immer unabhängige Prüfstellen mit einer Anerkennung durch das BSI verantwortlich. Die Bundesbehörde stellt sicher, dass die Produktprüfungen mit einheitlichen Kriterien objektiv und unparteiisch durchgeführt werden. Mit BSI-Zertifikaten haben Sie in einem Unternehmen die Gelegenheit, das Sicherheitsniveau von Ihren Produkten transparent darzustellen.

Wenn Sie ein Verbraucher sind, stellen die Produktzertifizierungen wiederum eine nützliche Entscheidungshilfe dar. Die Zertifikate machen deutlich, ob ein IT-Produkt Ihnen in einem bestimmten Einsatzbereich Sicherheit bietet. Außerdem informieren öffentliche BSI-Hinweise Sie häufig darüber, wie Sie bei der Verwendung von zertifizierten IT-Lösungen die IT-Sicherheit selbst steigern und sich dadurch unter anderem vor einem Exploit oder Hacker-Angriffen schützen.

Kooperation mit Bitkom und Betreibern von kritischen Infrastrukturen

Das BSI kooperiert eng mit dem Branchenverband Bitkom, der für die Telekommunikations- und Informationsbranche in Deutschland zuständig ist. Durch diese Zusammenarbeit ist 2012 auch die Allianz für Cybersicherheit entstanden. Mit Partner-Unternehmen und tausenden Institutionen tauscht das Bündnis Daten über neue Hacker-Methoden aus. Die Allianz für Cybersicherheit ermöglicht dem BSI daher die Bereitstellung zusätzlicher Informationen, von denen Sie als IT-Sicherheitsbeauftragter oder einfacher Unternehmer insbesondere beim Business Continuity Planning profitieren. Zudem unterstützt die Bundesbehörde über das Kooperationsgremium UP KRITIS Betreiber der kritischen IT-Infrastrukturen, die für eine funktionierende Gesellschaft unverzichtbar bleiben. Dabei steht insbesondere die Vulnerability von unentbehrlichen Systemen im Blickpunkt.

Wo Server betrieben werden, ist Virtualisierung heutzutage meist nicht weit. Hyper-V heißt die Lösung von Microsoft in diesem Bereich. Einzelne Server lassen sich darauf bequem erstellen und verwalten. Aber auch ganze Netzwerkstrukturen können virtualisiert werden. Skalierbarkeit und Ausfallsicherheit sind Hauptargumente für einen Betrieb virtueller Server. Zudem kann Hardware besser ausgelastet und Systemlast einfacher verteilt werden.

Allgemeines zu Hyper-V

Im Jahr 2008 stellte Microsoft seine Virtualisierungslösung mit dem Namen Hyper-V vor. Sie war erstmals in den Betriebssystemversionen Windows Server 2008 und Windows 8 enthalten. Ihre Vorgänger waren der Microsoft Virtual Server im Bereich der vServer und der Virtual PC für den Desktop-Bereich.

Wie aus dem Namen schon hervorgeht, ist Hyper-V ein sogenannter Hypervisor. Dieser stellt eine Abstraktionsschicht zwischen der realen Hardware und dem virtualisierten System, Gastsystem genannt, dar. Im Gegensatz zu vollständig virtualisierten Systemen, werden dem Gastsystem auch Ressourcen der physikalischen Hardware zur Verfügung gestellt. Dies aber nur unter Überwachung und Steuerung des Hypervisors. Diese Technik wird Paravirtualisierung genannt.

Hyper-V gibt es als Typ-1- und Typ-2-Hypervisor. Die Ausführung vom Typ 1, die auch als Bare-Metal-Hypervisor bezeichnet wird, stellt nur ein abgespecktes Betriebssystem zur Verfügung. Hauptbestandteil ist der Hypervisor. Die Administration erfolgt über die Kommandozeile oder per Remoteverbindung mit der Software „Hyper-V-Manager“, die ab der Windows-Versionen „Professional“ Bestandteil des Betriebssystems ist. Sie muss lediglich in der Systemsteuerung aktiviert werden.

Die Ausführung des Typ-2-Hypervisors ist in den Server-Betriebssystemen von Windows und den Desktop-Varianten „Professional“ und „Enterprise“ enthalten. Sie lässt sich ebenfalls in der Systemsteuerung zu den Programmen hinzufügen. Die Bedienung erfolgt auch hier mit dem „Hyper-V-Manager“. Die Bedienung ähnelt der von im Desktop-Bereich bekannter Virtualisierungssoftware, etwa Virtual-Box oder VMWare-Player.

Funktionsweise und Vorteile

Durch die Virtualisierungssoftware werden virtuelle Hardwareplattformen erzeugt. Bei der Paravirtualisierung müssen die Gastsysteme kompatibel zur Plattform des Wirtsrechners (Host) sein. Die Erzeugung der virtuellen Maschinen kann auf herkömmliche Weise, mit einem Installationsmedium erfolgen. In der Regel werden aber Vorlagen verwendet, die in Minutenschnelle geladen sind und ein betriebsbereites Gastsystem bieten.

Die virtuellen Maschinen haben jeweils ihren eigenen, abgeschotteten Bereich. Die Hardware stellt der Hypervisor zur Verfügung. Entsprechend besteht dabei große Flexibilität. So kann Arbeitsspeicher einfach angepasst werden und dynamischer Speicherplatz zugeteilt werden. Auf diese Weise können Lastspitzen abgefangen und zu lastärmeren Zeiten die Leistung wieder verringert werden.

Eine weitere große Stärke spielt eine Virtualisierungslösung wie Hyper-V bei der Virtualisierung von Netzwerkstrukturen aus. Es können beliebig Switche und Router erzeugt und damit getrennte Netze oder Subnetze gebildet werden. Letztlich lassen sich ganze Rechenzentren auf diese Weise virtuell verwirklichen.

Der Aufwand für die Einrichtung und Wartung wird dabei minimiert. Anstatt Patchkabel zu stecken, müssen nur Einstellungen im Hyper-V-Manager vorgenommen werden.

Eine recht neue Technologie ist die der Container-Lösungen wie Docker. Diese werden seit der Hyper-V-Version 2016 ebenfalls unterstützt. Hierbei wird keine vollständige virtuelle Maschine erzeugt, sondern nur eine Laufzeitumgebung für einzelne Anwendungen. Diese verwendet Ressourcen zudem nur solange, wie sie auch in Benutzung ist. Die Last, die ein Betriebssystem im Leerlauf erzeugt, fällt bei Nutzung von Container-Anwendungen weg.

 

Bezüglich der Gastbetriebssysteme besteht eine große Auswahl. Virtualisiert werden können:

-Windows-Server-Betriebssysteme,

-Windows-Desktop-Betriebssysteme,

RedHat-Enterprise,

Debian-Linux,

Ubuntu-Linux,

SuSE-Linux,

FreeBSD.

Zu beachten ist, dass das Betreiben virtualisierter Systeme eine gültige Lizenz für das Gastsystem erfordert.

Lizenzen von Hyper-V

Hyper-V ist grundsätzlich kostenlos. Allerdings sind die Betriebssysteme, in denen der Hypervisor eingebettet ist, kostenpflichtig. Ebenso die darin betriebenen Server-Versionen von Windows. Auch für die Anbindung an Speicherlösungen, etwa der Windows-Datacenter-Editionen, fallen Kosten an. Insbesondere verteilte Speicherlösungen von Windows, wie etwa „Direkte Speicherplätze“ (Storage Spaces Direct, abgekürzt: S2D), verursachen nicht unerhebliche Lizenzkosten. Für den Testbetrieb stellt Microsoft zudem kostenlose Evaluierungsversionen von Hyper-V zur Verfügung.

Anwendungsbereiche

Im Firmenbereich kann eine saubere Abschottung von Servern mit unterschiedlichen Aufgabenbereichen erzielt werden, ohne zusätzliche Hardware zu benötigen. Dies können beispielsweise ein Exchange-Server, der Domain-Controller, ein SQL-Server und der Fileserver sein. Weiterhin lassen sich ohne großen Aufwand Subnetze für verschiedene Arbeitsbereiche bilden. Eine physikalische Trennung der Netze ist damit nicht erforderlich. Auch im Bereich von Rechenzentren findet Software wie Hyper-V Anwendung. Mit dieser Technologie ist es Hosting-Anbietern beispielsweise möglich, Kunden kurzfristig virtuelle Server zur Verfügung zu stellen.

Alternativen

Bekanntester kommerzieller Mitbewerber ist der Anbieter VMWare. Dieser bietet mit dem ESXi-Server einen Bare-Metal-Hypervisor vergleichbarer Art. Einen Hypervisor des Typs 2 hat VMWare ebenfalls im Angebot, die VMWare Workstation.

Auch Open-Source-Lösungen sind verfügbar. Auf Basis des etablierten Linux-Hypervisors KVM/QEMU stellt der PROXMOX-Server einen Hypervisor des Typs 1 zur Verfügung.

Zudem steht unter Linux-Systemen der Hypervisor XEN kostenfrei zur Verfügung. Hierbei handelt es sich um ein Projekt der Universität Cambridge.

Bei den freien Versionen ist allerdings zu beachten, dass diese aufgrund ihrer Komplexität oftmals mit einem kostenpflichtigen Support Anwendung finden. So ist beispielsweise der Linux-Distributor RedHat in diesem Bereich tätig und bietet Support für den von ihm mitentwickelten Hypervisor KVM/QEMU.

was ist nginx und warum ist es besser als apache?

Lange Zeit war Apache mit einem Marktanteil von bis zu 70 Prozent der Webserver für das Internet. Einzig Microsoft IIS stellte mit etwa 20 Prozent eine nennenswerte Konkurrenz dar, da es der Standard für das Betriebssystem Windows Server ist. Mit dem Erscheinen von Nginx – ausgesprochen wie das englische Engine Ex – hat sich die Situation geändert. Besonders große Plattformen setzen auf die Open-Source-Software aus Russland, da diese viele Vorteile mit sich bringt.

Webserver, Datenbanken, Programmiersprachen, Protokolle und Interpreter

Eine Webseite ist heute fast immer dynamisch programmiert. Das bedeutet, bei einer Anfrage erstellen mehrere Programme eine individuelle Antwort, statt ein vorgefertigtes, statisches Dokument auszuliefern. Die Informationen – zum Beispiel Texte, Links, Nutzernamen oder Passwörter – liegen in einer Datenbank. Skripte in einer geeigneten Programmiersprache wie PHP, Perl oder Python fragen diese ab und erstellen die Webseite.

Der Interpreter bildet eine Schnittstelle zwischen dem Skript und dem Betriebssystem – er übersetzt die geschriebenen Befehle in Computersprache. Der Webserver ist für die Kommunikation zuständig: Er nimmt Anfragen entgegen und sendet Antworten an die entsprechenden Adressen.

Um die Kommunikation zwischen Server und unterschiedlichen Endgeräten und Betriebssystemen zu ermöglichen, kommen universelle Protokolle als Gemeinsprache zum Einsatz. Für Webseiten ist dies das Hypertext Transfer Protocol (HTTP) beziehungsweise dessen verschlüsselte Variante mit dem Zusatz Secure (HTTPS). Es ist speziell für die Übertragung von Nachrichten konzipiert, für andere Zwecke wie Dateiübertragungen existieren eigene Formate wie das File Transfer Protocol (FTP).

Nginx – ein modularer Webserver mit geringem Ressourcenverbrauch

Effizienz und Geschwindigkeit zeichnen Nginx besonders aus.

Effizienz und Geschwindigkeit zeichnen Nginx besonders aus.

Um eine hohe Performance und Funktionalität zu ermöglichen, verwendet Nginx ein modulares Design. Es besteht aus einem schlanken Kernprogramm, das ein Nutzer je nach individuellen Anforderungen durch Module erweitert. Dadurch unterstützt der Webserver unterschiedliche Techniken und erlaubt die Einbindung neuer Standards etwa für Videostreaming und interaktive Inhalte. Einige der Möglichkeiten sind Lastverteilung über mehrere Server, zusätzliche Protokolle, direkter Zugriff auf den Arbeitsspeicher oder der Einsatz als E-Mail– oder Webserver für Weiterleitung (Proxy).

Eines der populärsten und interessantesten Module ist PHP-FPM. Es handelt sich um einen Prozessmanager, der die Anbindung an den PHP-Interpreter übernimmt. Die Kommunikation zwischen Webserver und Programmiersprache basiert auf einem 1993 definierten Standard – dem Common Gateway Interface (CGI). Traditionell erstellt dieses für jede Aufgabe einen neuen Prozess.

Im Unterschied zu diesem Verfahren erzeugt PHP-FPM bei Betriebsstart mehrere Interpreter im Hintergrund, auf die es je nach Auslastung Anfragen verteilt. In Verbindung mit anderen Optimierungen erreicht das Modul dadurch eine ausgezeichnete Performance.

Unterschiede zwischen Apache und Nginx

Anders als Apache legt Nginx bereits seit seiner ersten Version eine Priorität auf Effizienz und Geschwindigkeit. Apache verwendet ebenfalls ein modulares Design – eines seiner größten Nachteile ist jedoch, dass es jede Verbindung einzeln bearbeitet. Dadurch besitzt es einen sehr hohen Speicherverbrauch und die Effizienz sinkt bei hohen Besucherzahlen kontinuierlich. Aus diesem Grund setzt das Programm auf eine sogenannte „asynchrone Architektur“. Anfragen behandelt es nicht individuell, sondern bündelt sie in wenigen Prozessen, die tausende Verbindungen simultan verwalten können.

Eine häufig genutzte Funktion unter Apache sind .htaccess-Dateien. Diese ermöglichen es, durch eine lokale Datei Regeln zu definieren, die von dem Webserver ausgewertet werden. Häufige Verwendungen sind das Setzen eines Passworts für eine bestimmte Adresse oder die Umleitung von URLs im Rahmen der Suchmaschinenoptimierung (SEO). Nginx unterstützt keine .htaccess-Dateien, da diese die Performance beeinträchtigen. Es verwendet stattdessen globale – also system– oder seitenweite Einstellungen.

Für die Umwandlung von .htaccess-Befehlen in eine gültige Konfiguration existieren mehrere Konverter, die die Einrichtung erleichtern. Apache ermöglicht es, Module nachträglich einzubinden, indem Anwender diese in die Konfiguration eintragen und in den Webserver laden. Im Gegensatz dazu gehören Module bei Nginx fest zu dem kompilierten Programm. Eine Erweiterung um neue Funktionen erfordert deshalb fast immer den Austausch der installierten Programmversion.

Vor- und Nachteile von Nginx

Bekannte Website setzen auf Nginx als Webserver und erreichen täglich mehrere tausend Aufrufe.

Bekannte Website setzen auf Nginx als Webserver und erreichen täglich mehrere tausend Aufrufe.

Das Projekt Nginx entstand aus der Notwendigkeit, einen schnellen, zuverlässigen, sicheren und effizienten Webserver für die russische Suchmaschine Rambler zu entwickeln. Unter dem Gesichtspunkt der Performance ist dieser wegen dieser Eigenschaften meist die beste Wahl. Populäre Webseiten mit tausenden oder Millionen Aufrufen täglich – darunter zum Beispiel WordPress, Netflix, Apple, Spotify oder Facebook – setzen deshalb bevorzugt Nginx ein. Experten schätzen, dass der Marktanteil des Webservers unter den 10.000 beliebtesten Internetseiten bei über 60 Prozent liegt.

Für kleine Projekte bietet die Verwendung ebenfalls einige Vorteile. Er ermöglicht beispielsweise eine Reduzierung der Hardwareperformance und dadurch der Betriebskosten, ohne die Geschwindigkeit bei Reaktion oder Seitenaufbau zu beeinträchtigen. Ein großer Nachteil von Nginx ist die gegenüber Apache aufwendigere Konfiguration. Darüber hinaus schränkt dieser durch die ausschließlich globale Definition die Möglichkeiten zu einer individuellen Einrichtung bei mehreren unabhängigen Nutzern ein. Wegen dieser Eigenschaft bevorzugen viele Anbieter von Webspace für ihre Kunden nach wie vor Apache.

Apache und Nginx als kombinierter Webserver

Um die Vorteile von beiden Programmen nutzen zu können, bietet sich eine Kombination der Webserver an. In diesem Fall dient Nginx als primäre Instanz und leitet ausschließlich spezielle Anfragen an Apache weiter, um dessen Verbindungen zu minimieren. Das Verfahren benötigt Administrationsrechte auf dem Server und eine individuelle Konfiguration, kann aber den Ressourcenverbrauch erheblich verringern. Das Aufsetzen der Webserver erfordert allerdings ein entsprechendes Fachwissen.

Eine Website mit dem weltweit beliebtesten Content Management System WordPress (kurz WP) aufzubauen ist generell eine gute Idee. Das CMS ist benutzerfreundlich und durch Plugins sowie Themes leicht erweiterbar – und natürlich Opensource-Software. Damit eine WP-Site aber problemlos funktioniert, müssen zuvor bestimmte Hosting-Anforderungen erfüllt werden. In diesem Artikel erfahren Sie, worauf Sie beim WordPress-Hosting achten müssen.

Dies brauchen Sie, um eine WP-Website zu betreiben.

Das Logo von WordPress - das beliebteste CMS weltweit

Das Logo von WordPress – das beliebteste CMS weltweit

WordPress  arbeitet mit der Skriptsprache PHP und einer MySQL-Datenbank. Diese Features müssen in einem Hosting-Tarif enthalten sein, um das System zum Laufen zu bringen. Bevor Sie jetzt nach dem günstigsten Hosting-Tarif mit PHP und MySQL Ausschau halten, sollten Sie einige zukunftsorientierte Eigenschaften berücksichtigen, die die Besucherzahlen und das SEO-Potenzial Ihrer Website stark beeinflussen. Sie möchten doch, dass möglichst viele Besucher Ihre Website finden?

Dieses Ziel können Sie viel leichter erreichen, wenn Ihre Website weit oben in den Suchergebnissen bei Google oder Bing auftaucht. Hohe Rankings sind wiederum nur dann möglich, wenn die Website schnell funktioniert und suchmaschinenoptimiert ist.

Geschwindigkeit ihrer WordPress Website

Nicht nur Menschen, auch Google hat keine Lust auf langsam ladende  Websites zu warten. Langsame Internetpräsenzen haben keine Chance auf hohe Positionen. Sowohl die Geschwindigkeit als auch das SEO-Potenzial (engl. SEO = Search Engine Optimization, dt. Suchmaschinen-Optimierung) hängen zum Teil von dem Hosting-Tarif ab. Je mehr Benutzer gleichzeitig eine WordPress -Site benutzen, desto stärker wird der Server beansprucht, auf dem die Website liegt. Wenn Sie sich für einen günstigen Shared-Hosting-Tarif entscheiden, erhalten Sie lediglich einen Teil der Leistungskapazität eines Servers.

Server-Hardware wie CPU oder Arbeitsspeicher wird unter verschiedenen Kunden geteilt. Wenn also einer dieser Kunden mehrere Websites in Rahmen eines Tarifs hostet und andere performance-lastige Operationen durchführt, können Sie dies unter Umständen zu spüren bekommen – genauer mit langsameren Ladezeiten ihrer WordPress Installation.

Um dies zu verhindern, legen viele Provider Limits fest. Hier sollten Sie auf das sogenannte Memory-Limit (von PHP) achten. Je mehr Plugins Sie in WP aktivieren und je mehr Besucher die Site benutzen, desto größer wird der Arbeitsspeicher-Bedarf für PHP. Der Hosting-Tarif sollte mindestens 128MB Memory-Limit bieten. Für große WP-Sites wie Onlinestores mit WooCommerce sollten mindestens 256MB vorhanden sein. Wichtig für die Suchmaschinenoptimierung sind die Permalinks von WP. Diese suchmaschinenoptimierten Linkstrukturen erfordern mod_rewrite – ein Modul des Apache-Servers. Achten Sie, dass ihr Provider dies unterstützt.

Mehr Speicherplatz für ihr WordPress Hosting

Nicht zu unterschätzen ist der Speicherplatz. Natürlich ist die Größe wichtig, denn je mehr Speicherplatz zu Verfügung steht, desto mehr Daten lassen sich auf dem Hosting ablegen. WordPress braucht keine gigantischen Speicher oder Festplatten-Kontingente. Ein WooCommerce-Onlineshop mit Tausenden Produkten kommt mit einigen Hundert Megabytes aus. Als Minimum sollten Sie aber wenigstens 1GB bekommen, denn Sie wollen doch auch E-Mails empfangen oder ab und zu eine Testinstallation mit WordPress anlegen.

Für den praktischen und tagtäglichen Erfolg Ihrer Website ist Geschwindigkeit maßgeblich. Im Idealfall erhalten Sie Platz auf einem Server mit schnellem SSD-Speicher. Im Vergleich zu herkömmlichen Festplatten bietet SSD viel schnellere Lese- und Schreibvorgänge.

Ein Hackerangriff oder Hardwareausfall könnte Ihre Internetpräsenz nachhaltig beschädigen. Daher sind regelmäßige Sicherungen Pflicht. Der Hosting-Plan muss eine automatisierte Backup-Lösung bieten, die Ihren ganzen Datenbestand regelmäßig sichert und auf Wunsch wiederherstellt.

Die technischen Anforderungen von WordPress

Zusammenfassend sollte ein guter Hosting-Tarif Folgendes bieten:

  1. PHP-Unterstützung – mindestens Version 5.6 oder sogar php 7.x
  2. Mehrere MySQL-Datendanken / alternativ MariaDB
  3. Apache Modul „mod_rewrite“
  4. Mindestens 128MB Memory-Limit – besser 256 MB
  5. Mindestens 1GB Speicherplatz auf SSD
  6. Integrierte Backup-Lösung

Bei WordPress kommen php, mysql und Javascript zum Einsatz

Ein gut ausgestattetes Webhosting auf einem schnellen Server bildet die Basis für eine erfolgreiche Internetpräsenz. Darüber hinaus ist auf die Provider-Qualität zu achten.

So erkennen Sie einen guten Hosting Provider.

Sicherheit beim WordPress-Hosting

Sicherheit beim WordPress-Hosting

Optimale Webhosting-Konfiguration und schnelle Hardware sind wichtig. Doch bei der Auswahl eines Tarifs für das WordPress-Hosting ist noch mehr zu berücksichtigen. In Sachen Performance und Sicherheit sind die Eigenschaften des Serverzentrums und Providers wichtig. Das Rechenzentrum des Anbieters  muss unbedingt über eine schnelle – idealerweise redundante – Internetanbindung verfügen.

Ebenso wichtig: Der Standort des eigentlichen Rechenzentrums ihres WordPress-Hosting Anbieters muss in Deutschland sein, damit das bundesdeutsche Datenschutzgesetz vollumfänglich zur Geltung kommt.

Achten Sie auf Sicherheitslösungen der Serverräume und Zertifizierungen wie ISO 9001 (Qualitätsmanagement) oder ISO 27001 (Informationssicherheitsmanagement). Diese Zertifikate bestätigen, dass Dienste nach hohen Standards geleistet werden. Ein wichtiger Faktor, der die Qualität eines Hosting-Providers definiert, ist der Kundenservice. Kurze Reaktionszeiten, freundliche und kompetente Support-Mitarbeiter sind positive Indikatoren.

Der Kundenservice (bzw. Support) ist nicht zu unterschätzen, denn früher oder später werden Sie ihn brauchen – denn bei Software-Projekten mit WordPress tauchen immer unvorhersehbare Hindernisse auf. Mit einem guten Support-Team, das sich idealerweise mit WP auskennt, sind Sie auf der sicheren Seite.

Die tatsächliche Servergeschwindigkeit und der Kundenservice lassen sich meist im Vorfeld gar nicht prüfen. Doch ein guter Provider hat nichts zu verbergen. Suchen Sie nach Anbietern, die eine unverbindliche Probezeit ermöglichen. So können Sie das Hosting vor der Bestellung ausprobieren.

Fazit:

Durch die Auswahl eines optimalen WordPress-Hosting bei einem vertrauenswürdigen Internet-Provider legen Sie den Grundstein für den Erfolg Ihrer Website. Nehmen Sie sich Zeit, um verschiedene Angebote zu vergleichen und auszuprobieren.

Sollten Sie Fragen haben, so stehen Ihnen die Mitarbeiter des IT-Dienstleisters Biteno GmbH gerne mit Rat und Tat zur Seite. Sprechen Sie uns an oder nutzen das Kontaktformular.

Übrigens: Das Hosting für Ihre WordPress oder WooCommerce Website können Sie bei Biteno sogar hier online bestellen.

Weiterführende Links: