Beiträge

Bei OpenVPN handelt es sich um eine plattformunabhängiges Software-Produkt, das unter einer GNU-GPL-Lizenz entwickelt und vertrieben wird und mit dem sich sichere VPNs (Virtual Private Network) aufbauen lassen. OpenVPN ist für alle aktuellen Betriebssysteme erhältlich und kann gleichermaßen gut eingesetzt werden, um einzelne Clients oder auch gesamte Netz zu koppeln.

Allgemeine Informationen zu OpenVPN

OpenVPN kann verwendet werden, um verschlüsselte und sichere private Netzwerke zwischen einzelnen Clients oder gesamten Netzwerken zu implementieren. Um eine Verbindung aufzubauen, muss auf beiden Seiten die Software vorhanden und korrekt konfiguriert sein. Die VPN-Lösung lässt sich auf traditionellen Rechnern, Servern, mobilen Endgeräten sowie Netzwerkgeräten wie beispielsweise Router installieren. Unterstützt werden alle modernen Betriebssysteme, wie zum Beispiel:

–       Windows

–       Linux

–       MacOS

–       Solaris

–       OpenBSD

–       Android

Der Datenstrom zwischen den Clients wird durch die Software verschlüsselt und wahlweise über TCP– oder UDP-Verbindungen übertragen. OpenVPN ist auch über NAT-Grenzen hinweg nutzbar, bei der viele ähnliche Lösungen auf Ihre Grenzen stoßen. Die Nutzerdaten, die über die VPN-Verbindung übertragen werden, sind per SSL-TLS verschlüsselt. Für die Entschlüsselung wird die kryptografische Bibliothek OpenSSL eingesetzt.

Funktionsweise im Überblick

Ein beliebtes Einsatzszenario für VPN-Lösungen ist die sichere Verbindung eines Außendienstmitarbeiters oder eines Home-Office-Computers über das Internet mit dem Firmennetzwerk. In solchen Fällen baut der Client, also der Rechner der sich außerhalb des Firmennetzwerks befindet, eine Verbindung zum zentralen Server des Firmennetzwerks auf. Dieser ist grundsätzlich unter einer statischen IP-Adresse oder Domain im öffentlichen Internet ansprechbar und wartet auf eingehende Client-Anfragen zum Verbindungsaufbau. Bei dynamischen IP-Adressen, die kontinuierlichen Änderungen unterzogen werden, können auch dynamischen DNS-Dienste eingesetzt werden, die den Verbindungsaufbau zum zentralen VPN-Server ermöglichen.

Im Prozess des Verbindungsaufbaus wird der Client vom Server über ein Passwort oder ein sogenanntes „Trust-Zertifikat identifiziert. Sind die Zugangsdaten korrekt, kann eine sichere Verbindung zwischen Client und Server realisiert werden, sodass die übertragenen Daten von unbefugten Personen nicht mehr gelesen werden können. Die Verschlüsselung und die Entschlüsselung des Datenstroms erfolgten an den jeweiligen Endpunkten der VPN-Verbindung, also beim Server und Client. Das Besondere an OpenVPN ist, dass sich neben einzelnen Clients auch gesamte Netzwerke über OpenVPN verbinden lassen.

Vorteile von OpenVPN

Der Einsatz der VPN-Software bringt zahlreiche Vorteile mit sich. OpenVPN bietet Unterstützung für sämtliche moderne Betriebssysteme und zeichnet sich durch eine äußerst hohe Stabilität aus. Um große VPN-Infrastrukturen zu realisieren, lässt sich die VPN-Lösung auf tausende von Clients schnell und problemlos skalieren, ohne irgendwelche Performance-Einbrüche in Kauf nehmen zu müssen. Durch den Einsatz von OpenSSL sowie durch die beiden Verschlüsselung- und Authentifizierungs-Verfahren SSL-TLS und PKI gelten Virtual Private Networks als sehr sicher. Die Installation der VPN-Software gestaltet sich relativ einfach und unkompliziert und sie kann auch ohne größere Probleme mit IP-Adressen genutzt werden, die dynamisch oder hinter NAT-Routern vergeben werden. Vorteile von OpenVPN im Überblick:

–       Unterstützung für eine große Bandbreite an Betriebssystemen

–       erstklassige Skalierbarkeit

–       hohe Stabilität und Sicherheit

–       ist auch hinter Firewalls und NAT-Geräten funktionsfähig

–       einfach zu installieren und zu konfigurieren

–       kann wahlweise über TCP- oder UDP-Verbindungen verwendet werden

Hohe Sicherheit bei OpenVPN

OpenVPN bietet Unterstützung für verschiedene Arten der Authentifizierung. Es lassen sich sowohl digitale Trust-Zertifikate, als auch sogenannte „preshared Keys“ implementieren, um Benutzer der VPN zu authentifizieren. Im Rahmen der preshared Keys-Authentifizierungs-Methode werden statische Schlüssel oder Passwörter an alle Kommunikationspartner verteilt, die im Virtual Private Network aktiv sind. Der Missbrauch der jeweiligen Schlüssel wird durch entsprechende Sicherheitsmechanismen effektiv verhindert. Die zertifikatsbasierte Authentifizierung basiert auf öffentlichen und privaten Schlüsselpaaren sowie auf digitalen Trust-Zertifikaten nach dem X.509-Standard.

Die Schlüsselpaare werden in der Regel von einer zentralen Certification Authority (CA) unterzeichnet. Die CA-Autorität gewährleistet die Echtheit der Schlüssel. Clients und Server sind jeweils mit eigenen Zertifikaten und öffentlichen/privaten Schlüsselpaaren versehen. Nach der erfolgreichen gegenseitigen Bestätigung der Echtheit der Zertifikate bzw. Schlüssel erfolgt die Erstellung eines sogenannten „Sitzungsschlüssels“ (Session Key). Dieser wird für die Verschlüsselung der zu übertragenen Daten eingesetzt und wird durch OpenVPN automatisch in zufälligen zeitlichen Abständen ersetzt.

Die verschiedenen Netzwerkmodi: Bridging und Routing

OpenVPN kann in zwei verschiedenen Modi betrieben werden, und zwar in :

–       Routing

–       Bridging

Bei dem Routing-Modus handelt es sich um die einfachste Art einen sicheren und verschlüsselten Tunnel zwischen zwei Kommunikationspartnern herzustellen. Über diesen werden ausschließlich IP-Pakete (Layer 3) übertragen. Um dies zu realisieren, wird jeder Gegenstelle eine virtuelle IP-Adresse eines fiktiven Subnetzes zugeteilt, wie zum Beispiel 10.9.8.10 und 10.9.8.20. Der direkte Zugriff auf das Netzwerk, das sich hinter dem VPN befindet, ist in der Regel nicht möglich. Um auf die dortigen IP-Adressen zugreifen zu können, muss die Gegenstelle die erhaltenen Datenpakete entweder durch IP-Forwarding oder durch Einträge in der Routingtabelle weiterleiten.

Im Gegensatz zum Routing-Modus erlaubt das Bridging-Verfahren Ethernet-Frames (Layer 2) vollständig zu tunneln. Der Routing-Modus erlaubt auch den Einsatz von anderen Protokollen, wie beispielsweise das IPX. Ein Client wird im Rahmen des Routing-Verfahrens vollständig in das Einwahlnetzwerk integriert und erhält eine IP-Adresse des dortigen Subnetzes.

 

IceWarp ist ein E-Mail-Server mit zuverlässigem Schutz vor Spam und Viren. Daneben bietet IceWarp auch Groupware-Module für modernes, komfortables Teamwork: So können Ihre Mitarbeiter online auf alle Termine, Aufgaben und Kontakte zugreifen – im Browser per Desktop, Notebook oder Smartphone. WebDocuments ermöglicht das gemeinsame Arbeiten an Office-Dokumenten in der Cloud und TeamChat ist eine optimale Lösung für Webkonferenzen.

Sicherer Mailserver

Mit dem IceWarp Mailserver können Ihre Mitarbeiter Mails empfangen, lesen, verwalten und versenden. Dabei können Sie sich auf einen modernen E-Mail-Server verlassen, der sowohl Komfort als auch Sicherheit bietet.

Als Spamschutz kommen zwei Schichten zum Einsatz (erste Schicht: SpamAssassin, zweite Schicht: Online-CYREN). So werden zuverlässig unerwünschte Mails aussortiert und nahezu 100 % der Gefahren durch Spam abgewehrt.

Jede Mail, die den zweischichtigen Spamschutz passiert, wird auf Viren gescannt, welche z. B. in Links oder im Mailanhang versteckt sein können. IceWarp verwendet dafür ein auf der bewährten Kaspersky-Engine basierendes Antivirus Programm.

Mit dieser Kombination aus Spamschutz und Virenschutz wehrt der IceWarp Mailserver effektiv alle Schadprogramme ab und verhindert so, dass Spyware, Keylogger oder Ransomware auf Ihre Rechner gelangt.

IceWarp: mit vielen Optionen für modernes Teamwork

IceWarp unterstützt alle gängigen Mail-Protokolle (LDAP, POP3, SMTP, IMAP). Ihre Mitarbeiter können die bereits gewohnten Programme (Outlook, Mailbird, Thunderbird) als Client nutzen. Dafür werden alle Webmail-Dienste als Ajax-Anwendungen angeboten. Auch FTP Server können bei Bedarf aufgesetzt werden.

Ein besonderer Vorteil von IceWarp ist die Benutzerfreundlichkeit. So können Ihre Mitarbeiter Termine und Meetings im gleichen Browserfenster von Mails in den Kalender übertragen. Damit haben Sie alle wichtigen Kontakte, Aufgaben und Termine immer an einem zentralen Ort im Web gesammelt und können weltweit rund um die Uhr darauf zugreifen.

Eine interessante und nützliche Option für die Arbeit im Team: Durch individuelle Kontrolle der PIM-Daten können Sie ausgewählte Termine, Aufgaben und Notizen auch für andere Nutzer freigeben. Dies kann sinnvoll sein, wenn mehrere Mitarbeiter an dem gleichen Projekt arbeiten, Termine im geteilten Kalender gemeinsam festgelegt werden müssen, oder ein Kollege eine bestimmte Aufgabe übernehmen soll, usw.

IceWarp TeamChat

Mit TeamChat bietet IceWarp eine moderne und benutzerfreundliche Lösung für Gruppenchats, VoIP sowie Web- und Videokonferenzen. TeamChat unterstützt dabei sowohl das Screensharing als auch den Austausch von Dateien und Dokumenten und verbessert so effektiv die Kommunikation und Zusammenarbeit.

Die Funktionen von TeamChat sind bereits integriert und können ohne zusätzlichen Installationen kostenlos freigeschaltet werden. Auch ist es möglich, dass TeamChat von internen und externen User gemeinsam genutzt wird. Eine sinnvolle Option, wenn Sie bei einem internationalen Kunden online eine Präsentation halten oder Zwischenergebnisse anhand von Dokumenten diskutieren möchten, etc.

IceWarp WebDocuments

WebDocuments ist die optimale Basis für modernes Teamwork in der Cloud: Ihre Mitarbeiter können von jedem Ort und jederzeit auf alle Dokumente zugreifen und diese gemeinsam und gleichzeitig bearbeiten – vom Desktop im Büro, vom Notebook im Homeoffice oder auch mit dem Smartphone auf Reisen. Dies ermöglicht ein effektives Arbeiten aller Kollegen und erhöht so die Produktivität Ihres Teams. Dabei werden alle üblichen Formate von Microsoft Office (Word, Excel, PowerPoint) unterstützt und Ihre Mitarbeiter können über Windows oder Linux auf WebDocuments zugreifen. Bei Bedarf können auch Datenbanken wie MySQL, SQLite und Oracle verwaltet werden und selbstverständlich können Sie WebDocuments auch als Online-Speicher in der Cloud nutzen.

 

IceWarp Server

Damit Ihre Mails und Daten immer online verfügbar sind, müssen die Server rund um die Uhr im Einsatz sein. IceWarp besitzt hierfür weltweit in vielen Ländern eigene Cluster, so auch in Deutschland (Nürnberg).

Alle Verbindungen sind SSL verschlüsselt und die IceWarp Services erfüllen selbstverständlich die europäische Datenschutzgrundverordnung (DSGVO). Wie die meisten Cloud-Angebote von Biteno ist auch die Qualität der IceWarp Server durch die Standards ISO 9001 und ISO/IEC 27001 gesichert.

Durch die ebenfalls von Biteno angebotene, optionale Remote-Datensicherung sowie einem zusätzlichen Online Backup ist die Sicherheit Ihrer Daten auf lange Zeit gewährleistet.

Alternative zu Microsoft Office 365, Dropbox und Slack

Sie können die Lizenzen für die einzelnen Module unabhängig erwerben und auch die Anzahl der Nutzer kann flexibel an den Bedarf Ihres Unternehmens angepasst werden. IceWarp ist damit eine Alternative zu Office 365, Dropbox und Slack sowie zu anderen Mailservern (Postfix, Sendmail, Zimbra). Dabei kann IceWarp – insbesondere für mittelgroße Unternehmen – oft die kostengünstigere Lösung darstellen.

Der besondere Vorteil von IceWarp ist die Verfügbarkeit aller Services auf einer einzigen Plattform in einer übersichtlichen, benutzerfreundlichen Oberfläche im Browser. Diese Lösung als All-in-one Schnittstelle ist nicht nur effektiv, sondern bietet Ihren Mitarbeitern auch ein Plus an Komfort und Funktionalität, was wiederum die Produktivität Ihres Teams steigern kann.

Grundsätzlich bezeichnet die Digitalisierung den Übergang des von vorwiegend analogen Methoden, Vorgehensweisen und Technologien geprägten Zeitalters bis hin zur Ära der digitalen Innovationen. Fakt ist, dass die Digitalisierung eine der wohl wichtigsten und bedeutsamsten wirtschaftlichen und gesellschaftlichen Entwicklungen unserer Zeit beschreibt. Die Digitalisierung an sich zeichnet sich durch verschiedene Ausprägungen aus. Bemerkenswert in dieser Hinsicht ist vor allem die Begrifflichkeit der digitalen Disruption. Mit ihr lassen sich der radikale Wandel sowie die raschen, nachhaltigen Veränderungen, welche durch die neuartigen digitalen Geschäftsmodelle ausgelöst werden, wohl am besten beschreiben.

Der Wandel hin zur Digitalisierung

Der digitale Wandel in Wirtschaft und Gesellschaft sind nicht mehr aufzuhalten. Entsprechend wichtig ist dabei das Thema der Digitalisierung. Die Definition des Begriffes „Digitalisierung“ ist einerseits sehr simpel, aber sie macht zugleich deutlich, was aus der Sicht von Existenzgründern sowie kleinen und mittelständischen Unternehmen alles damit verbunden ist. Die zahlreichen mit der Digitalisierung einhergehenden Vorteile sind bemerkenswert. Zunächst geht es nun einmal darum, die Bedeutung der Digitalisierung aufzuzeigen und zu beschreiben, was mit dem Begriff denn eigentlich gemeint ist.

Grundsätzlich sollte es das Ziel in modernen, erfolgsorientierten Unternehmen sein, die Digitalisierung in enger Zusammenarbeit mit Mitarbeitern und der Unternehmensführung umzusetzen. Etwa seit der Jahrtausendwende ist eine deutliche Veränderung mit Blick auf die Veränderung digitaler Technologien spürbar. Diesbezüglich ist unter anderem vom mobilen Internet sowie von der so genannten künstlichen Intelligenz die Rede.

Ab dem Jahr 2000 etwa haben sich teils dramatische Weiterentwicklungen abgezeichnet. Kamen diese Meilensteine der digitalen Technologie zunächst vornehmlich in Weltkonzernen zum Einsatz, haben sie mittlerweile längst Einzug in den Alltag der Menschen gehalten. Vergleicht man hierbei einmal die Erfindung der Glühbirne oder der Elektrizität im vergangenen Jahrhundert, so ist die Digitalisierung in unserem modernen Zeitalter ganz gewiss ebenfalls eine essenzielle Auswirkung auf die nachhaltige Veränderung von Wirtschaft und Gesellschaft. Die Digitalisierung an sich basiert auf moderner Technik. Diese entwickelt sich stetig weiter, und im Zuge dessen entstehen fast kontinuierlich neue Produkte und Technologien. Diese werden von Existenzgründern und Start-ups, aber auch von ambitionierten kleinen und mittelständischen Unternehmen aufgegriffen, angepasst und ebenfalls sukzessive verändert. Daraus ergibt sich eine Digitalisierung in verschiedenen Bereichen und in unterschiedlichen Zeiträumen. Ein Vergleich auf die klassischen Wirtschafts- und Industriezweige lohnt sich an dieser Stelle durchaus:

Die Digitalisierung auf dem Vormarsch

In der Musik- und Medienbranche waren die Auswirkungen der Digitalisierung zunächst am deutlichsten spürbar. Auch die Immobilienbranche und der Handel passten sich dieser rasanten Entwicklung zügig an. Längst ist die Digitalisierung in fast allen Branchen angekommen. Nicht so in der öffentlichen Verwaltung, so scheint es auf den ersten Blick. Denn hier werden in vielen Städten und Gemeinden nach wie vor seit jeher ausschließlich Papierbelege verwendet, oder man arbeitet mit Akten und Karteikarten. Daher lohnt es sich, auch in diesem Segment aktiv zu werden und die Digitalisierung weiter zu bringen.

Die Digitalisierung in der Zukunft

Bereits vor geraumer Zeit ist deutlich geworden, welchen Stellenwert die Digitalisierung unter anderem in der Automobilindustrie einnimmt. Ständig erobern neue Mobilitätskonzepte die weite Welt des Fahrens. Gerade auch das so genannte autonome Fahren soll in Zukunft noch mehr Freiheit, Sicherheit und Flexibilität bieten. In der Medizin ist die Digitalisierung ebenfalls längst angekommen und verändert nicht nur das Gesundheitswesen im Allgemeinen, sondern auch die Zukunft der Berufe und Berufszweige profitiert von den Auswirkungen. Neue Jobs entstehen hier und damit ein vielversprechenderes gesundheitliches Potenzial für Patienten. Begriffe wie E-Health gewinnen mehr und mehr an Bedeutung. Neben dem Medizin- bzw. dem Gesundheitssektor bleibt insbesondere das Finanzwesen von der Digitalisierung nicht unberührt. Neue Währungen wie der Bitcoin erobern den virtuellen „Finanzkosmos“ und Technologien wie Blockchain spielen heute eine immer wichtigere Rolle. Die Konsequenz dieser Digitalisierungsformen sind völlig neue Chancen für Unternehmer und Privatpersonen. Das ist pure Faszination – und noch lange ist kein Ende dieser Entwicklung in Sicht.

Neue Aus- und Weiterbildungsmöglichkeiten etablieren sich. Lernen wird dank der Digitalisierung einfacher, effizienter und nachhaltiger. Trainings und Learnings sowie die Art der Kommunikation unter Lernenden und Lehrenden hat sich drastisch verändert. Auf diese Weise wird es endlich leichter, auch über den Tellerrand zu schauen und neue Chancen und Möglichkeiten zu entdecken. Es wird immer leichter, den eigenen Horizont zu erweitern – und damit auch, neue Ideen zu generieren. Ideen, die sich ganz gewiss in vielerlei Hinsicht in Zukunft ebenfalls auf die Weiterentwicklung der Digitalisierung selbst auswirken werden.

Kundenbedürfnisse befriedigen

Mit Hilfe der Digitalisierung ist es leichter, Kundenbedürfnisse zu befriedigen, mehr Kundennähe zu generieren und neue Zielgruppen zu entdecken. Um aber all dies langfristig gewährleisten und stetig weiter verbessern zu können, ist es im Sinne der Kundenorientiertheit elementar, neue Marketing- und Vertriebsstrategien anzuwenden. So ist es in modernen Unternehmen unabdingbar, das Handeln auf die stete Weiterentwicklung von Innovationen bzw. Technologien auszurichten. Nur so wird es auch in Zukunft möglich sein, die steigenden Erwartungen der Kunden aus unterschiedlichen Branchen erfüllen oder gar übertreffen zu können. Es gilt daher,  Innovationskulturen zu schaffen und neue digitale Prozesse und Abläufe zu konzeptionieren. Alles das vor dem Hintergrund, neue digitale Services und Geschäftsmodelle zu entwickeln. Mitarbeiter, Führungskräfte und Unternehmer müssen sich weiterbilden. Wissensmanagements sind weiter aus- und aufzubauen, weil es nur so möglich sein wird, die Vorteile des digitalen Wandels vollumfänglich auszuschöpfen und langfristig davon zu profitieren.

Kommunikationswege müssen verbessert und Marketing- und Vertriebsstrategien neu ausgerichtet und noch zielorientierter gestaltet werden. Content Marketing auf digitalem Level sowie eine virtuelle Vertriebsautomatisierung genießen in diesem Segment ebenfalls maximale Priorität. Um noch einmal auf die öffentlichen Verwaltungen zurückzukommen, ist es unabdingbar, sich nach und nach von den Papierbergen zu verabschieden und neuartige Prozesse und Abläufe zu implementieren. Dabei ist auch ein vollständiges Umdenken mit Blick auf den Umgang mit Daten essenziell. Insofern entstehen auch in dieser Hinsicht neue Formen und Möglichkeiten der Digitalisierung, die sich ebenfalls kontinuierlich verändern werden.

Die Vorteile

– Sie ermöglicht kurz- und langfristig drastische Produktivitätsgewinne.

– Kosten können in unterschiedlichen Bereichen eingespart werden.

– Neue und deutlich flexiblere Arbeitsformen und -prozesse entstehen.

– Die buchstäblich grenzenlose Kommunikation erleichtert den unternehmerischen und privaten Alltag.

– Selbst riesige Datenmengen können sicher verwaltet, bearbeitet und analysiert werden.

– Neue Reichweiten und damit zusätzliche Chancen und Möglichkeiten für den Vertrieb von Produkten, Services und Leistungen entstehen.

Moderne Unternehmen aus allen Branchen können die Digitalisierung für sich in Anspruch nehmen, indem sie b

eispielsweise von Digitalisierungsunternehmen die Eingangspost scannen und im Anschluss elektronisch weiter verarbeiten lassen. Hierbei kommen unter anderem spezielle Dokumenten-Management-Systeme (DMS) in Betracht, die auch auf lange Sicht eine maximale Sicherheit der Daten gewährleisten sollen. Auch dem Verlust von Daten wird dank der Digitalisierung effizient vorgebeugt. Das Papieraufkommen in kleinen und mittelständischen Unternehmen wird kontinuierlich eingedämmt. So ist es beispielsweise nicht mehr erforderlich, Urlaubsanträge auszudrucken, sondern sie können elektronisch in einem so genannten Workflow bearbeitet werden. Rechnungen werden im Rahmen der Digitalisierung elektronisch zu den Kunden versendet. Zum Beispiel in Form von PDF-Dateien.

Das Thema Zeiterfassung mit Blick auf eine fehlerfreie Bearbeitung, Auswertung und Analyse in Personalabteilungen kann mit Hilfe der Digitalisierung in vielerlei Hinsicht vereinfacht werden. So bedarf es keiner Stempelkarten mehr, sondern die Mitarbeiter checken sich lediglich mit einem Chip am Eingang ein. Zahlungen werden nicht mehr mit Hilfe lästiger Überweisungen getätigt, sondern man greift auf das Online-Banking zurück. Dadurch sind eine bessere Übersicht, mehr Transparenz und mehr Sicherheit gewährleistet. Auch die Kundendatenpflege ist durch die Digitalisierung deutlich einfacher. Somit bleibt mehr Zeit und Energie, um sich auf das Wesentliche zu fokussieren – das Kerngeschäft.

 

Bei Groupware bzw. Gruppen-Software handelt es sich um Software-Lösungen, die in erster Linie zur Unterstützung der Zusammenarbeit in einer Gruppe, wie zu Beispiel in einem Unternehmen, über räumliche und/oder zeitliche Distanz hinweg eingesetzt werden. Solche Systeme setzen die theoretischen Grundlagen der computerunterstützten Arbeitsprozesse in konkrete Arbeitsfälle um.

Allgemeine Informationen zu Groupware

Eine allgemeine Definition für den Begriff „Groupware“ haben die US-amerikanischen Informatiker und Softwareentwickler Rein, Ellis und Gibbs gegeben. Demnach handelt es sich bei einer Groupware um ein computergestütztes System, welches eine Gruppe von Personen bei ihrer Arbeit Unterstützung bietet und eine Verbindung für eine geteilte Arbeitsumgebung bereitstellt. Der wichtigste Unterschied zwischen Groupware- und anderen Software-Systemen zur Unterstützung weniger Benutzer oder vieler Nutzergruppen, wie zum Beispiel Mehrbenutzerdatenbanksysteme, spiegelt sich in der Tatsache wider, dass Groupware-Systeme explizit darauf ausgelegt sind, die Isolation der Benutzer voneinander so gut wie möglich zu reduzieren. Mit Groupware wird also ein gewisses Gewahrsein über anderen Nutzer und deren Aktivitäten geschaffen.

Ein zweites wichtiges Merkmal von Groupware-Systemen ist die extrem hohe Anpassbarkeit bzw. Flexibilität. Jede Gruppe ist anders. Demzufolge muss eine gute Groupware nicht nur auf die Anforderungen und Bedürfnisse der Gruppe als Ganzes eingehen, sondern auch die individuellen Anforderungen der einzelnen Gruppenmitglieder so gut wie möglich zufriedenstellen. Um dies zu realisieren, muss eine Groupware sehr generisch oder anpassbar sein, sodass sie einzelne Benutzer als auch ganze Benutzergruppen auf verschiedene Art und Weise nutzen können. Groupware-Systeme werden in der IT-Branche und der Softwareindustrie gerne mit IBM Lotus oder Microsoft Exchange gleichgesetzt.

Eigenschaften und Merkmale von Groupware

Das Hauptziel von Groupware ist stets das unterstützende Steuern von Gruppenprozessen. Moderne Groupware-Systeme lassen sich nach verschiedenen Eigenschaften und Merkmalen klassifizieren:

–       Ort: Wie wird die Zusammenarbeit realisiert? Findet sie an einem festen Ort statt, wie beispielsweise in einem Büro, oder über räumliche und zeitliche Distanz hinweg, wie zum Beispiel zwischen München und Stuttgart.

–       Zeit: Wird die Zusammenarbeit gleichzeitig, zum Beispiel über Videokonferenz, oder zeitversetzt realisiert, zum Beispiel über E-Mail.

–       Steuerung der Kommunikation: Steuern die Teilnehmer die Kommunikation bewusst, wie zum Beispiel beim Schreiben einer E-Mail, oder sind keine expliziten Handlungen nötig, wie zum Beispiel bei der Annahme eines Telefongesprächs.

–       Struktur: Wird von der Groupware ein fester Ablaufplan vorgegeben, wie zum Beispiel bei einer Tagesordnung oder nicht.

–       Größe: Wird die Zusammenarbeit in einer großen Gruppe, wie zum Beispiel bei einer Vorlesung oder in einer kleinen Gruppe, wie beispielsweise bei einem Seminar, realisiert.

Die zentralen Aspekte einer Groupware sind:

–       Awareness: Die meisten Systeme setzen eine oder mehrere Formen der Awareness (Gruppenkenntnis) um. Konkret bedeutet das, dass die Software kontinuierlich die Zusammensetzung der Gruppe, deren Mitarbeit und Teilnahme überwacht und bei Bedarf informiert.

–       What You See Is What You Get (WYSIWYG): Die Benutzeroberfläche der Groupware sollte den Benutzern die Darstellung aller Funktionalitäten und Inhalte möglichst übersichtlich und intuitiv zur Verfügung stellen, sodass wenige oder überhaupt keine Schulung nötig ist.

–       Synchronisation und Konsistenzerhaltung: Die Gewährleistung eines einheitlichen Datenzustandes, trotz paralleler Zugriffe auf den Datenbestand und die Behebung von Konflikten, die bei unterschiedlichen Versionen des Datenbestandes entstehen können.

Architektur im Überblick

Bei einer Groupware-Anwendung handelt es sich um ein verteiltes System, das die gemeinsame Nutzung und Bearbeitung von Daten oder Dokumenten ermöglicht. Solche Systeme setzen folgende drei Konzepte um:

–       zentralisierte Architektur: Alle Nutzer bzw. Teilnehmer (Clients) sind mit einer zentralen Verwaltungsstelle (Server) verbunden. Über den zentralen Server wird die gesamte Kooperation realisiert.

–       Peer-to-Peer-Architektur: Obwohl alle Teilnehmer über ein zentrales System miteinander verbunden sind, wird auf eine zentrale Verwaltungsinstanz verzichtet wie es bei der zentralisierten Architektur der Fall ist.

–       hybride Architektur: Hier wird die Peer-to-Peer-Architektur durch einen zentralen Server ergänzt. Dieser wird jedoch lediglich zur Protokollierung genutzt und übt keinerlei zentrale Verwaltungsfunktionen aus.

Beispiele für Groupware-Anwendungen

Der Funktionsumfang, den Applikationen wie Microsoft Exchange Server bieten, ist unterschiedlich. Bei vielen Anwendungen sind E-Mail, Projektmanagement, Notizbuch und Kalenderfunktion enthalten. Einige Lösungen stellen kaum mehr als diese Funktionalitäten bereit, während andere durchaus mehr als diese Basisfunktionen bieten. Bekannte Software-Produkte, die als Groupware vermarktet werden, sind:

–       Micro Focus

–       Sun ONE

–       IBM Notes

–       GroupWise

–       Microsoft Exchange

–       Microsoft SharePoint

–       Zimbra

Neben den Groupware-Lösungen für Windows-Systeme sind auch plattformübergreifende Groupware-Produkte erhältlich. Hierzu gehören Groupware-Lösungen wie FirstClass Software du Kerio Connect, die sowohl für Windows- als auch für Linux– und MacOS-Systeme erhältlich sind. Die neue Generation von Groupware-Anwendungen wie Lotus Connections von IBM oder Yammer von Microsoft basieren auf sogenannter „sozialer Software“, um Zusammenarbeit, Kommunikation und Koordination bereitzustellen. Diese Funktionalitäten werden insbesondere durch Blogs, Wikis und soziale Netzwerke bereitgestellt.

Ein Patch bezeichnet die Auslieferung einer korrigierten Version von Anwendungen oder Betriebssystemen, um Sicherheitslücken zu schließen oder Fehler zu entfernen.

Das englische Wort bezeichnet ein Stück Stoff (den „Flicken“), das man über ein Loch in Textilien zur Ausbesserung nähen kann. Im Softwarebereich versteht man darunter eine Korrektur eines Programms zur Behebung von Problemen verschiedener Art. Diese Probleme können die Funktionalität des Programms beeinträchtigen oder eine Sicherheitslücke darstellen. Man unterscheidet drei Typen von Patches.

Software muss regelmäßig angepasst werden, sei es zur Behebung von Fehlern in der Funktionalität oder nach dem Auffinden von Sicherheitslücken. Der Hersteller der Software und die Benutzer müssen beide ihren Teil dazu beitragen, dass die Korrekturen so schnell wie möglich vorgenommen werden.

Der Prozess der Softwareentwicklung

Die Erstellung größerer Programme ganz ohne Fehler oder sogar Sicherheitslücken ist auf dem heutigen Stand der Technik noch nicht möglich. Daher sind ständige Korrekturen erforderlich, um die Software in höchstmöglicher Qualität einsetzen zu können. Oft ist es sogar so, dass die ersten Kunden die letzten Betatester sind, die Fehler im Programm finden sollen. Das kommt auch bei neuen Versionen von Betriebssystemen vor. Ob die Software proprietär oder frei ist, spielt für das Auftreten von Fehlern keine direkte Rolle.

Ein Bugfix ist die Korrektur eines Fehlers im Programm. Dieser kann beispielsweise ein falsches Ergebnis bewirken oder auch das Abstürzen des Computers.

Ein Hotfix ist ein Patch, der zum Schließen einer Sicherheitslücke vorgesehen ist. In diesem Fall besteht die höchste Dringlichkeit für die Installation des Patches.

Ein Update ist eine Aktualisierung eines Programms, die oft mehrere Bugfixes enthält. Der Übergang zu einer neuen Version der Software ist fließend.

 

Wie werden Patches erstellt und eingesetzt?

Dieser Prozess läuft in vier Stufen ab.

  1. Der Fehler wird entdeckt. Der Entdecker kann der Hersteller der Software, oft aber auch ein Benutzer sein. Im letzteren Fall ist es wichtig, dass der Benutzer den Fehler an den Hersteller meldet, denn nur so kann ein Patch erstellt werden.
  2. Der Softwarehersteller schreibt und testet den Patch.
  3. Vom Softwarehersteller wird der Patch an alle Anwender des Programms geliefert.
  4. Die Anwender installieren den Patch auf ihren Systemen.

Das Management der Patches

Die Hersteller rechnen mit der ständigen Entdeckung von Fehlern in ihrer Software. Besonders die großen Entwickler besitzen deshalb ein professionelles Management des Prozesses. Die Firma Microsoft beispielsweise veröffentlicht jeden zweiten Dienstag im Monat alle in einem Monat erstellten Patches. Der Tag ist allgemein als Patch Tuesday bekannt. Allerdings kommt es auch vor, dass Microsoft zwischen zwei solchen Dienstagen dringende Patches ausliefert, die Sicherheitslücken schließen sollen.

Auf der Benutzerseite verwenden die meisten auch kleineren Firmen zahlreiche Softwarepakete verschiedener Hersteller. Mindestens Betriebssysteme, Webserver, Buchhaltungssoftware und verschiedene Anwenderprogramme gehören dazu. Das Sammeln von Informationen über Patches, die Installation und Dokumentation sollte systematisch durchgeführt werden, um den Überblick zu behalten.

Besonders das Missachten eines Hotfixes kann katastrophale Folgen für ein Unternehmen haben, da die eigenen Systeme dann bestimmten Typen von Angriffen schutzlos ausgeliefert sind. Neben Erpressungstrojanern können auch rechtliche Probleme und Strafzahlungen die Folge sein, wenn etwa die Daten von Kunden verloren gehen.

Die Aufgaben für den Benutzer von Software

Diese betreffen manchmal die Stufe 1 und sehr oft die Stufe 4. Hat ein Benutzer einen Fehler entdeckt, sollte er ihn der Herstellerfirma melden. Manchmal winkt dafür eine vom Hersteller ausgelobte Belohnung.

Ein Patch ist nur dann wirksam, wenn er auch installiert wird. Je mehr Kontrolle Sie über Ihre Computer behalten möchten, umso größer ist auch Ihre Verantwortung. Keinen Aufwand müssen Sie mit Software in der Cloud treiben. Einer der Vorteile ist es gerade, dass Sie immer die aktuelle Version benutzen, weil der Hersteller die Betreuung übernimmt.

Auf dem System eines Benutzers können Programme laufen, die automatisch eine Verbindung zu den Servern des Entwicklers herstellen und Patches herunterladen und installieren. Auch dieser Service ist aber nicht für alle Programme verfügbar, und vielleicht bevorzugen Sie es auch, alle Änderungen an Ihren Programmen selbst zu installieren. Dann laden Sie den Patch selbst herunter und installieren ihn.

Bei der Kernel-based Virtual Machine (KVM) handelt es sich um eine Virtualisierungs-Infrastruktur des Linux-Kernels. Diese ist mit den Hardwarevirtualisierungs-Techniken von AMD (AMD-V) oder Intel (VT) und den entsprechenden X86-Prozessoren sowie mit der System-Z-Architektur kompatibel. Die Kernel-based Virtual Machine wurde im Oktober 2006 erstmals in einer Betaversion veröffentlicht und ist seit der Version 2.6.2 des Linux-Kernels in diesem enthalten. Das System wurde unter der Führung des israelischen Software-Entwicklers Avi Kivity in seinem Unternehmen Qumranet entwickelt. Die Software-Schmiede Qumranet wurde im September 2008 von Red Hat übernommen.

Allgemeine Informationen

Die Kernel-based Virtual Machine wurde in erster Linie für den Einsatz in Kombination mit x86-Plattformen entwickelt und setzt sich für diese aus den folgenden beiden Komponenten zusammen:

–       aus dem Kernel-Modul „kvm.ko“, und

–       aus den hardwarespezifischen Modulen kvm-amd.ko (für AMD-Plattformen) oder kvm-intel.ko (für Intel-Plattformen)

Inzwischen ist KVM auch für weitere Plattformen, wie beispielsweise System Z, ARM und PowerPC erhältlich. Die Kernel-based Virtual Machine realisiert selbst keine Emulation, sondern stellt lediglich die dafür nötige Infrastruktur bereit. Die freie Virtualisierungs-Software QEMU stellt eine der Möglichkeiten dar, um KVM zu nutzen. QEMU stellt für virtualisierte Gastsysteme die erforderlichen Geräte wie Grafik-, Sound-, Netzwerkkarten und Festplatten bereit. Nachdem das Modul geladen ist, fungiert der Linux-Kernel selbst als Hypervisor für VMs (virtuelle Maschinen). Als Gastsystem bietet KVM Unterstützung für eine Vielzahl moderner Betriebssysteme, wie zum Beispiel:

–       Windows (32 und 64 Bit)

–       Linux (32 und 64 Bit), etwa CentOS, Ubuntu, Fedora, Debian und ebenso Desktop Linux Systeme wie Linux-Mint oder Kali Linux.

–       FreeDOS

–       Solaris

–       Hauku

–       AROS

–       ReactOS

–       diverse BSD-Derivate

Mittlerweile lässt sich auch Paravirtualisierung in KVM realisieren und wird unter Linux mittels der Paravirtualisierungsschnittstelle Virtio für Hardware-Komponenten bereitgestellt. Auch für Windows-Systeme sind mittlerweile paravirtualisierte Gerätetreiber erhältlich.

Das Paravirtualisierungs-Verfahren bietet einige Vorteile im Vergleich zu traditionellen Virtualisierungs-Methoden, wie zum Beispiel ein geringerer Overhead sowie eine bessere Performance, da sich das Gastsystem der Tatsache „bewusst“ ist, dass es auf virtualisierter Hardware betrieben wird und mit dem Hypervisor zusammenarbeitet.

KVM Funktionen und Features

KVM stellt einen festen Bestandteil von Linux dar. Alles was Linux bietet, ist auch in KVM zu finden. Es gibt jedoch einige Besonderheiten, welche die Kernel-based Virtual Machine zum bevorzugten Hypervisor für Unternehmen machen. Im Folgenden stellen wir Ihnen einige der Besonderheiten von KVM vor:

Sicherheit: Die Kernel-based Virtual Machine nutzt eine Kombination von Linux mit sicherer Virtualisierung (sVirt) und erweiterter Sicherheit (SELinux), um eine optimale VM-Sicherheit und Isolierung zu gewährleisten. SELinux legt dabei die Sicherheitsgrenzen der virtuellen Maschine fest, während sVirt die Funktionalitäten von SELinux erweitert. So ermöglicht sVirt beispielsweise den Einsatz von Mandatory Access Control für Gast-VMs und verhindert, dass manuelle Kennzeichnungsfehler zu den höheren System-Ebenen propagiert werden.

Storage: KVM ist in der Lage, jedes Speichermedium zu verwenden, das von Linux unterstützt wird, einschließlich komplexer NAS-Systeme (Network Attached Storage). Sogenannte „Mehrpfad-I/O“ können eingesetzt werden, um das Storage-System zu optimieren und Redundanz zu bieten. Die Kernel-based Virtual Machine bietet außerdem Unterstützung für gemeinsam genutzte Dateisysteme, sodass sich VM-Abbilder von unterschiedlichen Hosts gemeinsam nutzen lassen. Darüber hinaus unterstützen Festplattenabbilder sogenanntes „Thin-Provisioning“ und sind in der Lage, Storage nach Bedarf zuzuweisen, anstatt im Voraus wie es bei vielen ähnlichen Systemen der Fall ist.

Hardware-Unterstützung: KVM kann auf diversen Plattformen eingesetzt werden, die von Linux unterstützt werden. Viele Hardware-Produzenten tragen regelmäßig zur Kernel-Entwicklung bei, sodass die neuen Hardware-Funktionen und -Features in vielen Fällen sehr schnell in den Kernel integriert werden.

Speicherverwaltung: Die Kernel-based Virtual Machine nutzt die Speicherverwaltung-Infrastruktur von Linux inklusive des Non-Uniform Memory Access und des Kernel Same Page Merging. Der Speicher einer virtuellen Maschine lässt sich nach persönlichen Anforderungen gestalten und durch größere Kapazitäten oder bessere Leistung verstärken.

Echtzeit-Migration: KVM bietet native Unterstützung für die Live-Migration. Dabei handelt es sich um die Möglichkeit, eine laufende virtuelle Maschine zwischen physischen Hosts zu verschieben, ohne dass dabei der Betrieb der VM unterbrochen wird. Die virtuelle Maschine kann in Betrieb bleiben, Anwendungen laufen weiter und Netzwerkverbindungen bleiben aktiv, während die VM schnell und einfach auf einen anderen Host verschoben wird. KVM sichert außerdem den aktuellen Stand (State) einer virtuellen Maschine, sodass diese lokal oder in der Cloud gespeichert und später wieder fortgesetzt werden kann.

Skalierbarkeit und Performance: KVM baut auf der Leistung von Linux auf und lässt sich automatisch an den Lastbedarf skalieren, sobald die Anzahl der Anfragen an die VMs steigt. Mit der Kernel-based Virtual Machine lassen sich große Anwendungen-Workloads schnell und einfach virtualisieren. Darüber stellt KVM die Basis für viele Setups der Unternehmens-Virtualisierung dar, wie beispielsweise für private Clouds und Rechenzentren.

Verwaltungs-Tools

Für die Kernel-based Virtual Machine sind mehrere Werkzeuge zur Steuerung erhältlich. So ist es beispielsweise möglich VMs mittels Kommandozeilenprogrammen wie QEMU oder VIRSH zu erstellen und zu verwalten. Eine angenehmere und übersichtlichere Option stellen Tools mit grafischen Benutzeroberflächen dar, wie mit dem Virtual Machine Manager (VMM) oder dem UCS VM Manager. Es sind auch Lösungen erhältlich, welche die Verwaltung von VMs über Weboberflächen gestattet. In diesem Zusammenhand ist das oVirt-Projekt oder die FOSS-Cloud zu nennen, die als kostenlose Open Source-Lösungen bereitgestellt werden.