Beiträge

Das Bundesamt für Sicherheit in der Informationstechnik ist eine deutsche Bundesbehörde, die Sie bei Fragen zur IT-Sicherheit unterstützt. Während das BSI in Einrichtungen des Staats aktiv Schutzmaßnahmen ergreift, profitieren die Gesellschaft und die Wirtschaft insbesondere von Informationen sowie Handlungsempfehlungen der Behörde. Unternehmen nutzen die Vorgaben und Standards der Organisation, um sich beim Business Continuity Planning auf IT-Notfälle vorzubereiten.

BSI: Förderung der IT-Sicherheit in Staat, Wirtschaft und Gesellschaft

Unter der Aufsicht des Bundesinnenministeriums trägt das BSI mit rund 1.000 Mitarbeitern als Bundesbehörde die Verantwortung für Deutschlands IT-Sicherheit. Durch Fördermaßnahmen erleichtert die Behörde Ihnen einen sicheren Einsatz von Kommunikations- und Informationstechnologie. Diese Hauptaufgabe nimmt das BSI für den Staat, die Wirtschaft und die Gesellschaft wahr. Mit Mindeststandards, Leitlinien und Handlungsempfehlungen entwickelt die Bundesbehörde hierzu klare Kriterien. Darüber hinaus ist das BSI direkt für die IT-Sicherheit der deutschen Bundesverwaltung zuständig. Daher sind die Erkennung und die Abwehr eines Hacker-Angriffs auf Regierungssysteme unmittelbare Pflichten der Behörde. Die Bekämpfung der entdeckten Exploits, Viren und Bedrohungen koordiniert die Organisation im nationalen Cyber-Abwehrzentrum.

Sensibilisierung von Unternehmen und Bürgern durch BSI Informationen

Als IT-Sicherheitsbeauftragter oder einfacher Angestellter in einem Unternehmen profitieren Sie ebenso wie private Verbraucher von den regelmäßigen Empfehlungen zur IT-Sicherheit, die das BSI veröffentlicht. Denn eine zentrale Aufgabe der deutschen Bundesbehörde besteht darin, die Wirtschaft und die Bürger mit Informationen über Sicherheitsschwachstellen zu sensibilisieren. Das BSI macht Sie mit Hinweisen auf ein verbreitetes Exploit, Viren oder sonstige Angriffe durch Hacker frühzeitig auf die Vulnerability von Systemen aufmerksam. Mit diesen Ratschlägen gelingt es IT-Sicherheitsbeauftragten auch, sich beim Business Continuity Planning frühzeitig auf IT-Notfälle vorzubereiten und ohne unnötigen Zeitverlust im Ernstfall zu reagieren. Allgemeine BSI-Empfehlungen helfen Ihnen außerdem zum Beispiel dabei, ein sicheres Passwort anzulegen.

IT-Grundschutz mit Standardschutzmaßnahmen als Empfehlungen zur IT-Sicherheit

Bis 2017 aktualisierte die Bundesbehörde jährliche die sogenannten IT-Grundschutz-Kataloge. Danach ersetzte das BSI die Kataloge mit einem IT-Grundschutz-Kompendium. Wenn Sie verbreitete IT-Systeme nutzen, finden Sie in diesen Veröffentlichungen hilfreiche Empfehlungen mit Standardschutzmaßnahmen. Mit dem IT-Grundschutz veranschaulicht das BSI Methoden zur Steigerung der IT-Sicherheit in Firmen, die teilweise auch für Anfänger umsetzbar sind. Ein IT-Sicherheitsbeauftragter erhält durch das IT-Grundschutz-Kompendium die Möglichkeit, mit umfassenden Maßnahmen ein System gegen Hacker und Exploits weitgehend abzusichern. Insgesamt beinhalten die BSI-Hinweise zum IT-Grundschutz rund 5.000 Seiten. Somit bilden die Informationen eine nützliche Grundlage für den Umgang mit der Vulnerability von Computersystemen und die Verbesserung der Business Continuity.

BSI Zertifizierungen für Unternehmen mit geprüften IT-Produkten und Dienstleistungen

Das BSI gibt Ihnen die Chance, als Unternehmer Zertifizierungen zu erlangen und damit die Durchführung der Maßnahmen zum Schutz vor Hacker-Angriffen oder sonstigen Bedrohungen nachzuweisen. Wichtige Zertifizierungen vergibt die Bundesbehörde beispielsweise für die Umsetzung der Standardmaßnahmen aus dem IT-Grundschutz-Kompendium. Hierzu müssen Sie laut den BSI-Vorgaben einen zertifizierten IT-Grundschutz-Auditor um ein Testat-Verfahren bitten. Dabei wird überprüft, ob ein IT-System die Anforderungen des IT-Grundschutzes erfüllt. Im Anschluss an eine erfolgreiche Prüfung stellt der Auditor ein Testat aus. Das BSI verleiht im Erfolgsfall ein Testat-Logo mit einer befristeten Gültigkeit, das die jeweilige Institution im Zusammenhang mit den geprüften Systemen öffentlich verwenden darf.

Für die Überprüfung von IT-Produkten und Systemen sind vor einer Zertifizierung immer unabhängige Prüfstellen mit einer Anerkennung durch das BSI verantwortlich. Die Bundesbehörde stellt sicher, dass die Produktprüfungen mit einheitlichen Kriterien objektiv und unparteiisch durchgeführt werden. Mit BSI-Zertifikaten haben Sie in einem Unternehmen die Gelegenheit, das Sicherheitsniveau von Ihren Produkten transparent darzustellen.

Wenn Sie ein Verbraucher sind, stellen die Produktzertifizierungen wiederum eine nützliche Entscheidungshilfe dar. Die Zertifikate machen deutlich, ob ein IT-Produkt Ihnen in einem bestimmten Einsatzbereich Sicherheit bietet. Außerdem informieren öffentliche BSI-Hinweise Sie häufig darüber, wie Sie bei der Verwendung von zertifizierten IT-Lösungen die IT-Sicherheit selbst steigern und sich dadurch unter anderem vor einem Exploit oder Hacker-Angriffen schützen.

Kooperation mit Bitkom und Betreibern von kritischen Infrastrukturen

Das BSI kooperiert eng mit dem Branchenverband Bitkom, der für die Telekommunikations- und Informationsbranche in Deutschland zuständig ist. Durch diese Zusammenarbeit ist 2012 auch die Allianz für Cybersicherheit entstanden. Mit Partner-Unternehmen und tausenden Institutionen tauscht das Bündnis Daten über neue Hacker-Methoden aus. Die Allianz für Cybersicherheit ermöglicht dem BSI daher die Bereitstellung zusätzlicher Informationen, von denen Sie als IT-Sicherheitsbeauftragter oder einfacher Unternehmer insbesondere beim Business Continuity Planning profitieren. Zudem unterstützt die Bundesbehörde über das Kooperationsgremium UP KRITIS Betreiber der kritischen IT-Infrastrukturen, die für eine funktionierende Gesellschaft unverzichtbar bleiben. Dabei steht insbesondere die Vulnerability von unentbehrlichen Systemen im Blickpunkt.

Bei Social Engineering handelt es sich um einen Oberbegriff, mit dem eine Vielzahl unterschiedlicher sozialer Manipulations- und Betrugstechniken beschrieben wird. Diese Methoden zielen in erster Linie darauf aus, den gutgläubigen Menschen als „Schwachstelle“ auszunutzen. Social Engineering ist keine neue Technik. Sie wurde schon lange vor dem Aufkommen des World Wide Web in Zusammenhang mit sensiblen Informationen angewandt.

Allgemeine Informationen zu Social Engineering

Heutzutage stellen insbesondere Unternehmen aufgrund ihrer kostbaren Daten ein äußerst beliebtes Angriffsziel für Social Engineering-Attacken dar. In diesem Kontext kommen in der Regel folgende Techniken zum Einsatz:

–       Baiting

–       Phishing

–       CEO-Fraud

Mit diesen Angriffen versuchen Hacker die Schwachstelle „Mensch“ auszunutzen, um sich unerlaubten Zugriff zu sensiblen Informationen zu verschaffen. Aufgrund des speziellen Charakters dieser Angriffe, stoßen viele Antiviren– und Malware-Programme an ihre Grenzen, da es keinen Exploit oder keinen Virus gibt, der mit einer Sicherheits-Software eliminiert werden könnte. Schulungen der Mitarbeiter und ein Bewusstsein für diese potenzielle Gefahrenquelle sind die wichtigsten Voraussetzungen, um diese Form der Cyber-Kriminalität zu unterdrücken.

Begriffserklärung Social Engineering

Die Methoden und Techniken des Social Engineering zielen als sogenannte „soziale Beeinflusstechniken“ auf den Faktor Mensch ab. Die unterschiedlichen Arten und Formen des Betrugs werden sowohl im Online- als auch im Offline-Bereich seit Jahrzehnten äußerst erfolgreich eingesetzt. In der modernen Verwendung des Begriffs „Social Engineering“ werden damit jedoch die verschiedenen Formen der Cyber-Kriminalität bezeichnet. Sowohl Privatpersonen als auch internationale Großunternehmen sehen sich mit immer raffinierteren Methoden der sozialen Manipulation konfrontiert. All diese Methoden teilen sich die Gemeinsamkeit, dass sie explizit die menschliche Willensschwäche bzw. die Naivität ahnungsloser Mitarbeiter ausnutzen. Einige bekannte Beispiele hierfür sind:

–       E-Mail Phishing

–       Voice Phishing

Mit diesen Methoden hat nahezu jeder private Internetnutzer bereits Erfahrung.

Betrugsziele

In den Anfängen des World Wide Web in den 1990er Jahren waren Internet-Verbindungen im Allgemeinen minimal verbreitet und waren in der Regel sehr langsam. Aus diesem Grund fungierten damals im Rahmen des Social Engineering oftmals größere Universitäten oder Telefonkonzerne als Ziele für Hacker. Ein Ziel der Hackerangriffe war es, unerlaubten Zugriff auf schnelle Internetverbindungen und große Rechenleistungen zu erlangen. Heute zielen Cyber-Kriminelle in erster Linie auf Daten und Informationen, die sich gut verkaufen oder für illegale Zwecke nutzen lassen. Dazu zählen zum Beispiel:

–       sensible Unternehmensinformationen

–       Kreditkarten- und Bankkontodaten

–       Zugangsdaten (Nutzernamen und Passwörter) zu Accounts

Grundsätzlich sind sämtliche Informationen für Hacker interessant, die sich für illegale Zwecke nutzen lassen. Menschliche Ziele sind primär Mitarbeiter, die im häufigen Kontakt zu Anrufern stehen und für die es selbstverständlich ist, Anfragen zu beantworten. Support-Mitarbeiter stellen aus diesem Grund ein besonders populäres Ziel dar. Sie verfügen in der Regel über ausreichende Informationen und Befugnisse, um dem Cyber-Kriminellen Zugriff zu den gewünschten Informationen zu ermöglichen. In vielen Fällen reicht schon die Offenlegung bestimmter Rufnummern oder E-Mail-Adressen aus, um den Angriff fortzuführen. Auch Informationen über den Internet Service Provider (ISP) des Unternehmens oder über die Sicherheits-Software, die in der Firma eingesetzt wird, sind für Hacker interessant.

Techniken und Beispiele für Social Engineering

Im Laufe der Jahre haben sich im Rahmen des Social Engineering folgende drei Techniken als besonders effektiv erwiesen:

 

–       Phishing: Hierbei handelt es sich um eine bekannte und äußerst wandlungsfähige Form der sozialen Manipulation. Mit den sogenannten „Phishing-Mails“ versuchen Hacker, Mitarbeitern und Anwendern sensible Informationen zu entlocken. In diesem Kontext kommen oft Angst und Dringlichkeit zum Einsatz, um beispielsweise an Kreditkartennummern oder Online-Banking-Informationen zu gelangen.

–       Köder (Baiting): Im Rahmen dieser Social Engineering-Technik setzen Hacker auf Köder. Cyber-Kriminelle zielen hier explizit auf die Neugier des Menschen ab, die ausgenutzt wird, um Zugang zu sensiblen Informationen zu erhalten oder Schadsoftware auf dem Rechner des Opfers zu installieren.

–       CEO-Fraud: Der CEO-Fraud lehnt sich von seiner Vorgehensweise an den sogenannten „Enkel-Trick“ an, der außerhalb der IT seit Jahrzehnten eingesetzt wird. Hier geben sich Kriminelle als Geschäftsführer oder sonstige Vorgesetzte aus, indem sie deren Identität annehmen, beispielsweise durch gefälschte oder gehackte E-Mail-Adressen der betroffenen Personen.

Prävention

Der Bedrohungslage durch soziale Manipulation kann nur mit einem ausgeprägten Gefahrenbewusstsein effektiv entgegengewirkt werden. Ein sicheres Passwort oder eine performante Antiviren-Software bieten gegen Social Engineering-Techniken so gut wie keinen Schutz. Die größte Vulnerability ist der ahnungslose Mitarbeiter. Aus diesem Grund existieren auch keine Sicherheits-Lösungen, die einen zuverlässigen Schutz vor Social Engineering bieten. Insbesondere in Großunternehmen stellt die Tatsache eine gewaltige Herausforderung dar, einen guten Schutz vor Social Engineering und zugleich auch effiziente Arbeitsabläufe gewährleisten zu können.

Ab einer bestimmten Größe des Unternehmens wird es immer wahrscheinlicher, dass sich sämtliche Mitarbeiter nicht untereinander kennen, sodass solche Mitarbeiter ein ideales Ziel für Methoden der sozialen Manipulation darstellen. Aus diesem Grund ist es wichtig, bei jedem Kontakt die Identität des anderen zu erfragen und zu bestätigen.

Wo Server betrieben werden, ist Virtualisierung heutzutage meist nicht weit. Hyper-V heißt die Lösung von Microsoft in diesem Bereich. Einzelne Server lassen sich darauf bequem erstellen und verwalten. Aber auch ganze Netzwerkstrukturen können virtualisiert werden. Skalierbarkeit und Ausfallsicherheit sind Hauptargumente für einen Betrieb virtueller Server. Zudem kann Hardware besser ausgelastet und Systemlast einfacher verteilt werden.

Allgemeines zu Hyper-V

Im Jahr 2008 stellte Microsoft seine Virtualisierungslösung mit dem Namen Hyper-V vor. Sie war erstmals in den Betriebssystemversionen Windows Server 2008 und Windows 8 enthalten. Ihre Vorgänger waren der Microsoft Virtual Server im Bereich der vServer und der Virtual PC für den Desktop-Bereich.

Wie aus dem Namen schon hervorgeht, ist Hyper-V ein sogenannter Hypervisor. Dieser stellt eine Abstraktionsschicht zwischen der realen Hardware und dem virtualisierten System, Gastsystem genannt, dar. Im Gegensatz zu vollständig virtualisierten Systemen, werden dem Gastsystem auch Ressourcen der physikalischen Hardware zur Verfügung gestellt. Dies aber nur unter Überwachung und Steuerung des Hypervisors. Diese Technik wird Paravirtualisierung genannt.

Hyper-V gibt es als Typ-1- und Typ-2-Hypervisor. Die Ausführung vom Typ 1, die auch als Bare-Metal-Hypervisor bezeichnet wird, stellt nur ein abgespecktes Betriebssystem zur Verfügung. Hauptbestandteil ist der Hypervisor. Die Administration erfolgt über die Kommandozeile oder per Remoteverbindung mit der Software „Hyper-V-Manager“, die ab der Windows-Versionen „Professional“ Bestandteil des Betriebssystems ist. Sie muss lediglich in der Systemsteuerung aktiviert werden.

Die Ausführung des Typ-2-Hypervisors ist in den Server-Betriebssystemen von Windows und den Desktop-Varianten „Professional“ und „Enterprise“ enthalten. Sie lässt sich ebenfalls in der Systemsteuerung zu den Programmen hinzufügen. Die Bedienung erfolgt auch hier mit dem „Hyper-V-Manager“. Die Bedienung ähnelt der von im Desktop-Bereich bekannter Virtualisierungssoftware, etwa Virtual-Box oder VMWare-Player.

Funktionsweise und Vorteile

Durch die Virtualisierungssoftware werden virtuelle Hardwareplattformen erzeugt. Bei der Paravirtualisierung müssen die Gastsysteme kompatibel zur Plattform des Wirtsrechners (Host) sein. Die Erzeugung der virtuellen Maschinen kann auf herkömmliche Weise, mit einem Installationsmedium erfolgen. In der Regel werden aber Vorlagen verwendet, die in Minutenschnelle geladen sind und ein betriebsbereites Gastsystem bieten.

Die virtuellen Maschinen haben jeweils ihren eigenen, abgeschotteten Bereich. Die Hardware stellt der Hypervisor zur Verfügung. Entsprechend besteht dabei große Flexibilität. So kann Arbeitsspeicher einfach angepasst werden und dynamischer Speicherplatz zugeteilt werden. Auf diese Weise können Lastspitzen abgefangen und zu lastärmeren Zeiten die Leistung wieder verringert werden.

Eine weitere große Stärke spielt eine Virtualisierungslösung wie Hyper-V bei der Virtualisierung von Netzwerkstrukturen aus. Es können beliebig Switche und Router erzeugt und damit getrennte Netze oder Subnetze gebildet werden. Letztlich lassen sich ganze Rechenzentren auf diese Weise virtuell verwirklichen.

Der Aufwand für die Einrichtung und Wartung wird dabei minimiert. Anstatt Patchkabel zu stecken, müssen nur Einstellungen im Hyper-V-Manager vorgenommen werden.

Eine recht neue Technologie ist die der Container-Lösungen wie Docker. Diese werden seit der Hyper-V-Version 2016 ebenfalls unterstützt. Hierbei wird keine vollständige virtuelle Maschine erzeugt, sondern nur eine Laufzeitumgebung für einzelne Anwendungen. Diese verwendet Ressourcen zudem nur solange, wie sie auch in Benutzung ist. Die Last, die ein Betriebssystem im Leerlauf erzeugt, fällt bei Nutzung von Container-Anwendungen weg.

 

Bezüglich der Gastbetriebssysteme besteht eine große Auswahl. Virtualisiert werden können:

-Windows-Server-Betriebssysteme,

-Windows-Desktop-Betriebssysteme,

RedHat-Enterprise,

Debian-Linux,

Ubuntu-Linux,

SuSE-Linux,

FreeBSD.

Zu beachten ist, dass das Betreiben virtualisierter Systeme eine gültige Lizenz für das Gastsystem erfordert.

Lizenzen von Hyper-V

Hyper-V ist grundsätzlich kostenlos. Allerdings sind die Betriebssysteme, in denen der Hypervisor eingebettet ist, kostenpflichtig. Ebenso die darin betriebenen Server-Versionen von Windows. Auch für die Anbindung an Speicherlösungen, etwa der Windows-Datacenter-Editionen, fallen Kosten an. Insbesondere verteilte Speicherlösungen von Windows, wie etwa „Direkte Speicherplätze“ (Storage Spaces Direct, abgekürzt: S2D), verursachen nicht unerhebliche Lizenzkosten. Für den Testbetrieb stellt Microsoft zudem kostenlose Evaluierungsversionen von Hyper-V zur Verfügung.

Anwendungsbereiche

Im Firmenbereich kann eine saubere Abschottung von Servern mit unterschiedlichen Aufgabenbereichen erzielt werden, ohne zusätzliche Hardware zu benötigen. Dies können beispielsweise ein Exchange-Server, der Domain-Controller, ein SQL-Server und der Fileserver sein. Weiterhin lassen sich ohne großen Aufwand Subnetze für verschiedene Arbeitsbereiche bilden. Eine physikalische Trennung der Netze ist damit nicht erforderlich. Auch im Bereich von Rechenzentren findet Software wie Hyper-V Anwendung. Mit dieser Technologie ist es Hosting-Anbietern beispielsweise möglich, Kunden kurzfristig virtuelle Server zur Verfügung zu stellen.

Alternativen

Bekanntester kommerzieller Mitbewerber ist der Anbieter VMWare. Dieser bietet mit dem ESXi-Server einen Bare-Metal-Hypervisor vergleichbarer Art. Einen Hypervisor des Typs 2 hat VMWare ebenfalls im Angebot, die VMWare Workstation.

Auch Open-Source-Lösungen sind verfügbar. Auf Basis des etablierten Linux-Hypervisors KVM/QEMU stellt der PROXMOX-Server einen Hypervisor des Typs 1 zur Verfügung.

Zudem steht unter Linux-Systemen der Hypervisor XEN kostenfrei zur Verfügung. Hierbei handelt es sich um ein Projekt der Universität Cambridge.

Bei den freien Versionen ist allerdings zu beachten, dass diese aufgrund ihrer Komplexität oftmals mit einem kostenpflichtigen Support Anwendung finden. So ist beispielsweise der Linux-Distributor RedHat in diesem Bereich tätig und bietet Support für den von ihm mitentwickelten Hypervisor KVM/QEMU.

Bei einer CPU bzw. einem Prozessor handelt es sich um das „Gehirn“ oder „Herzstück“ elektronischer Geräte. Eine CPU stellt einen unverzichtbaren und einen der wichtigsten Bestandteile aller elektronischer Geräte dar, die eine gewisse Rechenleistung erbringen müssen. Prozessoren kommen beispielsweise neben Computern auch in Smartphones, Tablet-PCs oder digitalen Kameras zum Einsatz. Ein Prozessor ist in der Lage, Milliarden von Rechenoperationen pro Sekunde auszuführen und wird nach seiner Performance und Architektur in unterschiedliche Klassen eingeteilt. Die bekanntesten CPU-Produzenten im Computer-Bereich sind AMD und Intel.

Welche Aufgaben übt eine CPU aus?

Die CPU ist eine der ersten Befehlsempfänger in einem elektronischen Gerät. Sie registriert, welche Aufgaben vom Anwender angefordert werden und leitet diese dann an die entsprechende Stelle bzw. die zuständige Komponente weiter. Der Hauptprozessor als zentrale Steuereinheit liest beispielsweise aus dem RAM-Speicher (Arbeitsspeicher) Daten aus und analysiert kontinuierlich alle Ein- und Ausgaben von Peripheriegeräten wie Tastatur, Maus oder Monitor. Darüber hinaus können einer Central Processing Unit explizit bestimmte Aufgaben zugeteilt werden. So können beispielsweise in einem Computerspiel bestimmte Inhalte nach Bedarf eingeblendet werden, die vom Programm angefordert werden. Die CPU oder die GPU (Grafikkarte) ist für die automatische Umsetzung dieser Inhalte zuständig.

Die Central Processing Unit hat folgende Aufgaben:

–       Rechenoperationen: Der Hauptprozessor ist für einen Großteil der Aufgaben in einem elektronischen Gerät zuständig. Wann immer Rechenoperationen vom Anwender oder einer Anwendung angefordert werden, kommt der Prozessor zum Einsatz.

–       Bus-Systeme: Die Datenübertragung in Bus-Systemen wird von der CPU gesteuert. Der Prozessor erkennt und analysiert die nacheinander eintreffenden Bits und setzt sie als kohärente Teile zusammen, um sie dann weiterzuverarbeiten. Alle Datenübertragungen über den Netzwerkadapter oder USB werden beispielsweise intern über die Central Processing Unit realisiert.

–       Kontrolle: Der Hauptprozessor kontrolliert, ob die ihm zugeteilten Aufgaben rechtzeitig erfüllt werden können und schlägt ansonsten Alarm. Dabei gleicht die Central Processing Unit kontinuierlich die laufenden Vorgänge mit Zielstandards ab. Diese Verhaltensweise kann in folgenden Szenarien beobachtet werden: Der Prozessor kann beispielsweise bei einem aktiven Download den Download-Fortschritt anzeigen. Darüber hinaus gibt die CPU Fehlermeldungen aus, wenn zum Beispiel ein Befehl nicht ausgeführt werden konnte.

Woraus setzt sich eine CPU zusammen?

Ein Hauptprozessor setzt sich u. a. aus folgenden Hauptbestandteilen zusammen:

–       Steuereinheit (Control Unit): Die Steuereinheit nimmt Anweisungen aus dem Arbeitsspeicher entgegen, decodiert diese und führt sie der Reihe nach aus. Die Control Unit koordiniert außerdem die Arbeit der übrigen Komponenten der CPU.

–       Arithmetik-Logikeinheiten (Arithmetic Logic Unit): Diese Komponente ist für die Ausführung arithmetischer und logischer Operationen anhand der Anweisungen der Steuereinheit zuständig.

–       CPU-Register: Diese Komponenten stellen den internen Hochgeschwindigkeits-Speicher dar, der für die temporäre Speicherung der zu verarbeitenden Daten zuständig ist.

–       Busse: Hierbei handelt es sich Hochgeschwindigkeits-Datenleitungen, welche die Übertragung von Daten und Anweisungen zwischen den einzelnen CPU-Komponenten ermöglichen.

Wie diese Komponenten in den einzelnen Prozessorkernen implementiert sind, hängt in erster Linie von der Prozessorarchitektur ab.

Die Arbeitsweise eines Hauptprozessors

Eine Central Processing Unit arbeitet schrittweise in regelmäßigen Taktzyklen folgende Aufgaben ab:

–       Anweisungen einholen (FETCH): In dem ersten Schritt holt der Prozessor aus dem Arbeitsspeicher die Anweisungen ein. Jede Anweisung in einem Programm kann bis zu einigen Millionen von CPU-Befehlen enthalten, die im Arbeitsspeicher an einer bestimmten Speicheradresse aufbewahrt werden. Die Central Processing Unit ist mit einem Programmzähler ausgestattet, der die Position des Prozessors im Programm verfolgt, also die Speicheradresse des Befehls, auf den die Central Processing Unit gerade zugreift.

–       Anweisungen entschlüsseln (DECODE): Zum Zeitpunkt, wenn der Prozessor die Programmanweisungen einholt, sind diese in der sogenannten „Assemblersprache“ codiert. Ein sogenannter „Assembler“ übersetzt die Anweisungen in eigene Maschinensprache der Central Processing Unit.

–       Anweisungen ausführen (EXECUTE): In diesem Schritt werden Aufgaben, wie zum Beispiel mathematische Kalkulationen, Abarbeitung von Daten oder Entscheidungen über die Abarbeitung weiterer Teile des Programms realisiert. Hier werden mathematische Aufgaben von der Control Unit an die Arithmetic Logic Unit delegiert.

–       Resultate ausgeben (WRITEBACK): Der Prozessor schreibt die Resultate in den Speicher.

Unterschiedliche CPU-Architekturen im Überblick

Die Befehlssatzarchitektur (Instruction Set Architecture) wird von der CPU-Architektur und dem eingesetzten Softwarecode bestimmt. Die Instruction Set Architecture bildet eine Schnittstelle zwischen dem Prozessor und der Software und übt eine äußerst wichtige Rolle aus. Mit der Befehlssatzarchitektur werden u. a. die unterstützen Prozessor-Anweisungen, die nativen Datentypen, die Speicherarchitektur sowie die externen Ein- und Ausgaben explizit beschreiben. Zu den wichtigsten Typen von Befehlssatzarchitekturen gehören:

–       RISC (Reduced Instruction Set Computing): Hierbei handelt es sich um eine Computing-Architektur, die auf einem reduzierten Befehlssatz basiert.

–       CISC (Complex Instructions Set Computing): Hierbei handelt es sich um eine Computing-Architektur, die auf einem komplexen Befehlssatz basiert.

–       Sparse-Matrix: Hierbei handelt es sich um einen neuartigen Befehlssatz für hochskalierbare CPU-Arrays, die in erster Linie in performanten Server-Systemen eingesetzt werden.

Die CISC-Architekturen zeichnen sich durch eine hohe Anzahl an spezialisierten Anweisungen aus, die möglichst viele Einsatzbereiche abdecken, während RISC-Architekturen einen anderen Ansatz verfolgen. Sie fokussieren sich auf Anweisungen, die besonders häufig aufgerufen werden und beschränken diese auf eine maximale Größe von 4 Bytes.

Eine Flut oder Cyber Attacke, Fehler in der Lieferkette oder der Verlust eines wichtigen Mitarbeiters. Es ist der Albtraum eines Unternehmers, aber schwerwiegende Betriebsstörungen können jederzeit auftreten. Beim Business Continuity Planning (BCP) geht es darum, einen Plan für die Bewältigung schwieriger Situationen zu haben, damit das Unternehmen so störungsfrei wie möglich weiter funktioniert.

Egal, ob es sich um ein privates Unternehmen, eine Organisation des öffentlichen Sektors oder eine Wohltätigkeitsorganisation handelt, Mitarbeiter der entsprechenden Führungsetagen müssen wissen, wie sie auch unter schwierigsten Bedingungen die Geschäfte am Leben erhalten können. Genau dafür gibt es BCP.

Was ist Business Continuity Planning?

Business Continuity Planning ist die Vorausplanung und Vorbereitung innerhalb einer Organisation, um sicherzustellen, dass sie in der Lage ist, ihre kritischen Geschäftsfunktionen während und nach dem Eintreten von Notfällen auszuführen. Solche katastrophalen Ereignisse können Naturkatastrophen, Geschäftskrisen, Pandemien, Gewalt am Arbeitsplatz oder Ereignisse sein, die zu einer Störung des Geschäftsbetriebs führen könnten. Beim effektiven Business Continuity Management wird nicht nur für Ereignisse geplant und vorbereitet, durch die Funktionen vollständig gestoppt werden, sondern auch für Ereignisse, die sich möglicherweise bloß sehr negativ auf einzelne Dienste oder Funktionen auswirken, sodass einzelne Tätigkeitsfelder einer Organisation starken Störungen unterliegen. BCP stellt sicher, dass Personal sowie Sach- und Vermögenswerte geschützt und im Katastrophenfall schnell wieder einsatzfähig sind.

Die Vorteile von BCP

  1. Es kann im äußersten Fall nicht nur Daten und Produktionszyklen, sondern Leben retten.

 

  1. Es schafft Vertrauen bei Mitarbeitern, Kunden & Geschäftspartnern.

 

  1. Es stellt die Einhaltung der Industriestandards sicher (aus versicherungstechnischer Sicht relevant).

 

  1. Es schützt den Brand Value und das Image.

 

  1. Es pflegt eine belastbare Organisationskultur.

 

  1. Es liefert wertvolle Geschäftsdaten.

 

  1. Es hilft, finanzielles Risiko zu mindern.

 

  1. Es schützt die Lieferkette.

 

  1. Es gibt Unternehmen im besten Fall einen Wettbewerbsvorteil

Schlüsselelemente im Business Continuity Management

Durch die Durchführung einer Business Impact Analysis (BIA) können mögliche Schwachstellen sowie die Auswirkungen einer Katastrophe auf verschiedene Abteilungen aufgedeckt werden. Der BIA informiert eine Organisation über die wichtigsten Funktionen und Systeme, die in einem Business Continuity Plan priorisiert werden müssen.Ein Business-Continuity-Plan besteht aus drei Schlüsselelementen: Ausfallsicherheit, Wiederherstellung und Kontingenz.

Ein Unternehmen kann die Ausfallsicherheit erhöhen, indem es kritische Funktionen und Infrastrukturen mit Blick auf verschiedene Katastrophenmöglichkeiten entwirft. Dies kann Personalwechsel, Datenredundanz und die Aufrechterhaltung eines Kapazitätsüberschusses umfassen. Durch die Gewährleistung der Ausfallsicherheit in verschiedenen Szenarien können Unternehmen wichtige Dienste auch ohne Unterbrechung vor Ort und außerhalb des Standorts bereitstellen.

BCP als Notfallplan

Eine schnelle Wiederherstellung der Geschäftsfunktionen nach einem Notfall ist von entscheidender Bedeutung. Das Festlegen von Zielen für die Wiederherstellungszeit für verschiedene Systeme, Netzwerke oder Anwendungen kann helfen, Prioritäten für die Elemente festzulegen, die zuerst wiederhergestellt werden müssen. Andere Wiederherstellungsstrategien umfassen Ressourceninventare, Vereinbarungen mit Dritten zur Übernahme von Unternehmensaktivitäten und die Nutzung umgebauter Räume für geschäftskritische Funktionen.

Ein Notfallplan enthält Verfahren für eine Vielzahl externer Szenarien und kann eine Befehlskette enthalten, die die Verantwortlichkeiten innerhalb der Organisation während eines Katastrophenfalls verteilt. Diese Aufgaben können den Austausch von Hardware, die Anmietung von Büroräumen für Notfälle, die Schadensbeurteilung und die Beauftragung von Drittanbietern umfassen.

Ein entscheidender Faktor für einen schnellen Wiederanlauf beschädigter Geschäftsfunktionen sind kontinuierliche IT-Funktionen: Mit der heutigen Technologie können viele Vorsichtsmaßnahmen getroffen werden, um Daten, Informationen und Vorgänge zu schützen. Die Schlüsselwörter Datensicherung und Backup spielen hierbei in unserer digitalen Welt eine zentrale Rolle. Ein cloudbasierter Rechenzentrumsdienst ermöglicht Unternehmen, Ressourcen schnell zu verschieben und trotzdem auf dieselben Anwendungen und Informationen zuzugreifen. Der Business Continuity Plan und die IT-Infrastruktur einer Organisation sollten diese Strategie berücksichtigen.

Fünf Schritte zur Business Continuity-Planung

 

Um einen effektiven Business Continuity Plan zu erstellen, sollte ein Unternehmen die folgenden fünf Schritte ausführen:

 

Schritt 1: Risikobewertung

 

– Bewertung der Sicherheit vor bestimmten Szenarien

 

– Überprüfung der Points of Failure

 

– Bewertung der Auswirkungen verschiedener Geschäftsunterbrechungsszenarien

 

– Bestimmung der Eintrittswahrscheinlichkeit eines Risikos anhand eines Ratingsystems

 

– Entwicklung eines Plans zum weiteren Vorgehen anhand voriger Priorisierung

 

Schritt 2: Business Impact Analysis (BIA)

– Analyse der Recovery Point Objectives (RPO) und Recovery Time Objectives (RTO)

 

– Identifizieren kritischer Geschäftsprozesse und Workflows sowie unterstützender Produktionsanwendungen

 

– Identifizieren von Interdependenzen, sowohl intern als auch extern

 

– Identifizieren von kritischem Personal, einschließlich Backups, Fähigkeiten, primären und sekundären Kontakten

 

– Identifizieren eventueller spezieller Umstände

 

Schritt 3: Entwicklung eines Business Continuity Plans

 

– Abnahme der Business Impact Analysis durch die Geschäftsleitung

 

– Zusammenfassen der Risikobewertung und der BIA-Ergebnisse, um einen umsetzbaren und gründlichen Plan zu erstellen

 

– Entwicklung von unabhängigen Abteilungs- und Standortplänen

 

– Überprüfung des Plans mit den wichtigsten Interessengruppen zur Fertigstellung und Verteilung

 

Schritt 4: Implementierung planen

 

– Verteilung des Plans an alle wichtigen Stakeholder

 

– Durchführung von Schulungen, um sicherzustellen, dass die Mitarbeiter mit den im Plan beschriebenen Schritten vertraut sind

 

Schritt 5: Testen und Wartung planen

 

– Durchführung von Simulationsübungen, um sicherzustellen, dass die wichtigsten Stakeholder mit den Planschritten vertraut sind

 

– Durchführung von halbjährlichen Planprüfungen

 

– Durchführung jährlicher Business Impact Assessments

Was ist ein WLAN Controller?

Mit einem Wireless LAN Controller können Sie unabhängig vom Gerät, in dem es sich befindet, eine Reihe von Zugriffspunkten (Access Points, APs) auf vereinfachte Weise zentral verwalten und konfigurieren. Somit ermöglicht ein WLAN Controller die effiziente Verwaltung von WLAN-Netzen und deren Zugriffspunkten – vor allem wenn es vielzählige Access Points gibt.

Bei WLAN handelt es sich um eine drahtlose Architektur, die darauf abzielt, sich ändernden Netzwerkanforderungen gerecht zu werden. Ein WLAN-Controller verwaltet drahtlose Netzwerkzugriffspunkte, über die drahtlose Geräte eine Verbindung zum Netzwerk herstellen können.

WLAN-Controller sind physische Geräte, die im zentralen Datenraum in einem Rack montiert sind und gleichzeitig mit jedem AP kommunizieren. Dies ermöglicht die einfache und schnelle Konfiguration mehrerer APs, ohne dass IT-Experten jeden einzelnen manuell konfigurieren müssen.

Funktionsweise

Gegenwärtig können WLAN Controller mehrere Tausend APs steuern. Auf diese Weise können Unternehmen SSIDs, die dynamische Kanalzuweisung, die Übertragungsleistung, den Sicherheitstyp, die VLAN-Zuordnung, die Kanalrichtlinie und alles andere im Zusammenhang mit drahtloser Kommunikation über eine einzige Verwaltungsschnittstelle steuern und bereitstellen.

Der WLAN-Controller ist auch dafür verantwortlich, Firmware und Konfigurationscodes an die Zugriffspunkte zu senden. Darüber hinaus verwaltet es das Roaming in den Modi Layer 2 und Layer 3 und verfolgt alle verbundenen Clients, einschließlich der MAC-Adressinformationen und des zugehörigen AP. Es ist auch der Teil des Netzwerks, der Ihren kabellosen Verkehr mit Ihrem kabelgebundenen Netzwerk verbindet.

Das System übernimmt auch das Radio Resource Management. Er sammelt alle Informationen von den APs und ermöglicht sowohl dem Administrator als auch dem drahtlosen Netzwerk selbst eine vollständige 3D-Ansicht des Netzwerks. Durch die Übernahme des Radio Resource Management steuert der WLAN Controller auch, auf welchen Kanälen die APs geschaltet sind, wie viel Sendeleistung sie haben und was bei Störungen zu tun ist.

Der WLAN-Controller ist eine reale Anwendung des Konzepts einer separaten Verwaltungs- und Datenebene. Der WLAN-Controller ist die Verwaltungsebene, und die APs arbeiten in der Datenebene. Mit dieser Trennung erreichen Unternehmen, deren WiFi über vielzählige Zugriffspunkte verfügt, die größtmögliche Effizienz.

Management und Betrieb
Dies sind die Aufgaben, die die Bereitstellung und den Betrieb des Wireless LAN-Netzwerks auf einheitliche und einfache Weise ermöglichen, ohne die gleichen Vorgänge in jedem der APs innerhalb des lokalen Netzwerks wiederholen zu müssen. Mit diesen Funktionen können Sie Probleme im Netzwerk konfigurieren, überwachen und diagnostizieren sowie Warnungen senden und empfangen, wenn Probleme erkannt werden. Um eine homogene Netzwerkleistung zu erzielen, wird in diese Gruppe auch das Betriebssystem-Update der APs aufgenommen, sodass alle dieselbe Version haben.

Aggregation und Verarbeitung des Datenverkehrs von drahtlosen Geräten wie Tablets und Smartphones
Solche Funktionen werden im WLC nicht immer ausgeführt, was hauptsächlich von der verwendeten Netzwerkarchitektur abhängt. Wenn der gesamte Datenverkehr von drahtlosen Geräten über den Controller geleitet wird, können mit diesem Datenverkehr „Dinge“ erledigt werden, z. Bsp. das Verschlüsseln sowie das Trennen des Datenverkehrs zum Senden an verschiedene Netzwerke oder das Filtern nach Prioritäten gemäß vordefinierter Qualitätsrichtlinien.

Lokale drahtlose Funktionen
Die spezifischen Merkmale der Funktechnologie machen die Verwendung von Koordinations- und Schutzmechanismen innerhalb eines bestimmten Funkspektrums für eine effizientere Nutzung in einem bestimmten lokalen Gebiet ratsam. Die Mechanismen sind hier gruppiert, sodass jeder AP einen anderen Teil des elektrischen Spektrums (Kanals) als die umliegenden verwendet. Ein WLAN Controller bietet Mechanismen zur Optimierung der Verkehrsverteilung zwischen drahtlosen Geräten und APs, zur Erkennung von Interferenzen und sogar zur geografischen Positionierung der Geräte mithilfe von Funk-Triangulationsmechanismen.

Andere „Nicht-Wi-Fi“ -Funktionen
Viele Controller verfügen auch über Funktionen, die mit der Wi-Fi-Technologie wenig oder gar nichts zu tun haben, z. Bsp. dienen sie als Druckerserver, als NAS (Network Attached Storage) oder als herkömmlicher fester LAN-Switch.

Wie zu vermuten ist, wird die Skalierbarkeit durch Hinzufügen eines WLAN-Controllers erheblich verbessert, da auf einfache Weise mehr Zugriffspunkte im Netzwerk installiert werden können und die Komplexität bei Bereitstellung und Verwaltung verringert wird.

Wer braucht einen WLAN Controller?

Für alle Unternehmen, die in ihren Gebäuden/auf ihrem Gelände 2 oder mehr Access Points zu ihrem WLAN Netzwerk verfügen, ist ein WLAN Controller empfehlenswert. Durch die Verwaltung aller Access Points als vollständiges WLAN-System bietet die Nutzung eines WLAN Controllers nicht nur maximale Skalierbarkeit, Leistung und WLAN-Steuerung. Moderne WLAN Controller sind heutzutage standardmäßig mit effizienter eingebetteter Software ausgestattet, verwenden, wie im obigen Abschnitt bereits erwähnt, Radio Resource Management (RRM) -Algorithmen, um Änderungen frühzeitig zu erkennen und notwendige Anpassungen vorzunehmen.
Unternehmen, egal ob klein, mittelgroß oder groß, profitieren vom erstellen einer selbstkonfigurierenden, selbstoptimierenden und selbstkorrigierenden WLAN-Umgebung. Diese Anpassungen erzeugen die optimale Topologie für drahtlose Netzwerke auf die gleiche Weise wie Routing-Protokolle.

Ein WLAN Controller übernimmt so viele Arbeitsschritte und Prozesse, dass IT Abteilungen spürbar entlastet werden können. In einer Welt, die ohne effiziente WLAN-Nutzung nicht so funktionieren würde, wie erfolgreiche Unternehmen es heute benötigen, sind WLAN-Controller von großer Bedeutung für die optimale Nutzung der vorhandenen Technologien.