Software Deploment Tool – wertvolle Lösungen im kompakten Überblick

Software Deployment  ist die professionelle Methode, im PC- und Serverbereich benötigte Betriebssysteme und Softwareprodukte automatisiert zu verteilen. Dies wird mit modernen Tools praxisorientiert und passgenau verwirklicht. Der folgende Überblick informiert Sie darüber, was ein Software Deployment Tool ist, welche Tools es gibt und mit welchen Vorteilen sie für den Anwender verbunden sind.

Je umfangreicher die IT eines Unternehmens aufgestellt ist, umso mehr Rechner und Server sind es in der Regel, die in einem zentralen Netzwerk zusammengeschlossen sind. Um effiziente Betriebsabläufe zu generieren, aber auch Komfort und Sicherheit bei der Handhabung der EDV-Lösungen zu gewährleisten, ist eine bedarfsgerechte Softwareverteilung wichtig. Sie bestückt die Rechner mit genau den Komponenten, die für deren reibungslosen Ablauf und die Anforderungen des jeweiligen Arbeitsplatzes optimal geeignet sind. Je mehr PCs im Unternehmen vorhanden sind, umso dringender sollten Sie ein Software Deployment Tool nutzen.

Manuelle versus automatisierte Softwareverteilung

Manuelle Softwareverteilung bedeutet, dass die einzelnen Softwarelösungen auf jedes einzelne Gerät händisch verteilt – im Fachjargon auch „ausgerollt“ – werden. Auch ohne umfassende Informationen über die damit verbundenen Arbeitsschritte ahnen Sie sicher, wie aufwendig sich dies gestaltet. Das umso mehr, dass die Zahl der auszurüstenden Geräte sich allein dadurch schon verdoppelt, wenn jeder Mitarbeiter zu seinem Innendienst-PC auch noch ein mobiles Endgerät wie ein Smartphone oder ein Tablet für seine Aufgaben im Unternehmen nutzt. In der Regel sind es bis zu zehn Rechnern, die manuell bestückt werden können. Bei verzweigteren Netzwerken ist dies zu aufwendig. Hier sollte die Softwareverteilung nicht mehr durch den Administrator oder einen anderen IT-Fachmann durchgeführt werden, sondern mit einem leistungsstarken Software Deployment Tool.

Software Deployment Tool: intelligente Systeme nutzen

Wichtige Voraussetzung für die Softwareverteilung ist das Setup. Hier registriert das Betriebssystem, wenn Handlungsbedarf – etwa für ein Update oder Patch Management – vorhanden ist, und gibt dem Software Deployment Tool den relevanten Input. Die Softwareverteilung kann zentral über den Server, aber auch von den Endgeräten angestoßen werden. Wichtig ist, dass das Software Deployment Tool nicht nur die Verteilung an sich übernehmen kann, sondern auch eine Fehlerprüfung enthält, die das System vor Sicherheitslücken nachhaltig schützen kann.

Welche Tools gibt es Markt? 

Wer plant, ein Software Deployment Tool einzusetzen, hat einige Möglichkeiten. Das Installieren beziehungsweise Verteilen von Softwarelösungen auf die einzelnen Clients kann sowohl mit kostenpflichtigen als auch kostenlosen (freien) Tools verwirklicht werden. Bei der Auswahl des richtigen Tools ist zunächst zu berücksichtigen, welches Betriebssystem genutzt wird. Für Linux eignen sich beispielsweise Ansible, Chef und Puppet. Für Windows sind OPSIPDQ Deploy und SCCM (Microsoft) kompatibel, die allesamt Freeware sind. Allerdings gilt es in diesem Zusammenhang zu berücksichtigen, dass die meisten Windows-kompatiblen Tools zwar kostenlos sind, dafür aber in der Anzahl der zu verwaltenden PCs eine Einschränkung haben. Hier kommt es auf die Unternehmensgröße und die damit verbundene Rechneranzahl an, welches Produkt für Sie das optimale ist. Natürlich können Sie auch bei solchen Softwarelösungen mehr Rechner an die Softwareverteilung anknüpfen. Dies ist aber nur im Rahmen eines Upgrades möglich, das aus dem freien ein kostenpflichtig lizenziertes Software Deployment Tool macht.

Tools im kompakten Überblick

Das ideale Software Deployment Tool ist das, was den Bedarf eines Unternehmens optimal umsetzen kann. Am Markt gibt es zahlreiche leistungsstarke Programme, die dazu das Potenzial haben. Hier können natürlich nur einige davon explizit genannt werden. Das bereits erwähnte PDQ Deploy überzeugt dadurch, dass die Installation bedarfsgerecht und somit besonders kundenoptimiert möglich ist. Chef ist sprachunabhängig für alle Plattformen beziehungsweise Provider nutzbar. Travis CI ist nicht kostenfrei, bietet aber umfangreiche Testung und Expertensupport für Linux und Mac beziehungsweise iOS. Bei Jenkins gibt es Hunderte von Plugins für den bedarfsgerechten Einsatz. Ansible Tower kommt mit einem übersichtlichen Dashboard und leistungsstarker Infrastruktur rund um Datenmanagement und Cloud daher. SSCM stammt von Microsoft. Der System Center Configuration Manager ist eine durchdacht einheitliche Verwaltungseinheit, die natürlich für Windows-PCs mit hoher Kompatibilität und Benutzerfreundlichkeit punktet.

OPSI für Windows entdecken

Wer ein Software Deployment Tool schätzt, das unabhängig von der Anzahl der angebundenen Anzahl von PCs kostenfrei bleibt, ist bei OPSI richtig. Auch wir verwenden diese Softwareverteilung, die für Windows konziert und als Open Source-Projekt kostenlos verfügbar ist.

Wir beraten Sie zu diesem Software Deployment Tool und allen anderen Möglichkeiten der Softwareverteilung gerne.

Was ist Linux Mint?

Linux Mint ist der Name einer Linux-Distribution, die es in zwei unterschiedlichen Ausgaben gibt. Die Hauptausgabe basiert auf Ubuntu und ist in zwei verschiedenen Versionen erhältlich. Eine zweite Ausgabe, die den Titel Linux Mint Debian Edition (LMDE) trägt, beruht auf der gleichnamigen Linux-Variante. Beide Ausgaben entwickelte Clément Lefèbvre, der sich als Maintainer verantwortlich zeichnet. Wir stellen Ihnen die Entwicklung und das Konzept der Linux Distrubution vor. Dabei gehen wir für Sie auf die Stärken und Schwächen von Linux Mint ein.

Entstehungsgeschichte von Linux Mint

Die Distribution gibt es 2006, als sie aus der Ubuntu-Variante entstand, um beliebte und freie Software besser zu integrieren. Daher bestand Linux Mint von Anfang an nicht nur aus quelloffenen und freien Anwendungen, sondern auch aus nicht-freien Programmen wie beispielsweise Adobe Flash. Außerdem integrierten die Verantwortlichen eine große Anzahl von Multimedia-Codecs in ihre Distribution, so dass zum Beispiel eine Unterstützung für H.264-Videos gegeben ist. Weil sich dieser Ansatz von anderen Distributionen wie Ubuntu unterschied, war Linux Mint sehr erfolgreich.

Ab 2014 entschieden die Entwickler, sich noch stärker auf die Stabilität ihres Betriebssystems zu fokussieren. Daher bestehen die aktuellen Ausgaben der Linux Distribution auf den aktuellen Ubuntu Long Term Support (LTS) Codes. Für die Debian Variante nutzen die Verantwortlichen die Debian Stable Codebasis. Auf diese Weise möchten die Entwickler von Linux Mint eine hohe Stabilität ihres Betriebssystems garantieren.

Zugleich versprachen die Macher, die wesentlichen Desktop-Programme regelmäßig zu aktualisieren. Daher erschien Ende 2014 Linux Mint 17.1, die neue Versionen der wichtigsten Anwendungen brachte. Mittlerweile ist die Distribution bereits in der Version 19.1 erhältlich. Zukünftig dürfte sich der Umfang des Betriebssystems in Form von neuen Varianten der wichtigsten Programme und Codecs stetig erweitern. Doch bereits in der Gegenwart punktet Linux Mint durch größere Programmvielfalt, was sich im Büro und in der Freizeit bemerkbar macht.

Der Umfang

Für ihre Distribution setzen die Verantwortlichen auf eigene Desktop-Konzepte wie Cinnamon. Durch eigenen Desktop-Umgebungen soll sich die Benutzungsfreundlichkeit deutlich erhöhen. Cinnamon basiert auf Gnome und MATE, an deren Entwicklung die Macher von Linux Mint beteiligt waren. Ihr Betriebssystem ist eine der wenigen Linux-Varianten, die über eine eigene Desktop-Umgebung verfügt. Dadurch unterscheidet sich die Distribution recht deutlich von anderen Ausführungen.

Linux Mint gibt es sowohl in der Hauptausgabe als auch in der LMDE in zwei Versionen. Nutzer können entweder die 32-Bit- oder die 64-Bit-Variante verwenden. Die Installation ist über DVD-Pakete möglich, die jeweils vorkonfigurierte Desktop-Umgebungen beinhalten. Andere Desktop-Varianten lassen sich mittels der Paketverwaltung auch im Nachhinein installieren. Dann entfällt allerdings die wichtige Vorkonfiguration, die eigentlich eine der Stärken von Linux Mint darstellt.

Im Gegensatz zu anderen Linux Distrubitionen wie Ubuntu oder Debian enthält die Mint-Variante von Anfang an die wichtigsten Codecs zur Wiedergabe von DVDs, MP3-Dateien oder DivX-Videos. Plugins für Adobe Flash oder Java sind in den Installationspaketen enthalten. Wichtige Bestandteile der Installationspakete, die in Form von ISO-Dateien erhältlich sind, sind die Desktop-Umgebung sowie die MintTools, die unter anderem das an Windows-Betriebssysteme erinnernde MintMenu enthalten.

Außerdem punktet Linux Minut durch eine große Software-Auswahl. So können Sie die LibreOffice Programme nutzen, um Texte zu schreiben oder Tabellen zu erstellen. Zum Surfen bietet sich der Webbrowser Firefox an, der ebenfalls ein Bestandteil von Linux Mint ist. Die Bearbeitung von Grafiken ist mit der leistungsstarken Software GIMP möglich. Mit der integrierten Rythmbox können Sie unterdessen Audio-Tracks und MP3-Dateien abspielen. Der Video Player übernimmt derweil die Wiedergabe von Videos. Ein PDF-Viewer ist ebenfalls an Bord. Hilfreich sind zudem kleine Tools wie das Notizprogramm oder ein Taschenrechner.

Die Software testen

Nutzer können sich vor einer echten Linux-Installation für einen Test des Betriebssystems entscheiden. Schließlich lässt sich Linux Mint nicht nur auf einer Festplatte installieren, sondern auch als Live-System von einen USB-Stick starten. Zu diesem Zweck besuchen Sie einfach die Website des Anbieters, wo Sie sich für eine Linux Mint Version entscheiden. Nach dem Download der jeweiligen ISO-Datei müssen Sie die Daten so auf einen USB-Stick kopieren, dass ein Bootvorgang möglich ist.

Die Verantwortlichen von Linux Mint empfehlen zu diesem Zweck das Tool balenaEtcher, das für alle gängigen Betriebssysteme erhältlich ist. Wenn die ISO-Datei mit dem Tool auf den Stick kopiert wurde, lässt sich das Betriebssystem von solch einem Datenträger booten. So können Sie die Linux-Distribution in aller Ruhe ausprobieren, bevor Sie sich für oder gegen eine richtige Installation auf einer integrierten Festplatte entscheiden. Dabei testen Sie unter anderem den Desktop, der eine der Stärken von Linux Mint ist.

Mint Desktop im Kurzüberblick

Auf den ersten Blick unterscheidet sich der Startbildschirm von Linux Mint kaum von gängigen Windows-Varianten. Mit einem Klick auf den Startbutton, der sich ganz links in der Leiste befindet, starten Nutzer das Menü. Sämtliche Funktionen erinnern an das Startmenü von Windows, allerdings ist die Anordnung anders. Links oben befinden sich die Favoriten, wozu die Software-Verwaltung und die Systemeinstellungen gehören.

Natürlich lassen sich weitere Programme als Favoriten hinzufügen. Über das Startmenü erreichen Sie ansonsten wichtige Schaltflächen zum Sperren, Abmelden und Herunterfahren. Die Software-Rubriken und die installierten Anwendungen finden sich ebenfalls im Startmenü von Linux Mint.

 

Bei Kali Linux handelt es sich um eine Linux-Distribution, die auf dem frei entwickelten Betriebssystem Debian GNU/Linux basiert. Die Distribution umfasst in erster Linie Anwendungen für die digitale Forensik sowie für Penetrationstests. Dabei richtet sie sich vor allem an professionelle und fortgeschrittene Nutzer.

Der Werdegang von Kali Linux

Entwickelt wurde das Betriebssystem von Devon Kearns und Mati Aharoni, Mitarbeiter des Unternehmens „Offensive Security“. Die Veröffentlichung wurde am 12. Dezember 2012 angekündigt und am 13. März 2013 durchgeführt. Die Entwicklungszeit von Kali Linux betrug etwa ein Jahr; die erste Version erhielt die Versionsnummer 1.0. Seit der Version 2.0 erhalten Sie Kali Linux als Rolling Release. Das bedeutet, dass das Betriebssystem kontinuierlich weiterentwickelt wird. Betriebssystem-Versionen gibt es nicht mehr. Stattdessen handelt es sich um Snapshots, die in der Regel als Installationsmedium dienen.

Offiziell handelt es sich bei Kali Linux um den Nachfolger von BackTrack. Die neue Bezeichnung soll laut Hersteller-Angaben darauf hinweisen, dass die Neuentwicklung deutlich fortgeschritten ist. Kali Linux setzt nicht wie BackTrack auf Ubuntu auf, sondern auf Debian. Das Betriebssystem wurde vollständig neu entwickelt. Die Infrastruktur arbeitet nunmehr mit Git als Verwaltung für die Versionen.

Die Architektur von Kali Linux

Das System wurde so entwickelt, dass es sich für Computer mit unterschiedlich aufgebauten Hauptprozessoren eignet. So ist es sowohl für AMD64 als auch für x86er-Systeme und für die ARM-Architektur verfügbar. Die ARM-Architektur wird vor allem in kleinen Endgeräten wie Tablet-Computern eingesetzt. So kann die ARM-Version von Kali Linux unter anderem auf dem ARM Chromebook der Marke Samsung als auch auf dem Raspberry Pi verwendet werden.

In der Forensik lässt sich Kali Linux – abhängig von der Anwendung – als Live-System ohne Installation booten, zum Beispiel via CD und DVD, USB-Stick oder PXE (Preboot Execution Environment) im Netzwerk. Dabei hinterlässt das Live-System keine Spuren am geprüften System, weder auf der Solid State Drive noch auf den eingebauten Festplatten. Es sind beispielsweise keine Auslagerungsdateien auffindbar. Um einen Rechner für Penetrationstests einzusetzen, kann Kali Linux alternativ fest installiert werden.

Die Programme und Tools von Kali Linux

In der Distribution sind zahlreiche Dokumentationen und mehrere hundert Hilfsmittel integriert, die die Sicherheit eines IT-Systems testen und bewerten. Die unter Kali Linux enthaltenen Programme sind zwar auch einzeln für den Großteil der anderen Linux-Distributionen erhältlich, doch automatische Optimierungen werden nur über Kali Linux zur Verfügung gestellt.

Kali Linux bezieht die Programme vier Mal pro Tag aus dem Debian-Repository. Damit ist sichergestellt, dass die Nutzer jederzeit über aktuelle Software-Pakete und Sicherheitsupdates verfügen. Eine eigene Paketquelle mit der Bezeichnung „Kali bleeding edge“ stellt neueste, noch nicht ausführlich unter Kali geprüfte Versionen zur Verfügung.

Die wichtigsten Werkzeuge

– Aircrack-ng

Bei Aircrack-ng handelt es sich um eine Tool-Sammlung. Die Werkzeuge sind darauf ausgelegt, Schwachstellen im WLAN nicht nur zu analysieren, sondern sie auch auszunutzen.

– Ettercap

Die Software führt Man-in-the-Middle-Angriffe durch. Es unterstützt Echtzeitkontrollen über Verbindungen auch in in geswitchten Netzwerken, das Sniffing auf IP- und ARP-Basis, aktive und passive Analysen einzelner Hosts und vollständiger Netzwerke sowie das inhaltsbezogene Filtering.

– John the Ripper

Diese Software ist in der Lage, verschlüsselte System-Passwörter zu entschlüsseln und auf ihre Sicherheit zu testen. Das Entschlüsseln geschieht per Brute-Force oder durch eine Dictionary-Attack.

– Kismet

Kismet agiert als freier WLAN-Sniffer und spürt Funknetzwerke auf, indem es die versandten Datenpakete mitliest. Dieses Programm eignet sich unter anderem auch dafür, die Sicherheit des eigenen WLANs zu überprüfen und die Signalstärke zu ermitteln.

– Maltego

Dieses Programm wurde entwickelt, um Daten im World Wide Web zu sammeln. Dabei handelt es sich um Daten sowohl einzelner Personen als auch von Unternehmen.

– Nmap

Die Bezeichnung „Nmap“ steht für Network Mapper. Bei diesem Tool handelt es sich um einen Portscanner, der Hosts in einem Rechnernetz scannt und auswertet. Bei Administratoren ist es ebenso beliebt wie bei Hackern, denn es arbeitet außergewöhnlich zuverlässig und effizient.

– RainbowCrack

Zum Knacken von Passwörtern nutzt dieses Programm so genannte Rainbow Tables. Im Vergleich zum Brute Force benötigt diese Methode deutlich weniger Zeit und Versuche, um ein Passwort zu ermitteln.

– SET (Social Engineer Toolkit)

Dieses Toolkit beinhaltet mehrere Anwendungen für unterschiedliche Penetrationstests. Der Schwerpunkt liegt dabei auf dem Social Engineering.

– The Sleuth Kit

Bei diesem Kit handelt es sich um eine forensische Software-Sammlung, die auf die Kommandozeile von IT-Systemen ausgerichtet ist. The Sleuth Kit unterstützt die Dateisysteme ISO 9660, NTFS, FAT, UFS 1 und 2, Ext2 bis Ext4, HFS und YAFFS2.

Die rechtliche Situation von Kali Linux in Deutschland

Die Distribution Kali Linux enthält Tools, die in Teilen gewisse Sicherheitsvorkehrungen umgehen. Sie werden in Deutschland als „Computer-Programme zum Ausspähen von Daten“ aufgefasst. Diese Auffassung basiert auf § 202c StGB, dem „Hacker-Paragrafen“, der Ende Mai 2007 in Kraft getreten ist.

Auf Basis dieser gesetzlichen Lage kann der Besitz oder der Vertrieb von Kali Linux hierzulande strafbar sein, wenn eine Absicht besteht,

– diese Programme rechtswidrig zu nutzen (§ 202a StGB) und/oder

Daten damit abzufangen (§ 202b StGB).

Damit ein Computer funktioniert, benötigt er mehrere aufeinander abgestimmte Komponenten, ein Betriebssystem und Anwendungsprogramme. RAM ist ein Begriff, der in diesem Zusammenhang häufig genannt wird. Was RAM ist, wie er funktioniert und wozu er in einem Computer verwendet wird, erfahren Sie im folgenden Beitrag.

RAM ist die Abkürzung für „Random Access Memory“ und bezeichnet den schnellen Arbeitsspeicher in einem Computer oder Smartphone. „Random Access“ bedeutet wahlfreier oder direkter Zugriff. Auf die im RAM gespeicherten Daten kann direkt über die Adresse des Speicherplatzes zugegriffen werden. RAM wird daher auch als Direktzugriff-Speicher bezeichnet. Allgemein gebräuchlich ist jedoch die Bezeichnung Arbeitsspeicher. RAM ist ein flüchtiger Speicher. Die gespeicherten Daten gehen verloren, wenn der Strom abgeschaltet wird.

Wozu wird RAM benötigt?

Der Arbeitsspeicher eines Computers wird als Zwischenablage für häufig benötigte Daten verwendet. Beim Hochfahren eines Computers werden zunächst häufig verwendete Daten des Betriebssystems im RAM gespeichert. Sobald ein Programm, beispielsweise ein Office Programm oder ein Browser geöffnet wird, speichert das System ebenfalls häufig benutzte Daten der Programme im Arbeitsspeicher. Während des Betriebs werden von den benutzten Programmen und vom Betriebssystem selbst temporärer Daten erzeugt, die im RAM zwischengespeichert werden. Dadurch, dass wichtige Daten verschiedener Programme im RAM zwischengespeichert werden, ist sogenanntes Multitasking, die gleichzeitige Nutzung mehrerer Programme möglich. Zudem kann praktisch ohne Verzögerung zwischen mehreren Anwendungsprogrammen gewechselt werden.

Der Bedarf an Arbeitsspeicher für Betriebssysteme und Softwareprogramme hat sich im Laufe der Jahre deutlich erhöht. Für das Windows XP Betriebssystem waren minimal nur 64 MByte RAM erforderlich. Windows 7 benötigte in der 32-Bit Version mindestens 1 Gigabyte RAM und in der 64-Bit Version mindestens 2 Gigabyte Arbeitsspeicher. Für Windows 10 sind mindestens 2 GB RAM, besser jedoch 4 Gigabyte erforderlich, um flüssig arbeiten zu können.

Wie funktioniert RAM?

Ähnlich wie ein Mikroprozessor ist ein RAM-Speicherchip eine sogenannte integrierte Schaltung (Integrated Circuit, IC), die aus Millionen Transistoren und Kondensatoren besteht. Je mindestens ein Transistor und ein Kondensator bilden eine Speicherzelle. In jeder Speicherzelle kann ein einzelnes Datenbit – eine 0 oder eine 1 – gespeichert werden. Der Kondensator speichert elektrische Ladung in Form von Elektronen. Wenn ein Kondensator geladen ist, entspricht dies dem Wert 1. Ein leerer, nicht geladener Kondensator entspricht dem Wert 0. Der Transistor wird als Schalter benutzt, um den Ladungszustand des Kondensators zu lesen oder seinen Zustand zu ändern.
Mehrere dieser Speicherzellen sind in Zeilen, den sogenannten „Pages“ organisiert. Der Arbeitsspeicher ist über ein sogenanntes Bussystem mit dem Prozessor des Computers, der CPU, verbunden. Über das Bussystem werden Daten und die Informationen darüber, an welcher Stelle die Daten gespeichert sind, zwischen Prozessor und Arbeitsspeicher ausgetauscht. Ein kleiner Bereich eines RAM-Speicherchips wird als sogenannter Cache-Speicher verwendet. Dieser Teil ist direkt mit dem Prozessor verbunden. Dadurch ist ein sehr schneller Zugriff möglich. Der Cache-Speicher wird verwendet, um Daten zu speichern, die vom Prozessor besonders häufig benötigt werden. Die Speicherung im Cache erfolgt immer nur für kurze Zeit. Seltener genutzte Daten werden immer durch häufiger verwendete Daten ersetzt.

RAM Speicherchips haben aktuell eine Speicherkapazität zwischen 0,5 und 256 GB. Meistens werden mehrere Speicherchips auf einer Platine zu einem sogenannten Speichermodul zusammengefasst. Diese Module haben je nach Chipsatz eine Speicherkapazität von 2, 4, 8, 16, 32 und mehr Gigabyte.

Hohe Datenübertragungsraten und kurze Zugriffszeiten

RAM Speichermodule werden verwendet, da die Zugriffszeiten wesentlich kürzer und die Datenübertragungsraten deutlich höher sind als bei Festplattenspeichern. Sogenannte DDR4-SDRAM (Double Data Rate Synchronous Dynamic Random Access Memory) Module der 4. Generation erreichen Datenübertragungsraten von bis zu 25.600 Megabyte (MB) pro Sekunde. Im Vergleich dazu beträgt die Übertragungsrate einer HDD maximal etwa 380 MB/s. Eine moderne SSD kann etwas über 520 MB/s pro Sekunde übertragen. Zudem sind die Zugriffszeiten bei RAM Speichermodulen mit 60 bis 70 Nanosekunden deutlich geringer als bei Festplatten mit ca. 3,5 ms und SSDs mit etwa 0,2 ms.

Was passiert, wenn der Speicher „voll“ ist?

Sobald ein Computer läuft, werden Daten im RAM zwischengespeichert. Je mehr Programme geöffnet werden und je mehr Programme – wie beispielsweise Antivirenprogramme – im Hintergrund laufen, umso mehr füllt sich der Arbeitsspeicher mit Daten. Wenn im Arbeitsspeicher kein Platz für weitere Daten ist, nutzt das Betriebssystem freien Festplattenspeicher als virtuellen Arbeitsspeicher zur Auslagerung von häufig benötigten Daten. Da Festplatten deutlich langsamer sind als RAM, verlangsamt sich die Geschwindigkeit der Programmabläufe dadurch merklich. Videos werden ruckelig abgespielt, Berechnungen bei der Bildbearbeitung dauern länger und auch das Speichern von Textdateien verzögert sich. In den meisten Computern stehen jedoch freie Steckplätze für weitere RAM-Module zur Verfügung. Der Arbeitsspeicher kann daher in der Regel ohne großen Aufwand an gestiegene Anforderungen angepasst werden.

Was ist der Unterschied zwischen ROM und RAM?

ROM ist die Abkürzung für „Read Only Memory“, auf Deutsch „Nur-Lese-Speicher“. Im Gegensatz zu RAM ist ROM ein nichtflüchtiger Speicher. Informationen werden in einem ROM Speicherchip dauerhaft gespeichert. Das heißt, die gespeicherten Daten bleiben erhalten, wenn der Strom abgeschaltet wird. ROM Speicherchips werden für Daten verwendet, die sich während des Betriebs eines Computers nicht oder nur selten verändern. Häufig verwendete ROM-Bausteine sind sogenannte EEPROMs (Electrically Erasable Programmable Read-Only Memory). Diese Bausteine können mittels elektrischem Strom gelöscht und neu programmiert werden. EEPROMs werden immer dann genutzt, wenn sich die gespeicherten Daten nur selten und im geringem Umfang ändern. Sie werden beispielsweise verwendet, um die Informationen zu speichern, die benötigt werden, um einen Computer nach dem Einschalten hochzufahren.

Der ROM Speicher – Entwicklung und Funktion

Die Bezeichnung ROM ist Ihnen sicher schon begegnet. Die CD-ROM trägt es in ihrem Namen. Die schon versierteren PC-Nutzer unter Ihnen kennen auch ROM in ihren PCs. Dort gibt es aber auch RAM. Wir bringen Klarheit in die Welt der IT-Kürzel.

ROM – der Nur-Lese-Speicher

Die drei Buchstaben stehen für Read-Only-Memory. Er kennzeichnet einen Datenspeicher. Auf diesen wird im normalen Arbeitsbetrieb, etwa in einem PC, nur „lesend“ zugegriffen. Es werden die auf dem Medium gespeicherten Daten abgerufen. Diese Daten sind fest gespeichert und dafür nicht auf Stromzufuhr angewiesen. Das erklärt auch die eingangs erwähnte Bezeichnung für die Daten CD. Diese enthalten auf einer Kunststoffscheibe Daten in Form von winzigen und sich abwechselnden Erhöhungen und Vertiefungen, sogenannte pits und lands. Diese Codierungen werden mittels eines Lasers ertastet und übersetzt, etwa in Musik. Die klassische CD-ROM wird auch nur gelesen. Wenn Sie eine CD beschreiben, in dem Sie etwa Musik darauf „brennen“, ist diese jetzt eine CD-R. Hier steht R dann für rewriteable. Das bedeutet beschreibbar.

ROM im PC – Speicher des BIOS

Diese weitere und sehr häufig auftauchende Abkürzung BIOS steht für Basic Input Output System. Dieses Kernstück eines Computers erkennt und verwaltet alle Komponenten eines PC. Es beinhaltet eine unveränderliche Software. Sie ist auch beim Starten des PC notwendig. Die Information bleibt auch ohne Stromzufuhr stets erhalten. Sie kann nur durch Austausch des Chips oder mittels von außen durchgeführter Umprogrammierung verändert werden.

Das macht auch den Unterschied zum erwähnten Begriff RAM aus. Dies ist der Arbeitsspeicher, der vollständig Random Access Memory heißt. Dieser Speicher mit freiem Zugriff, so die Bedeutung, wird als Ablageplatz für die Zeit der Verarbeitung abgelegt. Während ROM also nur ausgelesen werden kann, wird RAM auch beschrieben und als Zwischenspeicher benutzt.

Weitere Inhalte des ROM

Nicht nur das BIOS ist also im Nur-Lese-Speicher festgeschrieben und gesichert. Weitere Programme haben hier Ihren Platz:

Setup CMOS:

Dies bezeichnet die erkennbare Anzeige beim Startvorgang des PC. Die Systemparameter können damit verändert werden.

Bootlader:

Dies Programm, auch Urlader oder Startprogramm genannt, lädt das Betriebssystem in den Arbeitsspeicher RAM und startet dieses.

Power-On Self Test POST:

Dieses Programm wird automatisch beim Starten des Rechners ausgeführt und testet dabein das System.

Wie ein ROM im PC funktioniert

ROM ist als Basisbaustein eines PC zu verstehen, der fest vorprogrammiert ist. Diese Programmierung kann mehr oder weniger reversibel sein. Der lesende Zugriff ähnelt aber dem auf RAM oder Festplatte. Die Leistungsfähigkeit eines ROM Chip ergibt sich aus der Anzahl sogenannter Adresspins, von denen abgelesen werden kann. So hat ein 64-kb-ROM 216 = 65536 Adressen. An jede Adresse können 8 Bit gespeichert werden. ROM arbeiten bei einer Zugriffszeit von 150 Nanosekunden langsamer als RAM Speicher. Dieser weist Zugriffszeiten von 10 Nanosekunden auf.

Um einen PC Start schneller durchführen zu können, wird ein sogenanntes Shadowing durchgeführt. Wichtige ROM Befehle werden dann auf den schnelleren RAM Speicher „phantomgespeichert“.

Verschiedene Arten

Heute veraltete Speicher der ersten Generationen bekamen ihre Daten per Maske auf eine Siliziumplatte geschrieben

PROM Speicher

Mit den 1980er Jahren wurden ROM programmierbar durch ein Speichersystem, das aus Dioden bestand. Das P steht für programmable.

EPROM

PROMs, die auch gelöscht werden können, bekamen noch ein E für erasable dazu. Das Löschen funktionierte durch ultraviolette Strahlung, die gespeicherte Bits auf den Zustand 1 stellen.

EEPROM

EPROMs, die ganz einfach auch im PC elektronisch gelöscht werden können, bekamen noch ein E vorgestellt für electrically. Mit ihnen werden überwiegend Konfigurationsdaten gespeichert.

ROM Flash

Flash Speicher nutzen prob Bit statt zwei bis drei Transistoren nur einen. Sie können daher kompakter mehr Daten speichern und werden für komplexe Informatikprogramme genutzt.

 

 

Dank RIPE NCC finden Ihre IP-Pakete ihr Ziel

Das RIPE NCC, eine von weltweit fünf RIRs, verwaltet die IP-Adressen hauptsächlich im eurasischen Raum. Dazu gehören beispielsweise Länder der ehemaligen Sowjetunion und des mittleren Ostens. Damit erfüllt das RIPE NCC ähnliche Aufgaben wie die IANA und erhält auch von dort IP-Adressbereiche zugeteilt. Anders als die ICANN ist es nicht für Domain-Registrierung und DNS Server zuständig.

Was ist das RIPE NCC genau?

Das RIPE NCC erfüllt die Funktion einer „Regional Internet Registry“, abgekürzt RIR. Die IANA delegiert seit Anfang der 1990er-Jahre die Verwaltung von IP-Adressbereichen an unabhängige Organisationen, jeweils für einen bestimmten geographischen Raum, grob orientiert an den Kontinenten. Wenn Sie etwa als ISP in Deutschland ganze Netze öffentlich zugänglicher IP-Adressen benötigen, ist nicht ICANN/IANA sondern das RIPE NCC der richtige Ansprechpartner. Das gilt aber auch für Grönland, obwohl es zum amerikanischen Kontinent gehört. Die Zuständigkeit bezüglich der Tätigkeit leichter zu erfassen.

Ist das RIPE NCC nur für IP-Adressen zuständig?

RIRs befassen sich primär mit der IP-Adresse und der damit verwandten Autonomous System Number (ASN), nicht aber mit einem Domain-Namen, obwohl dieser über den DNS Server mit einer IP-Adresse verknüpft ist. Als entscheidender Unterschied sind IP-Adresse und ASN für das Routing im Internet nötig. Das heißt, sie regeln den Transport von Datenpaketen. Sie geben Aufschluss, welcher Weg über welche Router ein IP-Paket ans Ziel führt. Dagegen ist der Name einer Domain für den menschlichen Nutzer gedacht. Ein FQDN wie www.biteno.de ist leichter zu merken als ein numerischer Wert. Letztendlich ist es gerade der Zweck des Domain Name Systems, Domain-Namen über DNS Server mit der zugehörigen IP-Adresse zu verknüpfen, die der Router benötigt.

Diese Nebenaufgaben erfüllt das RIPE NCC

Neben seiner Hauptaufgabe bietet das RIPE NCC, wie die anderen RIRs, Information und Weiterbildungsgangebote für seine Mitglieder. Das sind vor allem ISPs, Organisationen der Telekommunikationsbranche, Regierungs-, Forschungs- und Bildungseinrichtungen sowie größere Unternehmen. Prinzipiell können Sie aber auch als Privatperson Mitglied werden, wenn Sie sich an der Weiterentwicklung des Internets beteiligen wollen. Als weitere Nebenaufgabe leistet das RIPE NCC technische und administrative Unterstützung für RIPE.

Wie ist das RIPE NCC organisiert?

Ähnlich wie beim Duo ICANN/IANA gibt es beim RIPE NCC ebenfalls eine Zweiteilung. RIPE ist ein europäisches, nicht institutionalisiertes, offenes Forum für die technische Entwicklung des Internets. Dieses hat 1992 das RIPE NCC als Organisation nach niederländischem Recht gegründet, die als RIR fungiert. Dieser Zusammenhang macht auch den Namen RIPE NCC verständlicher, der sich aus einem französischen und einem englischen Teil zusammen setzt: die Abkürzung steht für Réseaux IP Européens Network Coordination Centre. Anders als bei ICANN und IANA ist aber das institutionalisierte RIPE NCC die verantwortliche Stelle für die Vergabe von IP-Adressblöcken und ASNs. Im Gegensatz zur ICANN sind weder RIPE noch RIPE NCC für Domain Registrierung und DNS Server verantwortlich. Hier wird ausschließlich die Funktion des Internets als Datentransportmittel gesichert. Warum sind dafür Registraturen wie das RIPE NCC notwendig?

IP-Adresse und ASN, Domain und DNS Server, wofür brauchen Sie was?

Wenn Sie beispielsweise für den Abruf einer Webseite die Domain der URL über einen DNS Server nach der IP-Adresse auflösen, erhalten Sie eine eindeutige Adresse im Internet, an die Sie Ihre Anfrage schicken können. Für die effiziente Verarbeitung setzt sich diese aus einer Netzwerk- und einer Host-Adresse zusammen. Letztere ist nur im LAN mit der gegebenen Netzwerkadresse interessant, denn sie identifiziert genau eine Netzwerkschnittstelle darin. Im Beispiel ist das der DNS Server für die Adressauflösung der Domain und der Webserver für den Seitenaufruf. Für das Routing im WAN, das die Start- und Zielnetze verbindet, reicht die Netzwerkadresse. Das reduziert den Aufwand bei den Routern.

Was sind Netzwerk- und Host-Teil einer IP-Adresse?

Bei der Einführung des Internet Protokolls besteht die Netzwerkadresse aus den acht höchstwertigen Bits der IP-Adresse. Damit sind aber nur 256 Netze möglich, mit jeweils über 16 Millionen Hosts. Viel zu wenige, aber auch zu große Netze für ein wachsendes Internet aus zunehmend kleineren Organisationen. Die IANA teilt daher den IP-Adressraum zunächst in Klasse A, B, und C auf, mit 8, 16 und 24 Bit langen Netzwerkadressen. Die damit möglichen über 500 Millionen Class-C-Netze bieten jeweils 254 Hostadressen. Das ist für viele Organisationen zu wenig und die 65.534 der Klasse B zuviel. Daher gibt es vor der Einführung von IPv6 drei weitere, sich ergänzende Lösungsansätze, um die Erschöpfung des IP-Adressraums hinauszuzögern: Subnetting, Classless Inter-Domain Routing (CIDR) und Autonomous Systems (AS). Letztere fassen IP-Adressbereiche für das WAN-Routing zusammen. Die betroffenen Router informieren sich darüber eigenständig mittels Border-Gateway-Protokoll (BGP). Wie beim DNS Server ist damit eine Software für die automatische Verteilung der Daten zuständig.

Warum delegiert die ICANN die Verwaltung des IP-Adressraums an RIRs?

Grund für die Einführung der RIRs ist, neben dem zunehmende Verwaltungsaufwand für IANA und später ICANN, die größere Nähe zu den Nutzern des IP-Adressraums, das Fehlen einer internationalen Finanzierung der IANA, die im Gegensatz zur ICANN keine Organisation ist.