Externe Festplatte oder Cloudspeicher: Wie bewahren Privatpersonen ihre Daten am sinnvollsten auf?

, ,

Es sind längst nicht mehr nur die großen IT-Konzerne, die über enorme Datenmengen verfügen und diese irgendwo aufbewahren müssen. Auch Unternehmen aus fast allen anderen Branchen bis hin zu den kleinen Einzelunternehmen sammeln immer mehr Daten an, die immer mehr Platz brauchen. Selbst Privatpersonen benötigen täglich mehr Speicherplatz für ihre Fotos, Videos, Musik, Dokumente, E-Books etc. Doch wie und wo können diese Daten am einfachsten und sichersten gespeichert werden? Ist eine externe Festplatte mit großer Speicherkapazität die Lösung? Oder soll doch lieber auf eine Cloud ausgewichen werden, bei der man im Bedarfsfall den Cloudspeicher erweitern kann ohne neue Hardware zu kaufen?

Anzumerken ist, dass Cloud Computing neben dem Filehosting eine Reihe weiterer Funktionen bietet, wie zum Beispiel Nutzungszugang zu Softwaresammlungen oder Programmierungsumgebungen. Da für den Privatgebrauch aber die Datenaufbewahrung der mit Abstand wichtigste Teilbereich eines Cloud Services ist, wird hier auch nur dieses Thema behandelt.

Den persönlichen Bedarf prüfen

Das riesige Angebot an Speichermedien mit ihren jeweiligen Vor- und Nachteilen ist besonders für Laien und einfache Userinnen und User ohne technisches Hintergrundwissen oft sehr undurchsichtig. Als erste Orientierungshilfe ist es daher ratsam, zunächst den eigenen Bedarf in mehreren Schritten zu prüfen:

1. Erforderliche Speicherkapazität:

Hierzu muss festgestellt werden wie viel Speicherplatz aktuell benötigt wird und wie viel Datenmenge voraussichtlich über die Zeit dazukommen wird. Die künftige Menge kann gut abgeschätzt werden, indem man die Vergangenheit betrachtet: Wie viele Daten wurden in einem bestimmten Zeitraum angesammelt? Dieser Wert plus mindestens 50 Prozent sollte für einen künftigen Bedarf in einem gleich langen Zeitraum angenommen werden. Die zusätzlichen 50 Prozent erklären sich dadurch, dass die Qualität von Bildern, Videos und Musik stetig zunimmt und somit auch immer mehr Speicher erforderlich ist. Außerdem ist dadurch ein gewisser „Puffer“ geboten, wenn kurzfristig eine größere Datenmenge (zwischen)gespeichert werden muss.

2. Verfügbarkeit der Daten:

Des Weiteren sollte man sich auch darüber bewusst werden, von wo aus man wie schnell auf die Daten zugreifen möchte. Mobilität ist durch externe Festplatten selbstverständlich gegeben, jedoch können sie nicht an jedes beliebige Gerät angeschlossen werden. Oft verwendete Daten sind daher am besten in einem Cloudspeicher aufgehoben, da sie hier mit den richtigen Zugangsdaten von nahezu jedem Gerät aus verfügbar sind. Beliebtes Beispiel für eine solche Situation sind die Urlaubsfotos: Um diese auch spontan Familie und Freunden präsentieren zu können, empfiehlt es sich, sie in der Cloud und somit auch für Tablet oder Smartphone verfügbar zu haben anstatt eine externe Festplatte bei sich zu haben. Auch das Teilen von Daten, etwa zur gemeinsamen Bearbeitung durch mehrere Personen, gestaltet sich über eine Cloud am einfachsten und bequemsten, da das mühsame Hin-und-her-Senden per E-Mail entfällt und so ein besserer Überblick über die verschiedenen Versionen gewährleistet werden kann.

3. Backup:

Als Mittel zur Sicherungskopie von Daten eignen sich sowohl die externe Festplatte als auch die Cloud hervorragend. Sollte die interne Festplatte oder der ganze Computer einmal kaputtgehen, können die gesicherten Daten schnell und einfach auf ein neues Gerät übertragen werden. Da aber auch externe Festplatten beschädigt werden können, beispielsweise durch unsachgemäße Lagerung und Handhabung, genießt man durch die Cloud den Vorteil, dass die wiederherzustellenden Daten einfach auf das neue Gerät heruntergeladen werden können. Eine allfällige Datenrettung der externen Festplatte kann auch sehr kostenintensiv sein und darüber hinaus kann nicht garantiert werden, dass sämtliche verlorenen Dokumente, Bilder, Videos etc. wiederhergestellt werden können.

Angebote vergleichen

Nachdem der persönliche Bedarf ermittelt wurde und eine Tendenz entweder in Richtung der externen Festplatte oder in Richtung Cloudspeicher vorliegt, können nun die verschiedenen Angebote geprüft werden. Neben dem Preis sind unter anderem auch Datenschutz und -sicherheit wesentliche Aspekte der Auswahl des Speichermediums:

1. Kosten:

Die Anschaffungskosten für externe Festplatten sind in den letzten Jahren immer weiter gesunken. Eine Festplatte mit einem Terrabyte (1024 Gigabyte) etwa ist schon um weniger als 60 Euro erhältlich. Dem gegenüber stehen oft kostenlose Angebote von verschiedenen Cloud-Anbietern. Anzumerken ist hier jedoch, dass der kostenlose Speicherplatz stark begrenzt ist, meist beträgt dieser nur wenige Gigabytes. Unter diesem Aspekt ist eine solche kleine Cloud nur Personen mit geringem Speicherbedarf zu empfehlen, da jede Erweiterung mit einmaligen oder auch mit monatlichen Kosten verbunden ist. Auch gilt es zu bedenken, dass bei getakteten – also nach Verbrauch abgerechneten – Datentarifen erhebliche Zusatzkosten für den Datentransfer beim Up- und Download in die bzw. von der Cloud anfallen können.

2. Datensicherheit und Datenschutz:

In Zeiten von Datenmissbrauch und Hackerangriffen stellt sich natürlich auch die Frage nach der Sicherheit der eigenen Daten. Besonders sensible Daten sind klarerweise zuhause auf einer externen Festplatte am sichersten aufgehoben. Wird die Festpatte jedoch häufig an verschiedenen Orten verwendet, erhöhen sich die Gefahren von Transportschäden oder des Verlusts bzw. Diebstahls. Aufgrund teils undurchsichtiger Datenschutzrichtlinien von einigen Cloud-Betreibern und der Tatsache, dass sich die Server oft im Nicht-EU-Ausland (hauptsächlich in den USA) befinden, ist es empfehlenswert auf Anbieter aus der Europäischen Union, vorzugsweise sogar aus dem eigenen Land zurückzugreifen.

3. Hardware:

Neben der Speicherkapazität einer externen Festplatte sind noch weitere Faktoren zu beachten, so etwa die Schnittstellen und die dadurch möglichen Datenübertragungsgeschwindigkeiten. Dieser Aspekt ist besonders wichtig, wenn Dateien direkt auf der externen Festplatte bearbeitet werden sollen oder sehr häufig große Datenmengen hin und her verschoben werden müssen.

Natürlich ist auch für die Nutzung einer Cloud Hardware erforderlich, und zwar ganz speziell der Speicherplatz der internen Festplatte. Daten, die in den Cloudspeicher geladen werden, verschwinden nämlich nicht von der Festplatte, sondern werden nur von dort aus in den Online-Speicher kopiert, das heißt mit der Cloud synchronisiert. Wenn von einem anderen Gerät aus eine Änderung an einer Datei in der Cloud vorgenommen wird, wird durch Synchronisation diese veränderte Datei die frühere Version auf der internen Festplatte ersetzen.

Fazit

Es ist nicht zu bestreiten, dass sowohl die externe Festplatte als auch die Cloud ihre jeweiligen Vorteile haben, weshalb für den Privatgebrauch wohl eine Kombination aus beiden am sinnvollsten ist. Oft benötigte und geteilte Daten kommen in den Cloudspeicher, weniger oft verwendete und sehr sensible Daten sind auf der externen Festplatte am besten aufgehoben. Jedenfalls zu empfehlen ist beim Kauf einer externen Festplatte, dass diese einen großen Speicherplatz bietet und vom Hersteller auch Langlebigkeit gewährleistet wird. Für Cloudspeicher gilt zu beachten, dass vor allem aus Datenschutzgründen ein Anbieter gewählt wird, der seine Server in der EU betreibt und sich daher an europäische Datenschutzrichtlinien halten muss.

Google Alternativen im Überblick: So optimieren Sie Ihre Suchanfrage

,

Die Kommission hat 2004 den Ausdruck „Googeln“ in den Duden aufgenommen: Das Verb bezeichnet das gezielte Suchen mit einer Suchmaschine. Es hat Einzug in die alltäglichen Sprachgewohnheiten erlangt, obgleich zahlreiche Google Alternativen zur Verfügung stehen.

Das amerikanische Unternehmen ist zwar Marktführer im Bereich der Suchmaschinen, es existieren jedoch Alternativen. Wir stellen Ihnen die wichtigsten alternativen Möglichkeiten vor. Jede Suchmaschine verfügt über ihre speziellen Vorzüge, beispielsweise einen erhöhten Datenschutz.

DuckDuckGo ist eine der bekanntesten Google Alternativen

DuckDuckGo legt Wert auf Datenschutz

DuckDuckGo – Eine Suchmaschine mit Fokus auf den Datenschutz

Vielen Menschen ist bewusst, dass der Datenschutz bei Google nicht mit den eigenen Wünschen übereinstimmt. Wer eine Alternative sucht, für den ist DuckDuckGo eine gute Wahl. Es handelt sich um die bekannteste der Google Alternativen, die ihren Fokus auf den Datenschutz gelegt hat: Der Anbieter verspricht, keine Nutzerdaten zu sammeln.

Der Erfolg gibt DuchDuckGo Recht: In den USA beispielsweise steigen die Nutzerzahlen dieser Suchmaschine. Nicht nur der Datenschutz ist ein Grund, die Anwender würdigen auch die Qualität der Arbeit. Die Suchmaschine sucht nach Webseiten, Videos und Bildern.

Ixquick und Qwant schützen die Privatsphäre der Nutzer

Der Anbieter IxQuick verspricht, keine IP-Adressen oder sonstige Daten der Nutzer zu sammeln. Er vermerkt nur die Anzahl der täglichen Suchanfragen. Die Metasuchmaschine ermöglicht die Videosuche, die Telefonbuchsuche und die Suche nach Bildern und Texten.

Qwant ist ein französisches Produkt, es steht jedoch eine deutsche Version zur Verfügung. Sie hat sich ebenfalls dem Schutz der Daten gewidmet. Die Verwendung von Google Analytics findet nicht statt. Stattdessen nutzt der Anbieter Piwik, ein Analysewerkzeug, welches die französische Datenschutzbehörde zertifiziert hat.

Wer kein Tracking wünscht, der kann den Einsatz von Piwik untersagen. Nachteilig wirkt sich die gemeinsame Darstellung von Nachrichten, Videos und Social-Media-Beiträgen in einer Ergebnisliste aus.

MetaGer – eine deutsche Alternative

MetaGer fasst Ergebnisse anderer Suchmaschinen zusammen

Es handelt sich bei MetaGer um eine Meta-Suchmaschine. Das Produkt nutzt die Ergebnisse anderer Suchmaschinen und zeigt eine Auswahl der besten Treffer an. Die User können auf Wunsch festlegen, welche Quellen die Suchmaschine nutzen soll. Zudem suchen die Nutzer gezielt nach Nachrichten, wissenschaftlichen Arbeiten oder Bildern.

MetaGer weist einen hohen Datenschutz auf: Der Anbieter speichert keine Cookies ab und sammelt keine IP-Adressen. Die anonyme Nutzung über das Tor-Netzwerk ist möglich.

DeuSu und Exalead machen dem amerikanischen Konzern Konkurrenz in Europa

Bei DeuSu handelt es sich um eine spendenfinanzierte, deutsche Suchmaschine. Der eigene Suchindex umfasst über eine Milliarde Seiten. Der Anbieter gibt an, keine IP-Adressen zu speichern und keine Cookies bei den Nutzern abzulegen. Die Seite ist werbefrei, was für den Nutzer sehr angenehm ist.

Exalead stammt aus Frankreich. Viele Nutzer fühlen sich wohler, wenn sie eine europäische Suchmaschine nutzen. Sie befürchten, dass bei der Nutzung der amerikanischen Suchmaschine die USA den Datenverkehr abhören könnte. Exalead gewährleistet nicht nur den Datenschutz: Die Suchmaschine bietet Zusatzfunktionen, wie die Auswahl der Sprache für die Wikipedia-Suche, an.

Bei Wegtam ist der Daten-schutz gewährleistet

Wegtam – Eine leistungsstarke Meta-Suchmaschine

Wegtam agiert als Meta-Suchmaschine, wodurch sie eine höhere Trefferanzahl erreicht. Die Inhalte entstammen von verschiedenen Suchmaschine, die Treffergenauigkeit erhöht sich. Der Datenschutz ist laut Anbieter gewährleistet.

Das Unternehmen möchte kommerzielle Einflüsse minimieren und ausschließlich relevante Inhalte zur Verfügung stellen. Die User suchen gezielt nach Videos, Social-Media-Beiträgen oder Nachrichten.

Der Datenschutz und die Suche über Unbubble

Die Meta-Suchmaschine gibt an, einen hohen Standard beim Datenschutz zu gewährleisten. Beispielsweise würden sie keine Nutzerstatistiken erstellen. Das Unternehmen analysiert laut eigenen Angaben das Nutzerverhalten seiner Kunden nicht.

Die Darstellung der Ergebnisse erfolgt in sortierter Form. Die erklärten Ziele des Anbieters sind die neutrale Präsentation und Auswahl der Treffer. Die Plattform nimmt die Sortierung anhand der Quellen vor.

Ist der User mit den Ergebnissen noch nicht vollständig zufrieden, so kann er nach alternativen Begriffen suchen. Die Suchmaschine schlägt automatisch in einer Liste verwandte Suchbegriffe vor.

fragFINN – Eine Suchmaschine für Kinder

fragFINN ist eine Alternative zum amerikanischen Konkurrenzprodukt, die sich auf Kinder als Zielgruppe konzentriert hat. Kinder sind im Internet in einem besonderen Maße gefährdet, da viele Seiten nicht kindgerecht sind. Eltern können bei fragFINN beruhigt sein, dass die Kinder nur unbedenkliche Webseiten als Suchergebnisse erhalten.

fragFINN e.V. ist eine Vereinigung von zahlreichen internationalen Unternehmen: Deutsche Telekom, Google, Microsoft und Vodafone sind nur einige der Mitglieder des Vereins. Um den Schutz der Kinder zu gewährleisten, erstellt der Anbieter eine Positivliste. Lediglich die Einträge auf dieser Positivliste sind durchsuchbar. Der Anbieter aktualisiert die Positivliste täglich.

Blinde Kuh ist eine Suchmaschine für Kinder

Die kindgerechte Suchmaschine: Blinde Kuh

Blinde Kuh ist eine Suchmaschine, die sich für Kinder im Alter von 8 bis 12 Jahren eignet. Das Bundesministerium für Familie, Senioren, Frauen und Jugend unterstützt die Webseite finanziell. Der Anbieter ist ein gemeinnütziger Verein. Seit nun mehr 20 Jahren pflegt er das Web-Verzeichnis und zeigt kindgerechte Webseiten an.

Die Suchmaschine ist werbefrei. Die Kinder erhalten zusätzlich zu den Suchergebnissen Hinweise und Tipps zum sicheren Surfen. Für türkischsprachige Kinder steht eine entsprechende Alternative zur Verfügung.

Eine weitere kindgerechte Google Alternative: Helles Köpfchen

Im Gegensatz zu anderen kindgerechten Suchmaschinen finanziert sich Helles Köpfchen über Werbung. Positiv fällt die Eignung als Startseite für Kinder auf. Der Anbieter stellt nicht nur die Suchmaschinenfunktion zur Verfügung, es sind auch diverse Artikel zu sehen. Es handelt sich somit um ein umfangreiches Wissensportal.

Die Kinder erhalten durch Helles Köpfchen Zugang zu zahlreichen unterschiedlichen Informationen: Die Berichte entstammen aus verschiedenen Wissensbereichen. Die Suchergebnisse sind kindgerecht und somit unbedenklich. Der einzige Nachteil ist der Betrieb durch einen kommerziellen Anbieter, in diesem Punkt unterscheidet sich Helles Köpfchen nicht vom amerikanischen Konkurrenten.

Wolfram Alpha – Informationen statt Webseiten

Die Grundidee von Wolfram Alpha unterscheidet sich deutlich von dem Googlekonzept: Der Anbieter möchte Antworten auf Fragen liefern. Im Zentrum steht nicht die Weiterleitung auf Webseiten sondern die Beantwortung von Fragen. Wolfram Alpha durchsucht die Webseiten auf relevanten Inhalt und liefert den Usern Ergebnisse.

Die Suchmaschine ist in der Lage, exakte Antworten auf Fragen zu finden. Möchten Sie beispielsweise ein Veranstaltungsdatum wissen, dann kann dieses geliefert werden. Viele Fragen besitzen jedoch keine eindeutige Antwort, da die Beantwortung mit der persönlichen Wertung verbunden ist. In diesem Fall kann die Suchmaschine kein zufriedenstellendes Ergebnis liefern.

Bei jeder Suche tun Sie Gutes: Benefind hilft

Mit Benefind etwas Gutes tun

Benefind basiert auf der Verwendung der Suchergebnisse von Yahoo. Sie erhalten demnach die gleichen Suchergebnisse wie Yahoo. Der Unterschied liegt im Umgang mit den Werbeeinnahmen: Laut eigener Aussage spendet das Unternehmen für jede zweite erfolgreiche Suche einen Cent für wohltätige Zwecke.

Die User können – wenn sie möchten – festlegen, welche Organisation die Spende erhalten soll. Es stehen Institutionen wie beispielsweise die Welthungerhilfe und Greenpeace zur Auswahl bereit. Benefind gibt an, insgesamt rund 70 Prozent aller Einnahmen zu spenden.

Umweltbewusste Menschen suchen über Ecosia

Ecosia spendet ebenfalls einen Teil seiner Einnahmen für wohltätige Zwecke. Laut eigenen Angaben beträgt der Spendenanteil rund 80 Prozent des erzielten Gewinns. Mit dem Geld wird die Aufforstung unterstützt.

Die Suchergebnisse stammen von der Suchmaschine Bing. Hierbei handelt es sich um die Suchmaschine von Microsoft, einer der größten Suchmaschinen der Welt. Die Treffer sind zwar gleich, die Werbeeinnahmen werden jedoch wohltätig eingesetzt. Das Unternehmen führt an, bereits 2,8 Milliarden Euro gespendet zu haben.

Umlu als umweltbewusste Suchmaschine

Die Alternative Umlu zeigt den Usern im Grunde genommen zwei Listen an: Zum einen erfolgt die Darstellung von Suchergebnissen, die über Google gewonnen wurden. Oberhalb dieser Ergebnisliste finden die Nutzer eine zweite Auflistung. Dort befinden sich die Suchergebnisse aus einer eigenen Datenbank, in welcher sich Einträge von umweltschonend arbeitenden Unternehmen befinden.

Die User erkennen somit den Unterschied und können auswählen, welcher Bereich ihnen wichtig ist. Die Qualität der Suchergebnisse gleicht der Qualität der Google-Suchergebnisse. Umweltbewusste User wählen bei Übereinstimmung mit der Suchanfrage Unternehmen aus dem oberen Bereich aus.

YaCy – ein Projekt des SUMA e.V.

YaCy arbeitet ohne Server

Die Suchmaschine YaCy ist ein Projekt von SUMA e.V.. Bei dem Verein handelt es sich um einen Verein zur Förderung des freien Wissenszugangs. Der Anbieter verfolgt einen dezentralen Ansatz: Wer an dem Suchnetzwerk teilnehmen möchte, der muss eine entsprechende Software downloaden. Die Software steht für unterschiedliche Betriebssysteme (Windows, MacOs und Linux) zur Verfügung.

Google und die meisten Google Alternativen nutzen Server zur Bewältigung der Anfragen. YaCy ist eine der wenigen Suchmaschinen, die dezentrale Lösungen anbietet. Die User laden die Open-Source-Software auf den eigenen Rechner herunter.

Faroo – eine Peer-to-Peer-Suchmaschine

Faroo basiert ebenso wie YaCy auf der Peer-to-Peer-Technologie. Der Anbieter gibt an, bereits mehr als zwei Milliarden Webseiten indiziert zu haben. Der P2P-Client steht ausschließlich für Windows zur Verfügung. Wer mit einem anderen Betriebssystem arbeitet, der kann über die Webseite suchen, jedoch nicht zum Aufbau der Datenbank beitragen.

Nach eigenen Angaben handelt es sich bei Faroo um die schnellste Peer-to-Peer-Suchmaschine. Allerdings muss diese Aussage relativiert werden, da kein objektiver Beweis vorliegt und der Markt im Bereich der Peer-to-Peer-Suchmaschinen klein ist.

Ohloh/Open Hub als Verzeichnis für Open-Source-Projekte

Die Suchmaschine Open Hub durchsucht Open-Source-Codezeilen nach den eingegebenen Keywörtern. Nach eigenen Angaben werden mehr als 21 Milliarden Open-Source-Codezeilen durchsucht. Die User sortieren die Ergebnisse beispielsweise nach Dateierweiterungen, Sprachen oder Projekten.

Bereits im Jahr 2014 erfolgte die Umbenennung der Webeseite von Ohloh in Open Hub. Die User erhalten Zugang zu den Daten wichtiger Open-Source-Software-Projekten und informieren sich über Entwicklungen, Projektgrößen und vieles mehr.

Die Reverse-Bildersuche über Google und über TinEye

Reverse-Bildersuche über TinEye

Bilder finden bei der Suche über Suchmaschinen auf zwei unterschiedliche Weise Berücksichtigung: Zum einen können die User nach Bildern suchen. Zum anderen können sie nach den Webseiten suchen, auf welchen die eingegebenen Bilder vorkommen. Sowohl Google als auch TinEye stellen die sogenannte Reverse-Bildersuche zur Verfügung.

Möchten die Nutzer beispielsweise die Ursprungsquelle eines Bildes in Erfahrung bringen, dann ist die Reverse-Bildersuche eine einfache und unkomplizierte Lösungsmöglichkeit. Obgleich Google Bildersuche wesentlich bekannter ist, hat TinEye diese Suchfunktion zuerst angeboten. TinEye eignet sich für alle Nutzer, die Google Alternativen suchen und gleichzeitig die Reverse-Suche nutzen möchten.

Creative Commons als Suchmaschine für Werke unter CC-Lizenz

Creative Commons hat sich einem Spezialgebiet gewidmet: Der Suche nach unter bestimmten CC-Lizenzen stehenden Bildern und anderen Werken. Wer entsprechende Daten sucht, der wird bei Creative Commons schnell fündig. Die Menge an Informationen ist jedoch aufgrund der Spezialisierung eingeschränkt.

Beim Anbieter handelt es sich um eine gemeinnützige Organisation, die Standard-Lizenz-Verträge zur Verfügung stellt. Die Nutzer erhalten eine einfache Möglichkeit, ihre Werke der Öffentlichkeit zur Verfügung zu stellen. Die Urheber können sich verschiedene Rechte behalten, beispielsweise die alleinige kommerzielle Nutzung.

Die Datenbank umfasst Werke, die unter einer CC-Lizenz stehen. Die User wählen aus verschiedenen Filtern aus, um die Suche zu konkretisieren. Beispielsweise können sich die Nutzer entscheiden, ob sie nur Werke finden möchten, die sie kommerziell nutzen dürfen. Die Suche erfolgt über eine von 13 Plattformen. Zwar können Nutzer auch direkt auf den betreffenden Plattformen nach den CC-Lizenz-Produkten suchen, die Durchführung gestaltet sich über Creative Commons jedoch deutlich einfacher.

Die umfangreiche Videosuche über Blinkx

Blinkx ist eine Alternative zur Google Videosuche. Die Suchmaschine wählt die Treffer nicht nur anhand der Beschreibungen, sondern auch mit Hilfe einer Spracherkennungssoftware aus. Durch diese Maßnahme soll sich die Trefferqualität verbessern.

AOL verwendet die BlinkxVideosuche. Die Spracherkennungssoftware ermöglicht das Sammeln weiterer Meta-Daten, sodass die Nutzer Videos bestmöglich auswählen.

Interessant für die SEO: Über Majestic erfahren Sie mehr über die Backlink-Struktur von Webseiten

Mit Majestic mehr über Backlink-Strukturen erfahren

Backlinks sind Verweise auf eine Webseite. Je mehr (positive) Backlinks eine Webseite verfügt, desto besser stehen ihre Chancen auf ein gutes Google-Ranking. Für die SEO eines Unternehmens ist es interessant, die Backlink-Struktur ihre Konkurrenzen zu kennen. Mit Hilfe dieser Informationen passen die Webseitenbetreiber ihre eigene SEO-Strategie an.

Majestic zeigt die Backlink-Struktur von Webseiten an. Die Nutzer können eine kostenlose Anfrage stellen, für eine weitere Anfrage müssen sie ein Konto erstellen. Das Konto ist nach Angaben des Anbieters kostenlos. Möchten die User die Backlink-Dateien downloaden oder weitere Funktionen nutzen, dann ist allerdings ein kostenpflichtiger Account erforderlich.

Wissenschaftliche Texte über das Internet suchen

WorldWideScience ist eine Suchmaschine für wissenschaftliche Texte. Der Anbieter durchsucht Datensätze auf der gesamten Welt. Die User sortieren die Treffer beispielsweise nach dem Autor, der Art des Textes oder dem Herkunftsland. In den Datenbanken liegen Paper und Multimedia-Inhalte vor.

Der amerikanische Office of Scientific and Technical Information ist der Betreiber der Webseite. Er hat sich der Aufgabe gewidmet, Studierenden, Forschern und allen wissenschaftlich interessierten Menschen die gewünschten Informationen zu liefern. Es handelt sich um eine Spezial-Suchmaschine, die demnach über eine begrenzte Zielgruppe verfügt. Laut Angabe des Anbieters erfolgt die Suche hierzu in mehr als 200 Millionen Dokumenten.

Informationen über Gründer und StartupsCrunchbase ist die richtige Lösung

Crunchbase ist eine spezialisierte Suchmaschine, die sich auf Informationen über Gründer und Startups spezialisiert hat. Die Nutzer informieren sich über Produkte, Investoren und Personen. Die Zielgruppe ist aufgrund der Eingrenzung eingeschränkt, allerdings erlaubt die Suchmaschine die zielgerichtet Suche.

Die Nutzer erhalten über Crunchbase umfangreiche Informationen zu Gründungen und jungen Startups. Sie erfahren, welche Investitionssummen geflossen sind und wer welches Unternehmen besitzt. Wer sich über neue Produkte informieren möchte, der ist bei Crunchbase ebenfalls genau richtig.

Buzzsumo für die SEO benutzen

Buzzsumo als Unterstützung für die SEO

Die sozialen Netzwerke sind ein wichtiger Punkt bei der Gestaltung der SEO. Webseiten-Betreiber versuchen in Erfahrung zu bringen, welche Keywörter bei der Gestaltung der SEO in den sozialen Netzwerken am häufigsten gesucht und genutzt werden. Über Buzzsumo erhalten die Nutzer Antworten auf diese Frage und können bestimmte Keywörter auf ihre Verwendungshäufigkeit überprüfen.

Um den vollen Funktionsumfang nutzen zu können, ist ein kostenpflichtiger Account erforderlich. Zum Austesten der Suchmaschine ist zunächst ein kostenloser Account ausreichend, die Ergebnisse sind allerdings stark eingeschränkt. Wer das Social-Media-Marketing professionell betreiben und Buzzsumo nutzen möchte, der sollte langfristig einen kostenpflichtigen Account erstellen.

Boardreader für die Suche in Internet-Foren

Internet-Foren existieren zu den unterschiedlichsten Themengebieten: Automobile, Heizungsanlagen, Schwangerschaft und vieles mehr. Boardreader ermöglicht die gezielte Suche in den Foren. Einige Experten führen an, Foren seien nicht mehr zeitgemäß. Die hohe Nutzungsrate von Foren widerlegt diese Aussage jedoch.

Wie viele andere Spezial-Suchmaschinen gehört auch Boardreader zu den Google Alternativen, die viele User als Ergänzung zu herkömmlichen Anbietern nutzen. Haben die Nutzer wissenschaftliche Informationen gefunden und möchten Sie beispielsweise ergänzend die Meinung von Experten oder Durchschnittsbürgern in Erfahrung bringen, dann ist Boardreaderdie richtige Suchmaschine.

Bücher finden Sie über Bookfinder

Mit BookFinder Bücher finden

Der Name ist bei dieser Suchmaschine Programm: Über Bookfinder finden die Nutzer Bücher. Es stehen sowohl neue als auch gebrauchte Bücher zur Auswahl bereit. Die Suche erfolgt anhand der ISBN oder des Titels und des Autors.

Bookfinder sucht die Bücher über bekannte Plattformen, wie beispielsweise Amazon oder eBay. Aufgrund der Buchpreisbindung ist für die Nutzer vor allem die Suche nach gebrauchten Büchern interessant. Benötigen Studierende ein bestimmtes Buch, möchten jedoch nur wenig Geld ausgeben, dann ist ein gebrauchtes Produkt ausreichend.

izik sortiert die Suchergebnisse für die Nutzer

Izik nimmt eine Sortierung der Suchergebnisse vor, sodass die Auswahl den Usern leichter fallen soll. Es stehen verschiedene Kategorien zur Verfügung, beispielsweise die Kurzbeschreibung des Begriffs oder Shopping. Das seitliche Scrollen verbessert die Übersichtlichkeit, da die Kategorien alle auf einen Blick erkannt werden können.

Die Motivation der Nutzer unterscheidet sich deutlich: Einige User möchten die Produkte kaufen, andere User wollen sich über die Hintergründe informieren und andere User benötigen Bilder zu den ausgewählten Suchbegriffen. Kategorien wie Shopping, Bilder oder soziale Netzwerke ermöglichen die gezielte Auswahl der relevanten Informationen.

Wacko Search – Die Umkehrung des Suchmaschinen-Prinzips

Wacko Search ist keine ernsthafte Suchmaschine, präsentiert sich jedoch als Suchmaschine. Die Nutzer geben einen Begriff ein und erhalten eine Liste mit Ergebnissen. Allerdings weist die Liste keinen Bezug zum Suchbegriff auf, sondern wird willkürlich zusammengestellt. Wer eine spannende Spaßsuche durchführen möchte, für den ist Wacko Search geeignet.

Wacko Search wird nicht zu den echten Google Alternativen gezählt, ist jedoch auf dem Markt vertreten. Das Portal kann kurzum als Parodie auf den großen Konkurrenten verstanden werden.

Million Short als Suchmaschine für kleine Webseiten

Million Short berücksichtigt kleine Webseiten

Oftmals befinden sich auf den ersten Suchergebnisseiten viele kommerzielle Angebote. Die Webseiten von kleinen Anbietern werden vernachlässigt. Erst ab Seite 10, 20 oder 30 erhalten kleine Webseiten eine Chance. Über Million Short bestimmen die User, wie viele Top-Treffer ignoriert werden sollen. Sie schließen beispielsweise die ersten 100 oder auch 1.000.000 Treffer aus und starten ab höheren Ergebnisseiten.

Das Besondere ist, dass Sie diese Funktion nutzen können, jedoch nicht nutzen müssen. Sie können zuerst eine klassische Suche starten und bei Nichtgefallen die Taktik ändern. Wenn Sie zu den Menschen gehören, die höhere Ergebnisseiten zuerst ansehen, dann ist Million Short eine gute Alternative.

Das Fazit für die Google Alternativen

Auf dem Markt sind zahlreiche Google Alternativen vertreten, die ihre speziellen Eigenschaften aufweisen. Die vorgestellten (kleineren) Anbieter können mit ihren Möglichkeiten nicht mit großen Konkurrenten in den Wettkampf treten: Ob Bing, Yahoo oder ein anderer großer Mitbewerber, die Liste an Google Alternativen ist lang. Kleinere Anbieter spezialisieren sich oftmals auf bestimmte Zielgruppen. Sie entdecken Nischen, beispielsweise die Suche nach wissenschaftlichen Werken.

Die Spezialisierung hat einen Nachteil und Vorteil: Nachteilig wirkt sich die Einschränkung der Suchergebnisse aus. Die Konkretisierung der Suchanfrage ist der große Vorteil dieser Nischenseiten. Suchmaschinen hingegen, die den Aspekt des Datenschutzes in den Vordergrund stellen, können als Google Alternativen zur Konkurrenz für den amerikanischen Konzern werden. Datenschützer kritisieren seit längerer Zeit das Sammeln von NutzerinformationenIP-Adressen und Suchanfragen.

Suchmaschinen, die den Datenschutz gewährleisten, stellen eine gelungene Alternative dar. Spezielle Kinder-Suchmaschinen weisen ebenfalls einen hohen Nutzen auf: Die Kinder profitieren von der Schutzwirkung, da die Anbieter nur kindgerechte Webseiten anzeigen. Für die Nutzer bedeutet die große Vielfalt an Suchmaschinen eine Verbesserung der Suchoptionen: Sie können sich auf eine Suchmaschine konzentrieren oder die Wahl von der jeweiligen Suche abhängig planen.

Was ist ein Terminalserver

,
Terminalserver

Die Funktion eines Terminalservers

Ein Terminalserver wird eingesetzt, um Verbindungen zu mehreren Clients, also Arbeitsplätzen, herzustellen. Dabei sind weder ein Modem noch eine Netzwerkschnittstelle erforderlich. Eingeführt wurde dieses Konzept von Microsoft, als Terminaldienste Bestandteile des Windows-Server-Systems wurden.

Sinnvoll ist das Arbeiten mit der Remote Desktop Verbindung, wie sie auch genannt wird, wenn man  nur wenig standardisierte Programme für die Arbeit benötigt. Die Mitarbeiter starten den PC und verbinden sich mit dem Terminalserver. Die Ausführung der Programme erfolgt direkt auf dem Server, die Rechenleistung wird also dort erforderlich. Dem jeweiligen Unternehmen wird damit ermöglicht, das Hosting von Ressourcen und Anwendungen zu zentralisieren.

Durch eine Remoteverbindung werden die Programme auf den Client-Geräten zugänglich, Plattform und Standort des Endgeräts sind somit unbedeutend. Neben der Zugänglichkeit von jedem Gerät benötigt diese Infrastruktur weniger Wartungsaufwand, die Überwachung der Peripherie ist über ein Dashboard möglich. Ein weiterer Vorteil ist die Aktualität, alle Anwendungen muss man nur einmal installieren und auf dem Server aktualisieren. Einzelne Aktualisierungen der Arbeitsplatz-Geräte sind nicht erforderlich. Teilweise lassen sich damit die Kosten von Lizenzen senken und die Energieeinsparung und die Rentabilität optimieren.

Die Terminalserver-Architektur

TerminalserverFührt Ihr Unternehmen eine neue Anwendung ein, die nicht Web basiert ist und mit der man an verschiedenen Standorten arbeiten soll, lässt sich diese Aufgabe mit einem Terminalserver gut lösen. Jedem Benutzer wird der Zugriff auf die Software ermöglicht, erforderlich dafür ist ein eigenes Gerät.

Zunächst sollten Sie etwas mehr erfahren über die Architektur des Systems: Sie besteht aus drei maßgebenden Komponenten, dem Kern-Server für das Hosting der Ressourcen, dem Remote Desktop, welches die Daten zwischen den Clients und dem Server ermöglicht sowie der Client-Software. Diese muss man auf jedem Client-Computer installieren und sie bewirkt, dass jeder Mitarbeiter eine Serververbindung herstellen kann. Weiterhin sorgt ein Lizenzierungs-Service dafür, dass am Server Lizenzen für die angebundenen Geräte vorhanden ist. Die entsprechende Liste hierzu ist in einem Verzeichnis gespeichert, welche nach Benutzernamen indiziert ist.

Jeder User, der sich mit dem Hauptrechner verbinden möchte, muss über eine CAL verfügen. Die Rolle ist auf dem Lizenzierungsserver installiert, sie ermöglicht es, alle Zugriffe nachzuverfolgen und zu speichern. Um die virtuellen Anwendungen und Desktops bereit zu stellen, verwenden die Dienste ein Remote Desktop Protokoll. Die Daten speichert man ebenfalls auf dem zentralen Rechner, die Architektur stellt also einige Herausforderungen an die Performance. Insbesondere langsame Netzwerkverbindungen machen eine leistungsstarke Peripherie erforderlich.

Die Vorteile nutzen

Vor der Anschaffung einer Terminalserver-Software sollten Sie sich Gedanken machen über die Anforderungen. Oft verwendet werden der Remote Desktop Server von Microsoft, Sun Oracle oder Citrix. Microsoft stellt mit seiner Serverrolle komplette Desktops oder einzelne Anwendungen bereit. Jeder User arbeitet direkt oder parallel zum Windows Server und alle haben die Möglichkeit, auf die zentral installierte Software zuzugreifen.

Die Anzahl der Benutzer, die gleichzeitig auf den Terminalserver zugreifen können, hängt von der Server-Hardware und den Anwendungen ab. Die Clients der einzelnen Benutzer dienen zur Verbindung zum Hauptrechner und geben Ausgabe- und Eingabevorgänge wie Drucker, Maus oder Grafik weiter. Der TS lässt sich virtualisieren, eigene Hardware für den Server ist nicht erforderlich.

Die Software macht eine einfache Administration möglich, die Backup-Verwaltung erfolgt zentral auf dem Terminalserver, die Wartung ist auf den Host zentralisiert. Positive Faktoren sind die Senkung der Kosten für die einzelnen Anwender, die Minimierung der Einzelkosten je Arbeitsplatz sowie eine energiesparende und langlebige Struktur.

Die gesamte IT gewinnt hohe Zuverlässigkeit und ermöglicht ein effizientes und schnelles Wachstum. Kurzfristige Reaktionen auf Änderungen sind möglich, hohe Sicherheit bei der Übertragung der Daten ist gewährleistet und der Zugriff kann zu jeder Zeit von jedem Ort erfolgen. Zusätzlich lässt sich der Datenzugriff der einzelnen Anwender beschränken, beim Ausfall eines Endgeräts besteht keinerlei Beeinträchtigung der Daten.

Das Windows System

TerminalserverMit den Remote Desktop-Diensten von Microsoft ist es möglich, die einzelnen Anwendungen auf verschiedenen Geräten, unabhängig vom jeweiligen Betriebssystem, zu starten. Die Anwendung läuft auf dem Remote Server, der Benutzer baut durch den Client eine Verbindung auf und startet die Sitzung. Windows basierte Programme, die schwer zu verwalten sind oder vielen Aktualisierungen unterliegen, lassen sich gut handhaben. Windows 2008 R2 lässt sich als Remote Desktop installieren und stellt den Usern die Anwendungen zentral zur Verfügung. Des Weiteren kann man weitere Applikationen lokal installieren, nicht alle Programme müssen zentral auf dem Terminalserver installiert sein. Den öffentlichen Sitzungen kann man eine virtuelle IP-Adresse zuweisen, so ist eine eindeutige Definition im Netzwerk möglich. Beim Windows Server 2008 R 2 lässt sich zusätzlich eine virtuelle Umgebung bereitstellen. Der Systemdienst von Microsoft verwendet ein RDP (Remote Desktop Protocol) für die Verbindung.

Fazit

Ein Terminalserver ermöglicht das komfortable Arbeiten einzelner User über eine Remote Desktop Verbindung. Dabei spielt der Standort des Endgeräts keine Rolle. Ihre Mitarbeiter können über VPN-Verbindungen bequem vom Home-Office aus arbeiten. Die zentrale Administration bringt einige Vorteile, vor allem auch bei langsamen Internetverbindungen. Da die Programme beim Anwender als Bildschirminhalt angezeigt werden, kann es bei anspruchsvollen Grafikprogrammen oder ähnlichem teilweise zu Beeinträchtigungen kommen. Weiterhin sollten Sie bedenken, dass ein schief gelaufenes Software-Update oder eine fehl geschlagene Programminstallation sofort alle Mitarbeiter betreffen. Know How bei der Einrichtung der IT-Struktur ist gefragt.

cmd-Befehl – Grundlagen und Einsatzbereiche bei Windows

cmd-Befehl

Es gibt eine ganze Vielfalt an cmd-Befehlen, die in der ein oder anderen Situation am Windows Computer von Bedeutung sind. Aus diesem Grund informiert dieser Artikel über die wichtigen Basics im Bereich cmd-Befehl und über die Wirkung, die durch die Eingabe des jeweiligen Befehls eintritt.

Die wichtigsten Grundlagenbefehle

  • call: Mit der Befehlseingabe wird eine Batchdatei über eine andere Datei aufgerufen. Die Aufforderung Call gehört zu den am häufigsten genutzten im Bereich cmd-Befehl.
  • cd: Die Eingabe dieser Aufforderung erzeugt den Wechsel des Verzeichnisses und dient als Grundlage, um in einem anderweitigen Verzeichnis nach den gewünschten Informationen zu suchen.
    • cd..: ein Wechsel in das übergeordnete Verzeichnis wird vorgenommen.
    • cd/: ein Wechsel in das Root Verzeichnis
  • cls: Kurz und bündig: Die Bildschirmausgabe wird sofort nach der Eingabe und deren Bestätigung gelöscht.
  • cmd: Ehe man überhaupt einen Befehl erteilen kann, muss man die Eingabeaufforderung starten. Der Start erfolgt über die Eingabe cmd. Daraufhin erscheint ein schwarzes Eingabefeld, in dem man Befehle eingeben kann.
  • color: Die Konsolenfarbe ist nicht statisch, sondern diese kann man auf den individuellen Anspruch anpassen.
  • date: Hier lässt sich das Datum anzeigen und verändern.
  • dir: Der Inhalt des Verzeichnisses wird in vollständiger Darstellung erzeugt.
    • dir/p: der Inhalt wird seitenweise dargestellt.
    • dir/w: detaillierte Informationen werden hier im Inhalt weggelassen.
    • dir/s: neben dem Inhalt werden hier auch die Unterverzeichnisse aufgezeigt.
  • echo: Bei dieser Befehlseingabe handelt es sich um die Aufforderung zur Textausgabe. Des Weiteren zeigt sie auch Meldungen in der Konsole an, kann aber auch die Befehlsanzeige ein- bzw. ausschalten.
  • exit: Die Eingabeaufforderung (cmd.exe) oder eine geöffnete Batchdatei werden beendet.
  • find: Dieser Befehl ist die Basis der Suche und wird mit der Ergänzung des Gesuchten versehen. Konkret sucht das System mit der eingegebenen Zeichenfolge nach einer oder mehreren Dateien.
  • cmd-Befehl

    cmd.exe Darstellung beim Start

    pause: Die Ausführung einer Batchdatei wird für den Moment des Pausenbefehls unterbrochen. Auf dem Bildschirm erscheint dann die Nachricht „Drücken Sie eine beliebige Taste…“

  • runas: Das Programm wird nicht als Administrator sondern als externer Benutzer gestartet.
  • shutdown: Der PC wird heruntergefahren und schaltet sich vollständig aus oder aber auch nur neugestartet.
  • sort: Die Bildschirmausgabe wird übersichtlich sortiert.
  • start: Mit dem Befehl Start kann man ein Fenster oder ein Programm starten, mit dem dann weitere Befehle oder Ausführungen möglich sind.
  • taskkill: Die geöffneten Prozesse werden beendet.
  • tasklist: Alle Anwendungen und die dazugehörigen Tasks oder Prozesse werden angezeigt.
  • time: Über diesen cmd-Befehl lässt sich die Uhrzeit anzeigen und auf Wunsch verändern.
  • title: Der Titel für die Eingabeaufforderung wird festgelegt.
  • ver: Hier wird die aktuelle Version des Betriebssystems angezeigt.
  • w32tm: Dieser Befehl ermöglicht die Einstellung der Zeitsynchronisation und der Zeitserver. Außerdem lassen sich auch verschiedene Zeitzonen einstellen.

Wichtige Netzwerkbefehle bei Windows

  • ftp: Die Dateien über das File Transfer Protocol (FTP) zu einem Server übertragen. Diese lassen sich dann auch herunterladen.
  • ftype: Hier lassen sich der Dateityp und die Zuordnung abrufen.
  • ipconfig: Dieser Befehl gibt Auskunft über die IP-Netzwerkeinstellungen.
  • netsh: Die Netzwerkkomponenten können über cmd konfiguriert, gesteuert sowie angezeigt werden.
  • netstat: ruft TCP IP-Verbindungen und deren Status ab.
  • nslookup: Der Befehl lässt den DNS Server abfragen.
  • pathping: Die Verbindung zu einer bestimmten IP-Adresse kann man auf ihre Funktionalität testen. Außerdem lassen sich die einzelnen Hops bis zur Zieladresse anzeigen.
  • ping: Der Ping ins Netzwerk erfolgt. Das bedeutet lediglich, dass man eine Verbindung zu einem anderen Rechner testet.
  • route: Die Ansicht der Routingtabelle sowie die Implementierung statischer Routen sind möglich.
  • systeminfo: Die Hotfixes Netzwerkseinstellungen kann man prüfen und gegebenenfalls ändern. Des Weiteren lassen sich allgemeine Informationen über die Systemkonfiguration abfragen.
  • telnet: Hier wird eine Telnetverbindung aufgebaut.
  • tftp: Start einer Dateiübertragung zu einem TFTP Server.
  • tracert: Der CMD Befehl macht die Routenverfolgung ähnlich der Pathping Befehlseingabe möglich.

Dateien abrufen und anzeigen mit einem cmd-Befehl

  • attrib: Der Befehl ruft die Dateiattribute ab. Diese kann man dann gegebenenfalls abändern.
    • attrib A: Datei ändern oder archivieren.
    • attrib +H: Datei verstecken.
    • attrib -H: Datei wieder sichtbar machen.
    • attrib +R: Einschaltung des Schreibschutzes.
    • attrib -R: Abschaltung des Schreibschutzes.
    • attrib s: Datei als Systemdatei kennzeichnen.
  • comp: Dateiinhalte lassen sich vergleichen.
  • compact: Die Komprimierung und Änderung sowie die Anzeige der Daten erfolgt. Des Weiteren kann man diese auch abändern.
  • copy / xcopy: Dateien werden kopiert. Dabei eignet sich xcopy eher dafür, es ist quasi eine verbesserte Art des Kopiervorganges.
  • diskcomp: Der Befehl bezieht sich auf externe Medien und formuliert den Vergleich zweier Disketten oder CDs.
  • diskcopy: Daten eines externen Laufwerks auf ein anderes externes Speichermedium schrieben.
  • erase / del: Eine oder mehrere Dateien kann man über diesen Befehl löschen. Der Befehl del kann aber keine Ordner löschen.
    • del /s: löscht nicht nur die Datei, sondern auch ihre Unterordner
  • expand: Die gewünschten komprimierten Dateien lassen sich mit diesem cmd-Befehl zuverlässig entpacken.
  • fc : Hier handelt es sich um einen Dateivergleich, der alle Unterschiede aufzeigt und strukturiert darstellt.
  • mkdir / md: Ein Verzeichnis kann man hiermit anlegen.
  • move: Die Verschiebung und / oder Umbenennung der Dateien oder Ordner beauftragen.
  • rename: Dateien umbenennen und mit einer neuen Bezeichnung versehen.
  • replace: Dateien vollständig und unwiderruflich ersetzen.
  • rmdir / rd: Das vollständige Verzeichnis lässt sich von der Festplatte löschen. Dieses muss aber für einen erfolgreichen Löschvorgang leer sein.
    • re s/: das Verzeichnis kann man auch hiermit löschen. Dieses muss aber nicht leer sein.
  • tree: Die Struktur eines Ordners wird graphisch dargestellt.
  • type: Mit diesem Befehl lassen sich Inhalte von Textdateien anzeigen. Ebenso dieser Befehl gehört zu den meist verwendeten im cmd Bereich.

Verschiedene cmd-Befehle für Datenträger

  • chkdsk: Einen Datenträger umfassenden überprüfen.
  • chkntfs: Die Datenträgerüberprüfung / das Laufwerk beim Start anzeigen und überprüfen.
  • defrag: Die Defragmentierung von Laufwerken in Auftrag geben.
  • diskpart: Hierbei handelt es sich um einen cmd-Befehl im Bereich Datenträgerverwaltung aus der Konsole.
  • driverquery: Alle installierten Geräte und deren Eigenschaften lassen sich mit diesem Befehl anzeigen.
  • format: Dieser cmd-Befehl formatiert einen Datenträger neu.
  • mode: Schnittstellen und Geräte lassen sich jetzt konfigurieren.
  • mountvol: Hier kann man Laufwerksbuchstaben (Mountpoints) zuweisen und / oder löschen.
  • vol: Dieser Befehl zeigt die Seriennummer und Bezeichnung eines Datenträgers an.

Andere cmd-Befehle im Überblick:

  • for: Hier wird die For-Schleife abgerufen. Diese Schleife ermöglicht, dass man Befehle mehrfach ausführen kann.
  • gpresult: Die Anzeige von Gruppenrichtlinien, die momentan aktiv sind, löst dieser cmd-Befehl aus.
  • gupdate: Gruppenrichtlinien kann man hiermit aktualisieren.
  • prompt: Aktuelle Eingabeaufforderungen lassen sich dadurch ändern.
  • reg: Registrierungseinträge lassen sich lesen und hinzufügen. Außerdem lassen sie sich importieren oder auf Wunsch auch exportieren.

Was heißt archivieren?

,

In der Büroorganisation stellt die Archivierung seit Jahrzehnten ein wichtiges Thema dar. Schließlich gibt es für wichtige Dokumente und Belege gesetzlich vorgeschriebene Aufbewahrungsfristen. Dies bedeutete für viele Unternehmen, hunderttausende von Blättern in Papierform zu lagern. Ein enormer Platzbedarf war und ist die Folge, sofern das Unternehmen an der althergebrachten Archivierung der Geschäftsdokumente festhält. In den letzten Jahren wurde mit der Einführung der digitalen Archivierung zumindest das Platzproblem optimal gelöst. Doch was gilt es in der digitalen Welt beim Archivieren zu beachten?

Digitalisierung von Geschäftsdokumenten – die gesetzlichen Vorgaben erfüllen

Wer die aufzubewahrenden Unterlagen digital archivieren möchte, muss zunächst für Revisionssicherheit sorgen. Um die gesetzlichen Bestimmungen erfüllen zu können, müssen die Inhalte der Dokumente unverändert und fälschungssicher gespeichert werden. Selbstverständlich muss sichergestellt sein, dass keine Daten verloren gehen können und die Inhalte jederzeit auffindbar bleiben. Wenn auf das digitale Archiv zugegriffen wird, muss über jede Handlung ein Protokoll erstellt werden, um die Zugriffe nachvollziehbar zu machen. Natürlich muss das archivierte Material sicher aufbewahrt werden, so dass während der Aufbewahrungszeit keine Daten verloren oder zerstört werden können. Das genutzte Archivierungssystem muss für die Datensicherheit und den Datenschutz entsprechend ausgelegt sein.

Wie wird aus Geschäftsdokumenten in Papierform ein digitales Archiv?

Archivieren im PapierformatWer das Aktenarchiv auf ein digitales Aufbewahrungssystem umstellen will, hat zunächst eine Menge Arbeit vor sich. Denn jedes einzelne Blatt Papier muss zunächst einmal digital erfasst werden. Dies bedeutet, dass jedes Dokument mit einem Scanner eingelesen und digitalisiert werden muss. Dabei sollte natürlich genau auf die verbleibende Aufbewahrungszeit geachtet werden. Genau wie vorher die Aktenordner müssen die digitalen Datenträger nun sicher aufbewahrt werden, so dass keine Daten zerstört werden oder verloren gehen können. Die Archivierung muss entsprechend protokolliert und organisiert sein, so dass Dokumente zeitnah aufgefunden werden können. Zudem müssen alle Dokumente in der Originalfassung wieder ausgedruckt werden können.

E-Mail-Archivierung – ein neues Metier für Unternehmen

E-Mails sind ebenfalls wichtige Dokumente, die entsprechend der aktuellen Gesetzgebung archiviert werden müssen. War es früher ausreichend, die E-Mails in gedruckter Form aufzubewahren, so muss seit Beginn des Jahres 2017 jede E-Mail auch als digitaler Datensatz archiviert werden. Zwar verfügen die meisten E-Mail-Programme über eine Archivierungsfunktion, doch genutzt wurde diese bisher von Unternehmen eher selten.

Wie werden E-Mails korrekt archiviert?

E-Mails richtig archivierenElektronische Korrespondenzen und Kommunikation muss ebenfalls nach gewissen Anforderungen archiviert werden. Eine Archivierungssoftware für E-Mails ist da sehr hilfreich, sofern einige Aufbewahrungskriterien erfüllt werden. Die E-Mails müssen wie alle Dokumente ordnungsgemäß, vollständig und in Übereinstimmung mit dem Original archiviert werden. Zudem sollte die E-Mail-Archivierung möglichst frühzeitig erfolgen. Natürlich müssen alle E-Mails wieder auffindbar und reproduzierbar aufbewahrt werden. Eine Vernichtung der archivierten E-mails darf erst nach dem Ablauf der Archivierungspflicht erfolgen. Alle Änderungen im E-Mail-Archiv müssen detailliert protokolliert werden. In der Regel beträgt die Aufbewahrungszeit für E-Mails bei 6 bis 10 Jahren.

Vorteile der digitalen Datenarchivierung

Dokumente in Schriftform nehmen in Aktenordnern eine Menge Platz ein. Da in digitaler Form solche Dokumente zu Tausenden auf einem kleinen Datenträger gespeichert werden können, benötigen Unternehmen entsprechend weniger Lagerraum. Da die Sicherheitsanforderungen in Sachen Brandschutz und Co. ähnlich sind, können die digitalen Datenträger entsprechend untergebracht werden. Einzig die Datensicherheit und der Datenschutz müssen eine besondere Aufmerksamkeit erhalten. Für Unternehmen bringt das Archivieren in digitaler Form also nicht nur einiges an Arbeit mit sich, sondern auch gewisse Vorteile in Sachen Platzbedarf und Organisation.

Sichere Aufbewahrungsorte für die digitalen Daten

Da digitale Datenträger geschützt untergebracht werden müssen, stellen einige Dienstleister entsprechende Serviceleistungen bereit. Dazu zählen spezielle Räumlichkeiten ebenso wie Cloud-Lösungen. Die Wahl des Archivierungssystems ist natürlich immer abhängig von den individuell anfallenden Dokumentenzahlen und Inhalten, die das Unternehmen archivieren muss. Wer mit der digitalen Archivarbeit beginnt oder das System umstellen möchte, sollte darauf achten, dass die entsprechenden gesetzlichen Regelungen eingehalten werden können.

10 Mythen aus dem IT-Bereich – was ist dran?

Wie in fast allen Bereichen des Lebens gibt es auch rund um den Computer eine ganze Reihe von Ratschlägen und Warnungen, die sich hartnäckig in den Köpfen der meisten User festgesetzt haben. Welche sind ernstzunehmen und welche sind längst überholt? IT-Experten bringen Licht in das Dunkel der IT Mythen.

Mythos Nr. 1: Computer immer herunterfahren, niemals einfach ausschalten!

Diese Mahnung hat jeder gehört, als er sich von einem erfahrenen Nutzer zum ersten Mal in die Geheimnisse eines PCs oder Laptops einweihen ließ. Der Computer würde Schaden nehmen, wenn er ohne Herunterfahren einfach mit dem Powerknopf ausgeschaltet wird. Ganz so dramatisch wie es sich anhört, ist es jedoch nicht. Die Hardware nimmt keinen Schaden, wenn zum Beispiel ein Stromausfall die Arbeit am Computer abrupt beendet.

Allerdings müssen Sie in einem solchen Fall damit rechnen, dass nicht gespeicherte Daten verloren gehen. Werden beim ‚Hardware Reset‘ unglücklicherweise Updates oder Schreibprozesse an der Software unterbrochen, kann es zu unangenehmen Fehlern am Betriebssystem oder an Anwender-Software kommen. Diese Regel gehört also zu den IT Mythen, die einen ernstzunehmenden Hintergrund haben und die Sie darum besser beherzigen sollten.

Mythos Nr. 2: Mindestens 15 Sekunden bis zum Neustart warten

IT Mythen NeustartGelegentlich kommt es vor, dass man den Rechner herunterfährt und anschließend sofort wieder in Betrieb nehmen muss. Bei den ersten PCs, die auf den Markt kamen, war es in einem solchen Moment tatsächlich empfehlenswert, etwa eine Viertelminute mit dem Neustart zu warten.

Der Lesekopf der Festplatte benötigt etwas Zeit, um in die Ausgangsposition zurückzukehren. Bei modernen Rechnern sind für diesen Vorgang 5 Sekunden völlig ausreichend. Erfolgt in diesem Moment ein Neustart, kann die Festplatte tatsächlich Schaden nehmen.

Um jedes Risiko auszuschalten, sollte diese kurze Zeitspanne einhalten. Selbst die wichtigste E-Mail kann fünf Sekunden warten. Eine möglicherweise auftretende Störung zu beseitigen, nimmt wesentlich mehr Zeit in Anspruch.

Mythos Nr. 3: Sicherheitshalber mehrere Anti-Viren-Programme installieren

Wie wichtig es ist, PC, Laptop oder Tablet vor schädlicher Software zu schützen, hat sich herumgesprochen. Mancher denkt: „Doppelt hält besser“, und installiert sicherheitshalber gleich zwei oder sogar mehrere Anti-Viren-Programme. Vielleicht spürt ein Programm den Trojaner auf, der in der Datenbank des anderen Anti-Viren-Programms noch nicht enthalten ist?

Die Überlegung ist nachzuvollziehen. Trotzdem sollten Sie sich auf ein bewährtes Anti-Viren-Programm beschränken.

Bei der Installation zweier Anti-Viren-Programme könnte es passieren, dass sich die beiden Programme gegenseitig blockieren, weil eine Software die andere als Malware identifiziert. Selbst wenn das nicht passieren sollte, kann das Arbeitstempo des Rechners durch doppelten Virenschutz herabgesetzt werden. Das kann die Freude am Arbeiten empfindlich stören.

Mythos Nr. 4: Apple Geräte bleiben von Malware verschont

Viele schwören auf ihren Apple-Computer. Es ist unbestritten, dass die Technik aus dem Hause Apple ihre Stärken und Vorzüge hat. Dass das Logo mit dem angebissenen Apfel vor Ärger mit Trojanern & Co schützt, gehört jedoch in das Reich der IT Mythen.

Warum sich dieses Gerücht so hartnäckig hält, lässt sich erklären. Noch immer haben Apple-Geräte ein hohes Prestige, das sich das kalifornische Hightech-Unternehmen fürstlich honorieren lässt. Wegen des hohen Preises ist die Zahl der Apple-Fans noch immer begrenzt.

Weltweit gibt es deutlich mehr Computer, die Windows als Betriebssystem nutzen, als Apple-Geräte. Für Hacker war es darum viele Jahre lang wesentlich lukrativer, Schadprogramme zu schreiben, die Windows Schwachstellen angreifen.

Mit zunehmender Verbreitung der Apple-Geräte wächst die Zahl der Angriffe auf die Apple-Technik kontinuierlich. Falls Sie stolzer Besitzer eines Apple-PCs , Notebooks oder iPads sein sollten, müssen Sie auch diese Geräte unbedingt mit der entsprechenden Software vor Viren und Trojanern schützen.

Mythos Nr. 5: Bildschirmschoner nutzen, um ein Einbrennen zu verhindern

Noch vor wenigen Jahren flimmerten auf jedem Desktop mehr oder weniger auffällige Muster in bunten Farben oder es bewegten sich Figuren langsam über den Bildschirm.

Zweck dieser sogenannten Bildschirmschoner ist es, das sogenannte Einbrennen von Bildpunkten auf dem Bildschirm zu verhindern.

Bei Röhrenmonitoren ist diese Vorsichtsmaßnahme sinnvoll, wenn man den Rechner über einen längeren Zeitraum hinweg nicht benutzt.

In den meisten Büros wurden die klobigen Röhrengeräte mittlerweile durch flache Bildschirme ersetzt. Diese modernen Monitore sind nicht nur platzsparend, sondern verbrauchen auch deutlich weniger Energie. Ein Einbrennen von Bildpunkten ist bei dieser Technik nicht zu befürchten.

Auf den Bildschirmschoner können Sie darum bei flachen Monitoren verzichten. Es sei denn, Sie haben ein Motiv, das Sie während einer wohl verdienten Arbeitspause immer wieder gern betrachten.

Mythos Nr. 6: Beim Leeren des Papierkorbs werden Daten unwiederbringlich vernichtet

Sie haben Daten in den Papierkorb verschoben und ihn anschließend geleert? Falls Sie kurze Zeit später bemerken, dass Sie einen Fehler gemacht haben, müssen Sie umgehend handeln.

Mit dem Leeren des Papierkorbs signalisieren Sie der Software, dass der freigesetzte Speicherplatz überschrieben werden kann. So lange Sie keine neuen Daten gespeichert haben, ist es darum nicht zu spät.

Mit Hilfe spezieller Tools lassen sich die gelöschten Daten in den meisten Fällen retten – vorausgesetzt Sie handeln umgehend.

Mythos Nr. 7: Akkus erst aufladen, wenn sie völlig entladen sind

Meist ist der Akku des Laptops im ungünstigsten Moment leer. Darum ist es sinnvoll, rechtzeitig für frische Power zu sorgen. Im Prinzip logisch, aber nimmt der Akku nicht Schaden, wenn man ihn zu häufig lädt?

Diese Sorge kann man heute zum Glück in das Reich der IT Mythen verbannen. In den letzten Jahren hat es im Bereich der Akku-Technologien deutliche Fortschritte gegeben. Akkus der neueren Generation haben eine deutlich höhere Speicherkapazität und können schneller aufgeladen werden.

Sie brauchen nicht zu warten, bis die Kapazität erschöpft ist. Im Gegenteil, eine völlige Entladung des Akkus schadet sogar. Untersuchungen haben gezeigt, dass die Lebensdauer eines Akkus steigt, wenn die Ladung nach Möglichkeit immer im Bereich zwischen 30 % und 70 % der maximalen Kapazität liegt.

Mythos Nr. 8: USB-Stick nicht einfach herausziehen

IT Mythen USBIm letzten Moment vor der Abfahrt ist die Präsentation auf dem USB-Stick gespeichert. Schnell das Speichermedium entnehmen und in das Auto steigen?

Nach Auffassung vieler, würde ein solches Vorgehen dazu führen, dass die Daten verloren gehen und der USB-Stick möglicherweise sogar Schaden nehmen könnte. Erst muss man das Speichermedium abmelden und dann können Sie es aus dem USB-Port entnehmen.

Wer auf Nummer sicher gehen will, meldet den USB-Stick ab und entnimmt ihn erst dann. Ob diese Sicherheitsmaßnahme zwingend erforderlich ist, hängt unter anderem vom verwendeten Betriebssystem ab.

Mythos Nr. 9: Magneten zerstören Festplatten und andere Speichermedien

Falls Sie häufig mit dem Laptop auf Reisen gehen, haben Sie sich sicherlich schon manchmal gefragt, ob die gespeicherten Daten unterwegs durch Magnete oder andere Strahlen gelöscht oder geschädigt werden könnten.

Noch vor wenigen Jahren wurden Fluggäste vor der Sicherheitskontrolle gefragt, ob sich Geräte mit Festplatte im Gepäck befinden. Diese wurden dann nicht durch das Röntgengerät geschickt.

Heute ist die Kontrolltechnik wesentlich sensibler und elektronische Geräte werden bei solchen Kontrollen nicht gefährdet. Aber auch im Alltag müssen Sie Ihren USB-Stick oder den Laptop nicht ängstlich vor kleineren Magnetfeldern abschirmen Teilweise gehört dies zu den IT Mythen, aber eine gewisse Vorsicht sollten Sie jedoch bei den innovativen Neodym Magneten walten lassen. Deren Magnetfelder sind deutlich stärker.

Mythos Nr. 10: CDs und DVDs möglichst nicht mit bloßen Händen berühren

Das ist eine der ältesten IT Mythen, seit es die silbernen Scheiben gibt. Aus unserem Alltag sind CDs und DVDs nicht mehr wegzudenken. Ganz gleich, ob darauf ein ganzer Kinofilm oder die Fotos vom letzten Urlaub gespeichert sind.

Doch wie empfindlich sind diese leistungsfähigen Speichermedien wirklich? Mit Samthandschuhen muss man sie jedenfalls nicht anfassen. Trotzdem ist es sinnvoll, die glänzenden Scheiben stets in einer schützenden Hülle aufzubewahren. So werden Staub und Verschmutzungen fern gehalten und die Oberfläche wird beim Transport im Rucksack oder in der Aktentasche nicht zerkratzt.