Firefox, Mobile Safari und Google Chrome

Firefox 1.0, 2004

Zum Beginn des neuen Jahrtausends und darüber hinaus übernahm der Internet Explorer die Browser-Welt, obwohl nicht alle mit dem Produkt zufrieden waren. Einige meinten, dass der Explorer unnötig schwerfällig sei. Andere waren wegen der Sicherheitsfragen beunruhigt und die User hatten das Gefühl, dass ihnen der Browser als Teil des Windows-Pakets „aufgezwungen“ wurde.

Natürlich wurde er nicht aufgezwungen. 2004 wurde der vielversprechende Open-Source-Browser Firefox 1.0 veröffentlicht. Er basierte auf dem Navigator von Netscape und war ein Nebenprodukt von der Mozilla Foundations Application Suite. Firefox war bei weitem nicht perfekt, etablierte sich allerdings mit der Zeit.

Mobile Safari, 2007

Steve Jobs Safari erschien erstmals 2003. 2007 folgten die Versionen für Windows-Rechner. Doch diese konnten sich in der Desktop-Umgebung nicht so richtig durchsetzen.

Bei der mobilen Versionen sah es anders aus. In einer Welt bestehend aus iPhones, iPads und weiteren Apple-Produkten war die Akzeptanz für Mobile Safari größer. Diese Version etablierte sich in drei Jahren.

Google Chrome, 2008

Chrome hat seinen Weg an die Spitze geschafft und den Internet Explorer sowie Firefox auf dem Weg zum beliebtesten Browser überholt. Aber in seiner Geschichte hat keine Version für so viel für Aufsehen gesorgt wie die erste.

Obwohl Google jahrelang behauptete keinen Browser zu wollen, stellte das Unternehmen eine Schar von Ex-Firefox-Entwickler ein, entwickelten den besten Code und ließen ihn auf der populären HTML-Rendering-Engine mit Namen WebKit laufen. Heute ist Chrome minimalistisch und schnell. Sein dramatischer Aufstieg ist einzigartig.

Opera, Netscape Navigator und Internet Explorer

Opera, 1994

Das skandinavische Unternehmen Opera Software ASA entwickelte den gleichnamigen Browser. Während andere Browser kamen und gingen, hat Opera seinen (zugegebenen kleinen) Desktop-Marktanteil stetig gehalten und langsam seine Reichweite vergrößert.

Opera gibt es für Nintendo Wii und DS, iPad und Android-Tablets, Smartphones, PDAs und andere mobile Geräte.

Netscape Navigator 3, 1996

Zwei Jahre nach der Veröffentlichung des ursprünglichen Browsers Navigator kam die Version, die das Internet allgegenwärtig machte. Es war eine aufregende Zeit für Netscape: Drei von vier Usern verwendeten ein Netscape-Produkt.

Navigator 3 wurde mit weniger bahnbrechenden Konzepten als Navigator 2 ausgeliefert. Die Verantwortlichen verließen sich zu einem gewissen Grad auf die Popularität seiner Vorgänger. Ferner befassten sie sich mit den Fehlern der früheren Versionen.

Internet Explorer 3, 1996

Der „Browser-Krieg“ begann: Microsoft veröffentlichte fast zeitgleich mit Netscape 3 seinen Internet Explorer 3. Er überholte bald Netscape.

Zu diesem Zeitpunkt war die Produktqualität von Netscape unbestritten. Microsoftbrauchte scheinbar ein wenig Zeit, um das Internet vollständig zu entdecken. Die Explorer-Versionen 1 und 2 waren nicht spektakulär. Mit der engen Integration zu Windows hatte Microsoft aber eine solide Nutzerbasis. Die dritte Version erschien mit coolen neuen Features, wie die Unterstützung für Multimedia-, Java-Applets, ActiveX-Steuerelementen und Add-Ons wie Internet-Mail.

Browser-History: Die 10 wichtigsten Meilensteine

Internet ohne Browser? Unvorstellbar! Internet Explorer, Navigator, Opera: Wir haben die zehn wichtigsten Meilensteine in der Geschichte für Sie zusammengestellt.

Das WWW ist ein wichtiger Bestandteil des Internets, das unser Leben verändert hat. Wichtigstes Werkzeug des World Wide Web ist der Browser. mit dem wirvon einer Seite zur nächsten surfen. Ohne diese Software hätte das Internet seinen Siegeszug nie angetreten. Die Browser entwickelten und entwickeln sich aber immer weiter. Die Kollegen von unserer Schwesterpublikation PC-World hat die zehn wichtigsten Meilensteine in der Browser-Geschichte zusammengefasst.

ARPANET, 1969

1969 nahmen die Beatles „The End“ auf und zwei Menschen landeten auf dem Mond. Von PCs und Internet sprachen nur Visionäre und Wahnsinnige. Browser gab es nicht. Es entstand ein kleines Etwas mit dem Namen ARPANET, entwickelt von dem Department of Defense. Ziel war es die Vernetzung der Forschung zu fördern. An ARPANET waren Großrechner von mehreren Universitäten angeschlossen. 20 Jahre lang war ARPANET das Internet.

WorldWideWeb (auch bekannt als Nexus), 1991

1990, zwei Jahrzehnte nach seiner Einführung war das zu heute vergleichsweise langsame und träge ARPANET tot. An seine Stelle traten neuere Netzwerk-Technologien und Konzepte, darunter eines aus der Schweiz. Dieses überstand nicht nur die Zeit sondern veränderte für immer unsere Kultur. Es hieß das World Wide Web und wurde 1989 von Tim Berners-Lee, einem britischen Wissenschaftler der Forschungseinrichtung CERN „erfunden“.

Zwei Jahre später hatte das World Wide Web seinen ersten Browser, den WorldWideWeb (man beachte das Fehlen von Zwischenräumen). Auch dieser stammte von Berners-Lee und war 1991 der erste leicht verfügbare Zugang zur Online-Welt – das in erster Linie aus CERN-gehörenden Informationen bestand und ohne Erotik-Seiten auskam.

Mosaic, 1993

Mosaic war der erste Browser, der Text und Bilder zusammen anzeigte. Er wurde an der University of Illinois National Center for Supercomputing Applications entwickelt, Hinzukommen seine weite Verbreitung sowie das Fehlen von technischem Hokuspokus. Mosaic war zudem der erste Browser, der vergleichsweise problemlos auf Windows-Computern läuft.

Der Browser blieb für mehrere Jahre populär und bildete schließlich das Fundament für die Web-dominierenden Browser in den 90er Jahren.

Netscape Navigator, 1994

Netscape Navigator war der Nachfolger von Mosaic und wurde zum Großteil vom gleichen Team entwickelt. Marc Andreessen, Entwickler von Mosaic und Mitgründer von Netscape, verbesserte den Nachfolger stark. Er machte das Internet zu einer bunten und lebendigen Stadt. Navigator unterstützte das Laden der Seite direkt beim Aufruf. Auch konnten User Internet-Seiten aufrufen, die über keine universitäre Anbindung sondern über ein DFÜ-Modem mit 14,4 kbit/s Übertragungsgeschwindigkeit verfügten. Des Weiteren beteiligten sich fast alle Unternehmen an der Verbreitung des Internets. Was konnte ein Surfer sich mehr wünschen?

Windows mit Bitlocker & Veracrypt verschlüsseln

Um zu verhindern, dass auf dem eigenen Windows-PC gespeicherte Dateien von Dritten eingesehen oder gestohlen werden können, müssen Sie zu härteren Maßnahmen greifen: der Verschlüsselung.

Ganz gleich, ob digitale Kontoauszüge, Bewerbungsschreiben oder private Fotos und Videos – auf PCs sind Dateien gespeichert, die nicht in die Hände Dritter gelangen sollten. Noch wichtiger ist der Datenschutz bei Notebooks, die auch unterwegs genutzt werden. Denn da Mobilgeräte verloren gehen oder gestohlen werden können, fällt es Unbefugten nicht besonders schwer, an die darauf gespeicherten Daten zu gelangen. Schutz davor bietet – neben einem sicheren Windows-Anmeldekennwort – die Verschlüsselung.

In diesem Artikel zeigen wir, wie sich einzelne Dateien und Ordner sowie Partitionen und komplette Laufwerke verschlüsseln lassen.

Schnelle Verschlüsselung mit Windows-Bordmitteln

Bevor wir auf die erweiterten Verschlüsselungsmöglichkeiten eingehen, möchten wir Ihnen zeigen, wie Sie Dateien und Ordner mithilfe der Windows-eigenen Funktion verschlüsseln. Um unter Windows 10 die EFS-Verschlüsselung (Encrypting File System) nutzen zu können, ist die Pro-Version erforderlich, in der Home-Version ist EFS nicht vorhanden.

Um nun einen Ordner zusammen mit allen enthaltenen Unterverzeichnissen schnell zu verschlüsseln, klicken Sie den Ordner mit der rechten Maustaste an, wählen Sie „Eigenschaften“ und klicken Sie im Register „Allgemein“ auf „Erweitert“. Im folgenden Dialog aktivieren Sie die Option „Inhalt verschlüsseln, um Daten zu schützen“ und bestätigen mit zwei Klicks auf „OK“. Anschließend legen Sie im Dialog „Änderungen der Attribute bestätigen“ fest, ob die Verschlüsselung nur für diesen Ordner oder auch alle enthaltenen Unterverzeichnisse gelten soll und beenden den Vorgang mit „OK“.

Eine Betriebssystemmeldung macht Sie anschließend darauf aufmerksam, dass Sie das Datenverschlüsselungszertifikat und den Schlüssel sichern sollten. Da der Zugriff auf die verschlüsselten Dateien nicht mehr möglich ist, wenn Zertifikat oder Schlüssel beschädigt werden, sollten Sie diesen Rat unbedingt befolgen. Klicken Sie auf „Jetzt sichern (empfohlen)“ und folgen Sie den Anweisungen, um die Sicherheitsinformationen zu speichern.

Bitlocker ist in Windows- Pro-Editionen inklusive

Neben der beschriebenen Ordner- beziehungsweise Dateiverschlüsselung bieten die Pro-Versionen von Windows 7, 8/8.1 und 10 Pro zusätzlich auch die Bitlocker genannte Verschlüsselung kompletter Laufwerke und Partitionen. Standardmäßig ist diese Funktion nicht aktiv. Die Bitlocker-Laufwerkverschlüsselung ist eine Windows-eigene Sicherheitsfunktion, die auf internen und externen Laufwerken gespeicherte Daten vor Fremdzugriffen schützt. Bitlocker schützt vor Offline-Angriffen, bei denen entweder das installierte Betriebssystem deaktiviert respektive umgangen oder die Festplatte physisch aus dem Computer entfernt wird.

Auf internen und externen Laufwerken sorgt Bitlocker dafür, dass Nutzer Daten nur dann lesen oder schreiben können, wenn sie über das erforderliche Kennwort respektive die entsprechenden Smartcard-Anmeldeinformationen verfügen oder das Datenlaufwerk auf einem mit Bitlocker geschützten Computer verwenden, der über die entsprechenden Schlüssel verfügt.

Bitlocker aktivieren und anschließend konfigurieren

Die Einrichtung von Bitlocker ist einfach. Klicken Sie auf Start, wählen Sie „Einstellungen“ und klicken Sie auf „System“. Wählen Sie in der linken Spalte den Eintrag „Info“ und klicken Sie im Hauptfenster dann auf den Link „BitLocker- Einstellungen“, um zum entsprechenden Dialog zu gelangen. Alternativ dazu können Sie auch mit der Tastenkombination Windows-X das Start-Kontextmenü öffnen, auf „Systemsteuerung“ klicken und „BitLocker-Laufwerkverschlüsselung“ wählen.

Sind in Ihrem PC mehrere Partitionen und Laufwerke vorhanden, klicken Sie neben dem Laufwerk, das durch Bitlocker geschützt werden soll, auf den Link „BitLocker aktivieren. Im daraufhin angezeigten Dialog „Wie soll der Wiederherstellungsschlüssel gespeichert werden?“ stehen Ihnen drei Optionen zur Auswahl. Besonders komfortabel erscheint die Option „In Microsoft-Konto speichern“. Wir raten davon jedoch ab, da jede Person oder Behörde, die diesen Wiederherstellungsschlüssel in die Hände kriegt, all Ihre Daten entschlüsseln kann. Und da niemand weiß, ob die NSA Zugriff auf solche Inhalte hat, sollten Sie sich zunächst für „In Datei speichern“ entscheiden und den Wiederherstellungsschlüssel lokal sichern. Anschließend kopieren Sie die Datei zusätzlich noch auf einen USB-Stick. Um auf Nummer sicher zu gehen, raten wir, den Schlüssel auch noch auszudrucken. Fahren Sie dann mit einem Klick auf „Weiter“ fort.

Wählen Sie dann aus, ob der gesamte oder nur der bereits verwendete Speicherplatz verschlüsselt werden soll. Wir empfehlen, sich für „Gesamtes Laufwerk verschlüsseln“ zu entscheiden und mit „Weiter“ zu bestätigen. Welcher Verschlüsselungsmodus zum Einsatz kommt, hängt davon ab, es sich um ein internes oder externes Laufwerk handelt. Denn da Microsoft mit Windows 10 Pro Version 1511 den Verschlüsselungsmodus geändert hat, kann es bei Wechseldatenträgern, die mit älteren Betriebssystemversionen verwendet werden sollen, zu Kompatibilitätsproblemen kommen. Möchten sie hingegen ein internes Laufwerk verschlüsseln, wählen Sie „Neuer Verschlüsselungsmodus“ und klicken auf „Weiter“. Auch wenn das den folgenden Vorgang wesentlich verlängert, sollten Sie die Option „BitLocker-Systemprüfung ausführen“ aktivieren, bevor Sie den Dialog mit „Verschlüsselung starten“ schließen. Denn während dieses Checks wird ermittelt, ob Bitlocker einwandfrei funktioniert. Klicken Sie auf „Jetzt neu starten“, um den Windows-10-Rechner zu booten und die Verschlüsselung zu aktivieren.

Möchten Sie die Verschlüsselung wieder ausschalten, klicken Sie im Dialog „BitLocker-Laufwerkverschlüsselung“ zuerst auf den Link „Bit-Locker deaktivieren“ und bestätigen dann mit „BitLocker deaktivieren“. Das Entschlüsseln des Laufwerks kann eine ganze Weile dauern. Haben Sie sich hingegen für die Verschlüsselung eines Wechseldatenträgers entschieden, müssen Sie nach dem Anklicken von „BitLocker aktivieren“ die Option „Kennwort zum Entsperren des Laufwerks verwenden“ auswählen und das Passwort eingeben. Dieses ist immer dann einzugeben, wenn der Wechseldatenträger an einem anderen Rechner angeschlossen wird. Nach einem Klick auf „Weiter“ gelangen Sie zum Dialog „Wie soll der Wiederherstellungsschlüssel gespeichert werden?“.

Unsichtbar: Mit diesen beiden Tools verstecken Sie Dateien

Wer lediglich ab und an ein paar Dateien verschlüsseln möchte, muss nicht zwangsläufig zu einer dermaßen mächtigen Lösung wie Veracrypt greifen.

Zum einen können Sie einzelne Elemente mithilfe der Windows-eigenen Verschlüsselungsfunktion sichern, zum anderen gibt es eine Reihe von Free- und Shareware-Tools, mit denen Sie Dateien und Ordner verstecken können. Zwei interessante Programme stellen wir Ihnen vor. My Lockbox sichert Ihre sensiblen Daten, indem es einen Ordner per Passwort absichert und darüber hinaus vor fremden Zugriffen versteckt.

Die Handhabung ist trotz der englischsprachigen Bedienerführung einfach: Nach der Installation geben Sie das Kennwort ein, wählen dann per Klick auf „Browse“ den zu sichernden Ordner aus und bestätigen mit „OK“. Um diesen Ordner sichtbar zu machen und zu entsperren, starten Sie das My Lockbox Control Panel, geben das Passwort ein und klicken dann auf „Unlock“. In der kostenpflichtigen Pro-Version können Sie mehrere Ordner auf diese Weise schützen.

Wise Folder Hider fordert Sie nach dem Start auf, ein Konto anzulegen, indem Sie das zweimal Passwort eingeben und mit „OK“ bestätigen. Anschließend können Sie über die Menüschaltflächen Dateien, Ordner und USB-Laufwerke verstecken. Die Auswahl der zu versteckenden Elemente per Drag und Drop und das Kontextmenü der rechten Maustaste ist ebenfalls möglich. Um versteckte Dateien und Ordner wieder sichtbar zu machen, wählen Sie die Option „Sichtbar“. Nicht vergessen: Diese beiden Tools erschweren anderen Personen, die Ihren PC nutzen, den Zugriff auf Dateien. Echte Hacker lassen sich dadurch aber nicht beeindrucken.

Veracrypt: Dateien in einem verschlüsselten Container sichern

Möchten Sie nicht die ganze Festplatte respektive Partition verschlüsseln oder trauen Sie Microsoft in Sachen Verschlüsselung nicht über den Weg, sind Sie ein Fall für das Open-Source-Tool Veracrypt . Die Verschlüsselungssoftware basiert auf dem einst sehr beliebten Programm Truecrypt, dessen Entwicklung im Mai 2014 aufgrund von Sicherheitsproblemen eingestellt wurde. Mit dem inoffiziellen Nachfolger Veracrypt können Sie einzelne Dateien und komplette Verzeichnisse vor Missbrauch schützen, indem Sie diese Elemente in verschlüsselten Datentresoren ablegen. Sehr gut: Unter Windows lassen sich diese Container wie ganz normale Laufwerke ansprechen.

Interessantes Extra: Während der Installation von Veracrypt besteht die Möglichkeit, eine mobile Version des Programmes zu erstellen. Bei diesem Vorgang wird keine Installation durchgeführt, Stattdessen werden die Programmdateien lediglich auf der Festplatte extrahiert. Der Vorteil dabei ist, dass Sie auf diesem Weg das Tool auch auf mobilen Festplatten oder USB-Sticks nutzen können. Im folgenden Workshop gehen wir auf die lokal installierte Version ein.

Verschlüsseltes Volume mit Veracrypt erstellen

Haben Sie das Programm gestartet, sollten Sie die Sprache der Bedienoberfläche anpassen. Klicken Sie dazu auf „Settings -> Preferences -> More Settings… -> Language“. Markieren Sie in der Liste den Eintrag „Deutsch“, bestätigen Sie mit einem Klick auf „OK“ und schließen Sie alle offenen Dialogfenster.

Ihre erste Aufgabe besteht darin, ein neues Volume anlegen, in dem Sie später die verschlüsselten Dateien ablegen. Klicken Sie auf die Schaltfläche „Volume erstellen“, startet der „Assistent zum Erstellen eines Veracrypt Volumes“. Im ersten Schritt des Assistenten wählen Sie die Option „Eine verschlüsselte Containerdatei erstellen“ aus und bestätigen mit „Weiter“. Im nächsten Fenster wählen Sie „Standard Veracrypt-Volume“ aus. Alternativ dazu können Sie sich aber auch für die Erstellung eines versteckten Veracrypt-Volumes entscheiden, indem Sie die gleichnamige Option auswählen. Der Unterschied ist, dass andere Anwender das auf dem Rechner versteckte Volume nicht finden können. Das erhöht die Sicherheit. Im nächsten Fenster wählen Sie den „Volume-Speicherort“ aus, indem Sie auf „Datei …“ klicken, zum gewünschten Speicherordner wechseln, einen Dateinamen eintippen, etwa „Datentresor“, und mit „Speichern“ bestätigen.

Verschlüsselungsverfahren und Passwortschutz

Die Sicherheit einer verschlüsselten Datei hängt von zwei Faktoren ab: dem verwendeten Verschlüsselungsverfahren und der Art des Zugriffsschutzes. In beiden Fällen bietet Ihnen Veracrypt vielfältige Möglichkeiten an.

Nach dem Anlegen des Volumes klicken Sie im „Assistent zum Erstellen eines Veracrypt Volumes“ auf „Weiter“, um zur Auswahl des zu verwendenden Verschlüsselungsverfahrens zu gelangen. Standardmäßig ist die AES-Verschlüsselung mit einer Schlüssellänge von 256 Bit eingestellt – das reicht für den Privatgebrauch völlig aus. Um auf Nummer sicher zu gehen, können Sie unter „Verschlüsselungsalgorithmus“ aber auch eine kaskadierte Verschlüsselung auswählen, zum Beispiel „AES (Twofish)“. Die Faustregel: Je vielschichtiger die Verschlüsselung, desto geringer die Arbeitsgeschwindigkeit. In diesem Beispiel bleiben wir bei „AES“ und fahren mit „Weiter“ fort.

Im Dialog „Volume-Größe“ legen Sie fest, wie viel freier Speicherplatz dem Veracrypt-Container zugewiesen werden soll. Aktivieren Sie zunächst die gewünschte Option – „MB“, „GB“ oder gar „TB“ – und tippen Sie dann die gewünschte Größe ein, etwa „8“. Bestätigen Sie mit „Weiter“. Die Größe eines Volumes lässt sich zu jedem späteren Zeitpunkt über „Extras“ und „Volume-Erweiterer“ anpassen, sodass Sie bei der erstmaligen Einrichtung nicht zu groß einsteigen sollten.

Anschließend legen Sie fest, wie der Zugang zum neuen Container geschützt wird. Die mit Abstand sicherste Variante besteht darin, bei der Authentifizierung sowohl ein Passwort als auch eine Schlüsseldatei zu verwenden. Aktivieren Sie beide Optionen, tippen Sie ein sicheres Passwort ein und bestätigen Sie die Eingabe. Klicken Sie anschließend auf „Schlüsseldateien …“. Interessant ist, dass Veracrypt jede beliebige Datei, also auch bereits auf dem Windows-10-PC gespeicherte JPG-Grafiken, MP3-Musik und ZIP-Archive als Schlüsseldateien akzeptiert. Darüber hinaus ist es auch möglich, mehrere Schlüsseldateien zu nutzen. In diesem Workshop legen wir allerdings eine neue Schlüsseldatei an. Klicken Sie auf „Schlüsseldatei(en) generieren“ und bewegen Sie den Mauszeiger anschließend 30 Sekunden lang innerhalb des markierten Bereiches, um einen Zufallswert zu generieren. Sobald der Fortschrittsbalken gefüllt ist, können Sie die Maus loslassen. Tippen Sie bei „Name der Schlüsseldatei(en)“ eine Bezeichnung ein, bestätigen Sie mit „Schlüsseldatei(en) erstellen und speichern“ und wählen Sie den Speicherort aus. Wieder im Dialog „Schlüsseldateien“ klicken Sie auf „Dateien hinzuf…“, wählen die soeben angelegte Schlüsseldatei aus und bestätigen mit „Öffnen“. Wichtig: Ohne diese Schlüsseldatei lässt sich der Veracrypt-Container nicht mehr öffnen.

Die mit Version 1.12 eingeführte Zusatzoption „PIM“ (Personal Iterations Multiplier) soll Brute- Force-Attacken erschweren. Schalten Sie „PIM“ ein und geben Sie eine dreistellige Zahl ein, müsste ein Hacker nicht nur das Kennwort durch Ausprobieren herausfinden, sondern zugleich auch die PIM erraten, was nahezu unmöglich ist. Klicken Sie auf „Weiter“. Haben Sie „PIM“ aktiviert, können Sie nun den Code eingeben, dessen Wert von der Passwortlänge abhängt. Hat das Passwort weniger als 20 Zeichen, muss der PIM größer als 485 sein, um maximale Sicherheit zu gewährleisten. Bei längeren Passwörtern ist die PIM-Größe hingegen egal. Nachdem Sie die entsprechende Zahl eingegeben haben, bestätigen Sie mit „Weiter“. Zum Abschluss will der Assistent von Ihnen wissen, ob im neuen Container Daten gespeichert werden, die größer als 4 GByte sind. Aktivieren Sie die entsprechende Option und klicken Sie erst auf „Weiter“, dann auf „Formatieren“ damit Veracrypt mit der Einrichtung des neuen Containers beginnt. Nach Abschluss des Vorgangs bestätigen Sie die Erfolgsmeldung mit „OK“ und schließen den Assistenten mit „Beenden“.

Verschlüsseltes Volume in Windows einbinden

Um unter Windows auf den neuen Container zugreifen zu können, müssen Sie die Datei erst im Betriebssystem einbinden. Im Hauptfenster von Veracrypt klicken Sie auf die Schaltfläche „Datei …“, wechseln zum Verzeichnis, in dem der Container abgelegt ist, markieren die Datei und bestätigen mit „Öffnen“. Markieren Sie im oberen Feld den gewünschten Laufwerksbuchstaben aus, zum Beispiel „A:“, und klicken Sie ganz unten auf die Schaltfläche „Einbinden“. Geben Sie das Passwort ein und bestätigen Sie mit „OK“. Um sich die Eingabe komplexer Kennwörter zu erleichtern, sollten Sie die Option „Passwort anzeigen“ aktivieren. Haben Sie den Container zusätzlich noch durch eine Schlüsseldatei und eine PIM geschützt, müssen Sie die entsprechenden Optionen aktivieren und Speicherort der Schlüsseldatei sowie PIM eintippen. Abhängig von der Größe des verschlüsselten Containers kann das Einbinden durchaus mehrere Sekunden dauern.

Sobald das Laufwerk in Veracrypt angezeigt wird, steht es Ihnen auch im Windows-Explorer zur Verfügung. Die Bereitstellung des Laufwerkes können Sie jederzeit über das Kontextmenü aufheben. Wollen Sie den Container immer automatisch mit Windows laden lassen, klicken Sie in Veracrypt das eingebundene Laufwerk mit der rechten Maustaste an und wählen Sie „Zu Favoriten hinzufügen“. Im folgenden Dialog markieren Sie „Ausgewähltes Volume beim Anmelden einbinden“ und schließen den Dialog mit „OK“. Aus Sicherheitsgründen müssen Sie diese Container nach jedem Windows-Start manuell entsperren. Das ist zwar nicht besonders komfortabel, dafür aber sicher. Und genau darauf kommt es bei der Verschlüsselung schließlich an.

USB-Sticks mit eingebauten Sicherheitsmechanismen

Fertige Sicherheits-Sticks haben gegenüber selbst gemachten USB-Sticks mit Bitlocker und Co. einen Vorteil: Sie arbeiten mit einem Kryptochip, in dem ein wichtiger Teil der Verschlüsselungstechnik steckt. Das macht die Sticks gegenüber reiner Softwareverschlüsselung zum einen deutlich schneller, zum anderen sind die geschützten Dateien zumindest in manchen Fällen schwerer zu knacken. Für dieses Plus an Tempo und Sicherheit zahlt man bei fertigen Sticks allerdings auch den höheren Preis. Interessant, weil mit integrierter Tastatur ausgestattet, ist etwa derKingston Datatraveler 2000 . Auf diese Weise ist sichergestellt, dass nicht einmal auf PCs, auf denen ein Keylogger die Tastatureingaben aufzeichnet, dass Kennwort ermittelt werden kann.

Geht es hingegen um den Schutz von Log-in-Informationen, bietet sich der USB-StickPhrase-Lock an. Für rund 50 Euro erhalten Sie ein besonders gut geschütztes System für die Passwortverwaltung und einfache Log-ins am PC. Die Log-in-Daten für Ihre Webdienste, aber auch für viele andere Zugangsdaten, etwa die Anmeldung in Ihr Windows-Benutzerkonto, speichern Sie auf Ihrem Smartphone in der Phrase-Lock-App. Verschlüsselt werden die Daten mit einem Key, der auf dem USB-Stick gespeichert ist. Das Smartphone verbindet sich per Bluetooth mit dem Stick, wenn dieser am PC angesteckt ist. Die Log-in-Daten aus der App lassen sich per Fingertipp in den geöffneten Internetbrowser am PC übergeben. Im Test funktionierte das reibungslos. Nur das einmalige Eingeben der Log-ins finden wir etwas umständlich. Zur App gehört auch ein Passwortgenerator, der komplexe Passworte automatisch generiert.

NAS-Probleme beseitigen: So retten Sie Ihre Daten

Auf dem Netzwerkspeicher liegen Ihre persönlichen Daten. Funktioniert er nicht wie gewohnt oder fällt er gar komplett aus, kommen Sie schnell ins Schwitzen. Mit unseren Tipps sparen Sie sich nicht nur eine Menge Zeit, sondern kommen auch dann noch an Ihre Daten, wenn Sie nicht mehr damit gerechnet hätten.

Ihr Netzwerkspeicher ist Ihr zentrales Datenlager. Sie erreichen ihn über das Heimnetz und von außen aus dem Internet. Wenn aber der Zugriff nicht funktioniert oder das NAS-System nicht so reagiert wie gewohnt, geht es nicht einfach nur um einen Defekt, sondern immer auch um Ihre persönlichen Daten. In den meisten Fällen sind NAS-Ärgernisse nicht ganz so einfach zu analysieren – zu vielfältig sind die möglichen Ursachen. So kommt Windows ins Spiel, wenn der Netzwerkspeicher im Explorer nicht korrekt oder gar nicht gelistet ist. Und das Gerät selbst ist die Ursache, wenn es plötzlich auf Hochtouren läuft, ohne dass Sie oder ein geplantes Backup darauf zugreifen haben. Ganz akut wird die Problemlage, wenn das NAS keinen Mucks mehr macht, Sie aber an die Daten auf den internen Laufwerken kommen müssen.

Genau für diese kniffligen Fälle haben wir passende Lösungen zusammengetragen. So erfahren Sie genau, welche Möglichkeiten Sie bei Problemen haben und wie Sie am besten vorgehen. Die Tipps sind so gehalten, dass sie sich für alle NAS-Systeme eignen und nicht nur Modellen bestimmter Hersteller vorbehalten sind.

NAS ist in der Windows-Netzwerkansicht nicht sichtbar

Problem: Ihr Netzwerkspeicher ist ins Heimnetz integriert. Sie können das NAS auch per IP-Adresse erreichen und sehen die freigegebenen Verzeichnisse. Allerdings taucht das Gerät am Client-PC im Windows-Explorer unter „Netzwerk“ gar nicht oder unter einer falschen Rubrik auf. Sie wollen das Gerät unter „Computer“ gelistet haben.

Lösung 1: Die Ursachen für dieses NAS-Problem sind vielschichtig. Haben Sie das NAS-System neu installiert, prüfen Sie im ersten Schritt, ob das Netzwerkprotokoll SMB (Server Message Block) aktiviert ist. Es sorgt dafür, dass sich Dateien und Anwendungen zwischen Client und Server austauschen lassen. In seiner erweiterten Form als CIFS (Common Internet File System) ist es für die Kommunikation im Netzwerk zuständig. Sie finden es in der Browser-Bedienoberfläche Ihres NAS meist unter „Menü –› Dateidienste“ oder „Systemsteuerung –› Dateidienste“. Manchmal ist es auch unter „Samba“ eingeordnet: die Software-Schnittstelle, die Linux-basierten Betriebssystemen für den Datenaustausch mit Windows zuständig ist.

Lösung 2: Eine weitere Ursache dafür, dass Ihr NAS-System nicht in der Netzwerkansicht im Explorer auftaucht, ist bei Windows 10 zu suchen. Denn mit dem Update 1709 vom Herbst 2017 hat Microsoft das SMB-Protokoll in der Version 1 nicht mehr installiert. Der Grund: Es gilt als veraltet und damit als unsicher. Inzwischen wurde es längst von den Versionen 2 und 3 abgelöst. Trotzdem kann ein nachträgliches Installieren die Anzeigeproblematik lösen. Dazu öffnen Sie die Systemsteuerung und geben unter „Einstellung suchen“ das Stichwort „Windows-Features“ ein. Klicken Sie in der Auswahlliste auf „Windows-Features aktivieren und deaktivieren“. Im nächsten Fenster suchen Sie nach dem Eintrag „SMB 1.0/CIFS File Sharing Support“ und setzen ein Häckchen. Zusätzlich klicken Sie auf das Pluszeichen und entfernen gegebenenfalls das Häkchen beim Unterpunkt „SMB 1.0/CIFS automatisch entfernen“. Nach einem Klick auf „OK“ installiert Windows den Dateidienst nach.

Lösung 3: Ist Ihnen das SMB-Protokoll in der Version 1 zu alt und damit zu unsicher, können Sie Ihr NAS in die Netzwerkübersicht des Windows-Explorer bringen, wenn Sie das Startverhalten zweier Dienste ändern, die für das Erkennen von Geräten im Netzwerk verantwortlich sind.

Dazu geben Sie in die Windows-Suchleiste services.msc ein, um zu den Windows-Diensten zu gelangen. Suchen Sie in der Liste nach „Funktionsanbieter-Host“ und „Funktionssuche-Ressourcenveröffentlichung“. Ändern Sie jeweils den Starttyp von „Automatisch“ auf „Automatisch (verzögerter Start)“, indem Sie einen Rechtsklick auf den jeweiligen Eintrag ausführen und „Eigenschaften“ aus dem Kontextmenü auswählen. Sie finden den verzögerten Start unter „Allgemein –› Starttyp“ und einen Klick auf den kleinen Pfeil.

Lösung 4: In vielen Fällen ist das NAS-System die Ursache, dass es sich in der Netzwerkumgebung von Windows nicht korrekt anzeigen lässt. Der Grund: Ähnlich wie ein Server läuft es oft im ständigen Betrieb. Auch die Firmware bleibt aktiv. Findet diese etwa in der Nacht keine weiteren aktiven Mitglieder im Netzwerk, da die Client-PCs abgeschaltet sind, hievt sich das NAS selbst in die Position des Master Browsers. Dieser Rechner ist dafür zuständig, die Browse-Liste mit allen aktiven Teilnehmern im Netzwerk zu erstellen, und dient als Grundlage für die Windows-Netzwerkanzeige. Das NAS-System basiert jedoch auf Linux, weshalb sich die Browse-Liste nicht einfach abrufen lässt. Fahren die Windows-PCs wieder hoch, finden aber keinen Master Browser, machen sie unter sich aus, wer der nächste Master Browser wird (Election). Die Folge: Das NAS-System wird im Explorer nicht angezeigt.

Das Chaos vermeiden Sie, indem Sie die Master-Browser-Funktion im NAS-System ausschalten. Bei manchen Netzwerkspeicher-Modellen finden Sie in der Browser-Bedienoberfläche eine entsprechende Einstellung – etwa unter „Systemsteuerung –› Win/Mac/NFS –› Windows-Dateidienst –› Local Master Browser“. Setzen Sie sie auf „Deaktivieren“.

Fehlt Ihrem NAS-Modell eine extra Einstellung für den Master Browser, hilft es oft, die Priorität des Samba-Dateiaustauschdienstes zu senken. Suchen Sie dazu im Dashboard unter „Samba“ nach weiteren Optionen. Beispielsweise bei Thecus-Modellen wie dem N2350 finden Sie unter „Erweitert“ die Option „Nativer Modus“.

Entfernen Sie hier das Häkchen, bleibt Samba zwar aktiv, aber nicht mehr so hoch priorisiert. Haben Sie danach etwas Geduld. Für eine aktuelle Browse-Liste müssen sich alle Rechner im Heimnetz erst melden. Wenn Sie den Windows-Explorer nach einer Weile starten, finden Sie das NAS-System unter Netzwerk korrekt im Bereich „Computer“ gelistet.

Master Browser im Heimnetz festellen

Dass Ihr NAS im Windows-Explorer unter Netzwerk nicht oder unter einer falschen Rubrik wie etwa „Anderer Computer“ oder „Multimedia“ erscheint, kann am Master Browser liegen. Dieser Rechner ist im Heimnetz dafür zuständig, die Browse-Liste zu erstellen, auf der die Anzeige im Explorer basiert. Wenn Sie den Verdacht haben, dass sich ein „falsches“ Gerät diese Funktion geschnappt hat, gilt es festzustellen, welcher Rechner die Funktion des Master Browser derzeit innehat.

So gehen Sie vor: Zuerst nehmen Sie eine Bestandsaufnahme aller Geräte vor, die derzeit im Heimnetz erkannt werden. So stellen Sie fest, ob ein bestimmter, eventuell wichtiger Rechner fehlt. Dazu verwenden Sie den Kommandozeilenbefehl net view, den Sie in die Eingabeaufforderung von Windows eingeben. Diese öffnen Sie, indem Sie cmd ins Suchfeld in der Windows-Taskleiste eingeben und per Enter-Taste bestätigen.

Sie sehen nun eine Liste. Ihr entnehmen Sie nicht nur die derzeitig aktiven Geräte im Netzwerk, sondern auch die genauen Bezeichnungen, unter der sie von Windows geführt werden. Die exakten Gerätenamen sind die Grundlage, um den Master Browser herauszufinden. Jetzt starten Sie für jedes Gerät die Abfrage nach der Master-Browser-Funktion. Dazu geben Sie den Befehl

nbtstat -a

und danach den exakten Computernamen ein – beispielsweise

nbtstat -a DESKTOP-6HADD6R

Daraufhin erhalten Sie die NetBIOS-Namentabelle. Die Bezeichnung _MSBROWSE_ offenbart das Gerät, das als derzeitiger Master Browser fungiert.

Da Sie die Abfrage für jedes Gerät im Heimnetz separat anstoßen müssen, eignet sie sich nur für Heimnetze mit nicht allzu vielen Teilnehmern. Hier stellen Sie jedoch vergleichsweise schnell fest, wer die Browse-Liste führt. Sollte Ihr Netzwerkspeicher die Funktion übernommen haben, finden Sie weitere Maßnahmen unter „NAS in Windows-Netzwerkansicht nicht sichtbar“ unter Lösung 4.

Ohne Zutun arbeitet das NAS auf Hochtouren

Problem: Obwohl Sie im Moment gar nicht auf Ihren Netzwerkspeicher zugreifen, rattern die Festplatten und die Lüfter laufen in hohen Drehzahlen. Gleichzeitig sehen Sie am Gehäuse blinkende LEDs – die der Festplatten in grüner, die der Statusanzeige in oranger Farbe. Wollen Sie das NAS per Browser-Bedienoberfläche oder über Laufwerksverknüpfungen am Client-PC erreichen, schlägt der Zugriff fehl.

Lösung: Die meisten NAS-Systeme haben Mechanismen integriert, die die Festplatten überwachen. Die Verfahren gehen über das reine Erfassen der S.M.A.R.T.-Werte (Self-Monitoring, Analysis and Reporting Technology) hinaus und nennen sich „Scrubbing“ – zu Deutsch etwa Bereinigen. Sind sie angestoßen, ist das NAS oft so beschäftigt, dass ein Zugriff unmöglich ist.

Dabei gibt es unterschiedliche Arten: „File Scrubbing“ oder „Data Scrubbing“ läuft auf Dateiebene ab und wird beispielsweise bei Netzwerkspeichern mit zwei Schächten eingesetzt, die im Raid-1-Modus betrieben werden. Untersucht werden sowohl Dateiinhalte als auch die Metadaten im Dateisystem, wenn das System dazu fähig ist, wie es etwa bei BTRFS (B-tree File System) der Fall ist. Treten Fehler in der Datenkonsistenz auf, werden sie meist automatisch bereinigt. Da der Check auf Dateiebene abläuft, läuft er nur so lange, wie Daten vorgefunden werden. Freier Speicherplatz auf den Laufwerken bleibt daher ungeprüft. Die Dauer des Prüfdurchgangs hängt daher direkt damit zusammen, wie viel Speicher belegt ist.

Sind mehrere Laufwerke vorhanden, die etwa in Raid-5- oder Raid-6-Verbünden im Einsatz sind, lässt sich oft zusätzlich ein „Raid Scrubbing“ vornehmen. Hier startet der Vorgang bei Block 0 des Raid-Verbunds und geht bis zum letzten Block weiter, auch wenn dort keine Daten mehr abgelegt sind. Gibt es Bereiche, die nicht übereinstimmen, werden sie registriert und – wenn möglich – korrigiert.

Beide Überprüfungsverfahren dienen dazu, Ausfälle und Datenverlust zu vermeiden. Da dazu eine Bestandsaufnahme nötig ist, sind sie meist in der NAS-Firmware standardmäßig aktiviert. Wollen Sie das nicht, müssen Sie die Funktion manuell abstellen. Gehen Sie dazu im Browser-Bedienmenü auf „Systemsteuerung“, und suchen Sie nach Bereichen wie „Speicher“ oder „Speichermanager“. Unter „Einstellungen“ oder im Register „Raid“ lässt sich das Prüfverfahren deaktivieren. Bei NAS-Systemen ab vier Schächten lässt sich dort auch eventuell ein Intervall einstellen, wann der Prüfprozess ablaufen soll. Läuft ein Scrubbing, dauert der Prozess meist mehrere Stunden. Bei hohen Festplattenkapazitäten oder vielen Daten können sich die Kontrollvorgänge auch über Tage hinziehen.

Crashgefahr durch schlechte Sektoren auf NAS-Platte

Problem: Nach dem Raid-Scrubbing-Durchlauf erhalten Sie eine Info über mehrere „Bad Blocks“ – sprich festgestellte Fehler in bestimmten Sektoren. Unter Umständen wundern Sie sich, da die eingebauten Festplatten erst einige Monate im Einsatz sind, und fürchten nun, dass Sie sie bereits austauschen müssen.

Lösung: Beim Raid Scrubbing werden alle Datenblöcke gelesen und neue Blöcke mit Kontrollinformationen (Parität) erstellt. Kommt es dabei zu einem Lese- oder Schreibfehler in einem Sektor, ergreift der Festplatten-Controller unterschiedliche Maßnahmen, um den Fehler zu korrigieren: Er wiederholt den Schreib-/Lesevorgang, verändert die Parameter der Kopfpositionierung, passt die Empfindlichkeit des Lesekopfes an oder justiert die Stärke der Vormagnetisierung. Ist der Zustand des Sektors zu schlecht, um weiterhin als verlässlich eingestuft zu sein, kommt als letzter Ausweg nur das Ersetzen durch einen gesunden Sektor in Frage. Für diesen Vorgang hält jede Festplatte einen bestimmen Pool an Ersatzsektoren bereit.

Alle solche Maßnahmen sind in den S.M.A.R.T.-Attributen festgehalten und können nur vom Festplatten-Controller ausgelöst werden. Schadhafte Sektoren müssen deshalb nicht das Ende der Festplatte bedeuten. Führen Sie weitere Raid-Scrubbing-Läufe durch. Den Magnetfestplatten schaden Sie dadurch nicht. Es kann gut sein, dass die betroffene Platte letztlich wieder mit dem Zustand „normal“ und optisch in grüner Farbe angezeigt wird.

Sollte sich die Zustandsbeschreibung der Platte aber selbst nach mehreren Raid- Scrubbing-Läufen nicht ändern, halten Sie auf jeden Fall Ihr Backup aktuell, und besorgen Sie sich zur Sicherheit beizeiten eine Ersatzfestplatte, um im Ernstfall eingreifen zu können.

NAS-Ausfall: So kommen Sie an die Festplattendaten

Problem: Ihr Netzwerkspeicher versagt komplett den Dienst. Er lässt sich nicht einmal mehr starten. Sie müssen jedoch an die Daten, die auf den Festplatten des NAS-Systems lagern. Dabei wollen Sie auch überprüfen, ob die Festplatten selbst Schaden genommen haben.

Lösung 1: Netzwerkspeicher setzen als Betriebssystem vielfach speziell angepasste Linux-Distributionen ein. Sie arbeiten mit Dateisystemen wie EXT3, EXT4 oder HFS, mit denen ein Windows-Rechner nichts anfangen kann. Im Raid-1-Modus wird jedoch der Platteninhalt Ihres Netzwerkspeichers vollständig auf Ihre zweite Platte gespiegelt. In diesem Fall können Sie sich mit einem Reader-Programm wie beispielsweise Linux Reader von Diskinternals behelfen.

Am besten setzen Sie die ausgebaute NAS-Festplatte in eine Klon-Dockingstation mit SATA-Anschluss, die sich extern per USB an den Rechner anschließen lässt. Derartige HDD-Docking-Stationen sind ab gut 20 Euro erhältlich. Günstiger geht es über einen SATA- zu USB-Adapter ab rund 9 Euro. Solche Adapter gibt es auch mit zusätzlichem Netzteil. Damit ist die Stromversorgung besser gesichert als rein über USB. Das lohnt sich, auch wenn das Zubehör jedoch preislich ungefähr auf dem Niveau der Docking-Stationen liegt – wie etwa der Adapter von Anker für rund 28 Euro.

Haben Sie die Platte über den Adapter mit dem Windows-Rechner verbunden, installieren Sie Linux Reader per Doppelklick auf die Exe-Datei auf Ihrem PC. Ist das Programm gestartet, zeigt es alle verfügbaren Speichermedien in einer Übersicht an. Dazu zählen Ihre internen Festplatten mit allen Partitionen, aber auch externe Geräte wie USB-Sticks, sollten sie gerade am Rechner hängen. Die einzelnen Disks tauchen mehrfach in der Übersicht auf – etwa unter „Hard Disk Drives“ oder „Physical drives“. Ihre NAS-Festplatte finden Sie deshalb sowohl unter „Hard Disk Drives“ als auch unter „Raid disks“. Da Sie weder den Raid-Verbund noch die Partitionen anfassen wollen, sondern ausschließlich an den Inhalten interessiert sind, wählen Sie Ihre NAS-Festplatte im Bereich „Hard Disk Drives“ aus.

Per Doppelklick auf das Plattensymbol mit dem Zusatz „data“, kommen Sie an die Unterverzeichnisse. Sie unterscheiden sich je nach NAS-Modell und natürlich den Ordnern, die Sie auf Ihrem NAS-System angelegt haben. Um Daten von der NAS-Festplatte auf einen anderen Ort zu ziehen – etwa Ihren Rechner, eine externe Festplatte oder einen USB-Stick –, öffnen Sie per Rechtsklick das Kontextmenü und wählen „Save“ aus. Es öffnet sich das Exportfenster, in dem Sie über einen Klick auf „Next“ bestätigen, dass Sie die Auswahl kopieren wollen. Geben Sie danach unter „Output folder:“ den gewünschten Speicherort an. Haben Sie ein ganzes Verzeichnis ausgewählt, überprüfen Sie, ob die Option „Save directory structure“ mit einem Häkchen versehen ist, um Ihre Ordnerstruktur zu erhalten. Nach weiteren Klicks auf „Next“ kopiert der Reader die ausgewählten Daten. Sowohl die Bezeichnungen der Ordner als auch die Dateinamen bleiben erhalten. Beachten Sie, dass Sie Ihre Daten zwar auf Ihren PC kopieren, jedoch über den Reader nicht auf die NAS-Festplatte schreiben können.

Lösung 2: Haben Sie einen Rechner mit Linux-Betriebssystem – etwa Ubuntu –, können Sie nicht nur vom NAS-Laufwerk lesen, sondern auch darauf schreiben. Am einfachsten nutzen Sie wie am Windows-PC einen USB-zu-SATA-Adapter, um die NAS-Platte an den Linux-Rechner anzuschließen. Starten Sie die Datenträgerverwaltung – in Ubuntu „Laufwerke“ genannt. Hier finden Sie die Datenpartition der NAS-Platte heraus – in unserem Fall „/dev/sdb2“. Sie erkennen die Datenpartition an ihrer Größe. Nach einem Klick darauf zeigt das Tool die Bezeichnung „/dev/sdb2“ unten an.

Um eine Raid-1-Festplatte ohne zweite Platte unter Linux ansprechen zu können, benötigen Sie das Hilfspaket mdadm. Dieses installieren Sie über das Terminal mit dem Befehl sudo apt-get mdadm. Um die Partition zu starten, geben Sie anschließend im Terminal folgenden Befehl ein: mdadm –assemble –run/dev/md0/ dev/sdb2. Nun ist die NAS-Partition im Dateimanager unter md0 erreichbar. Sie können Dateien auf Ihr Linux-System kopieren und von dort auf das NAS-Laufwerk schreiben. Auch hier klappt die Lösung nur für Raid-1-Verbünde, da bei Raid-5- oder Raid- 6-Konfigurationen die Paritätsinformationen über mehrere Platten verteilt sind.

Virenschutz und Datensicherheit

Installieren Sie Anti-Malware-Software auf allen Rechnern im Unternehmen und halten Sie diese aktuell. Diese Maßnahme ist nicht sehr aufwendig, wenn es nur einen PC gibt. Kompliziert und teuer wird es, wenn Sie versuchen ein kleines Business-Netzwerk zu schützen. Es gibt unterschiedliche kostenlose und kostenpflichtige Computer-Security-Lösungen. Mit einem kleinen Business-Security-Suite-Paket lässt sich Geld sparen. Einige dieser Pakete bestehen nur aus einem Bündel von Lizenzen für die einzelnen Suiten, die Sie separat installieren und pflegen müssen. Andere bieten eine zentrale Management-Konsole wie zum Beispiel G Data Business Generation.

Physische Sicherheit

Software schützt die Daten auf Ihrem Computer aber nicht vor Schäden mittels Brecheisen oder vor der Mitnahme des Computers. Deshalb ist die physische Sicherheit ein weiterer wichtiger Aspekt – egal ob Sie ein Ein-Personen-Unternehmen oder eine Firma mit hundert Mitarbeitern besitzen. Jeder Unternehmer weiß, dass die Türen zu verriegeln und eine Alarmanlage zu installieren sind, wenn wertvolle Vermögenswerte zu schützen sind. Sie sollten aber auch besondere Vorkehrungen treffen, um Ihre EDV-Anlage zu schützen.

Kabelschlösser

Kabelschlösser sind ein einfacher Weg, um jeden Computer kostengünstig zu schützen. Fast alle Notebooks bieten die Möglichkeit der Diebstahlsicherung mit Hilfe eines Kensington-Schlosses. Viele Desktop-PCs besitzen ebenfalls eine Metall-Schleife, die sich auf der Rückseite befindet. Mittels dieser und einem Sicherheits-Kabel können Sie den Rechner schützen. Verbinden Sie den Computer mit dem Kabel am Schreibtisch. Achten Sie darauf, die Schlüssel zu den Kabelschlössern an einem sicheren Ort aufzubewahren.

LoJack-Systeme

LoJack for Laptops ist eine Software, die unbemerkt im Hintergrund läuft. Wenn Sie Ihr Gerät verloren haben, können Sie mit dessen Hilfe den Aufenthaltsort lokalisieren und Ihre Daten aus der Ferne löschen. Tools wie Find My iPhone bieten ähnliche Funktionen, um Smartphones und Tablet-PCs zu schützen. Am besten Sie installieren und aktivieren die Tools direkt nach dem Erhalt.

Videoüberwachungssysteme

Eine Kamera wird nicht unbedingt den Einbruch in Ihr Büro verhindern, aber Fernüberwachungssysteme können dabei helfen die Diebe in flagranti zu erwischen. Videoüberwachungssysteme mit Bewegungserkennung zeichnen das Verbrechen in Echtzeit auf und das Videomaterial kann dabei helfen, die Verbrecher zu ermitteln. Außerdem dient es vor Gericht als Beweismaterial.

Feuer, Überschwemmungen und andere Naturkatastrophen

Wir haben uns mit Dieben beschäftigt, aber was ist mit anderen Katastrophen wie Feuer und Überschwemmungen? Die obigen allgemeinen Tipps helfen dabei Schäden durch Naturkatastrophen via Backups zu mildern. Ein paar Geräte können noch mehr, wenn Sie befürchten, dass ein Brand oder Hochwasser Ihr Lebenswerk zerstört.

ioSafe entwickelte und entwickelt eine Reihe von externen Festplatten, die sowohl Feuer (bis zu 843 Grad Celsius) als auch Wasserdruck (eine Wassersäule von bis zu zehn Meter für drei Tage) widerstehen. Des Weiteren sollten Sie Papier-Dokumente und Ausdrucke von wichtigen Daten entweder in einem Bankschließfach oder in einem Safe, der Feuer-beständig ist, aufbewahren. Ferner sollten Sie einen hochwertigen Überspannungsschutz oder USVs für all Ihr High-Tech-Equipment zum Schutz gegen Spannungsspitzen und Blitzeinschlägen verwenden.

Versicherung

Sie können EDV-Anlagen versichern. Standard-Sachversicherungen decken den Verlust von Hardware; zusätzlich sollten Sie eine Betriebsunterbrechungsversicherung abschließen, um Ihr Unternehmen vor Umsatzeinbußen zu bewahren.

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation PCWorld.com . Übersetzt von Steve Julius Furthmüller.

So überstehen Sie einen Rechner-Ausfall

Mit unseren Tipps halten sich die Schäden bei einem Ausfall Ihrer Rechner in Grenzen – egal ob diese durch Hacker oder Naturkatastrophen verursacht wurde.

Es gibt viele Geschichten über moderne Technik-Katastrophen. Der Gauss-Virus infizierte tausende von PCs, um Online-Banking-Zugangsdaten abzufangen. Apple iPhone wurde missbraucht, um gefälschte SMS-Nachrichten zu versenden und Hochwasser in Thailand zerstörte die dortige Western-Digital-Festplatten-Produktionsstätte.

Hacker löschten das digitale Leben des Schriftstellers Mat Honan. Mit ein paar Telefonaten erlangten sie Zugriff auf sein MacBook Air. Honan sagt, dass er viele Fotos, die er über Jahre gemacht hat, für immer verloren habe. Weil er sie nicht gesichert hatte.

Diese Vorfälle zeigen die Notwendigkeit, sich mit geeigneten Maßnahmen auf Festplattenschäden, Viren, Hackerangriffen und anderem Problemen vorzubereiten.

Ein Notfallplan ist für Privatpersonen und Unternehmen gleichermaßen wichtig. Der einzige Unterschied besteht in der Komplexität der Planung. Für ein Unternehmen ist es wichtig, so zu planen, dass eine IT-Katastrophe nicht zum Stillstand des Unternehmens führt.

Backups

Mit einer einfachen Vorsichtsmaßnahme können sie die meisten technologischen Probleme verringern: Sichern Sie Ihre Daten in einem Backup. Zweifellos kennen Sie diesen Rat. Vielen User ist es zu langweilig regelmäßige Backups zu erstellen oder zu kompliziert, um nach Abstürzen, Malware-Infektionen oder anderen Daten-Katastrophen ihre Daten wiederherzustellen.

Es gibt viele Lösungen und Systeme, die das Sichern der Daten vereinfachen – egal ob es sich dabei um Daten auf nur einem Computer oder auf mehreren handelt. Hier sind einige Strategien.

Lokale Backups auf USB-Datenspeicher

Dies ist der einfachste Weg, um Backups durchzuführen. Diese Maßnahme eignet sich aber nur für Benutzer mit nur einem oder zwei PCs. Schließen Sie eine USB-Festplatte an den Computer an und führen Sie ein Backup-Programm aus. Ab Windows 7 ist eine solche Funktion ins Betriebssystem integriert.

Synchronisation

Eine andere Strategie besteht darin zwei Computer synchron zu halten, so dass Sie immer da weitermachen können, wo Sie aufgehört haben. Auch diese Lösung eignet sich für kleine Unternehmen. Ein großer Vorteil dieser Strategie ist es, dass auch Computer in verschiedenen Räumen synchronisiert werden können. Eine solche Lösung kannGoodSync sein.

NAS-Backup

Wenn mehrere Rechner gesichert werden sollen, machen Network-Attached-Storage-Systeme (NAS) Sinn. Ein NAS-Gerät wird mit Ihrem Router verbunden und mit der mitgelieferten Software oder einem individuellen Backup-Programm sichert das NAS in regelmäßigen Abständen die Daten.

Nachteil: Oft ist der Leistungsumfang der enthaltenen Backup-Software begrenzt und der Backup-Datenverkehr belastet Ihr Netzwerk.

Online-Backup

Wenn Sie eine große Internet-Bandbreite besitzen, können Online-Backups der sicherste Weg sein, um Ihre Daten vor Katastrophen wie einem Feuerbrand zu schützen. Bei einem Online-Backup werden Ihre Daten automatisch an einem weit entfernten Standort gesichert: Nämlich auf einem fremden Firmenserver. Ihre Daten sind so vor physischem Diebstahl, Feuer oder Überschwemmung bei Ihnen zu Hause oder in der Firma geschützt.

Anderseits besteht bei einigen Cloud-basierten Diensten die Gefahr, dass Fremde Zugriff auf Ihre Daten bekommen. Das Risiko ist für die meisten erträglich, außer Sie arbeiten mit hochsensiblen Informationen wie Kunden-Kreditkarten-Daten. In diesem Fall sollten die Daten an einem anderen Standort wie einem Safe gesichert werden.

SSD und Festplatte beschleunigen – so geht’s

Mit den richtigen Tipps und Tools fürs Tuning holen Sie bei Festplatten und auch bei SSDs mehr Tempo heraus. Wir zeigen, wie Sie Datenraten steigern und Zugriffszeiten reduzieren.

Die Aufgabenteilung zwischen SSD und Festplatte sollte in jedem aktuellen Rechner klar sein: Das Betriebssystem kommt auf den flotten Flashspeicher, während große Dateimengen auf herkömmliche Festplatten ihren Platz finden. Das hat nicht nur technische, sondern auch wirtschaftliche Gründe: Im PC sitzt meist eine kleinere SSD, da das Gigabyte pro Cent deutlich mehr kostet als bei den klassischen HDDs mit rotierenden Magnetscheiben.

Für beide Speichermedien gilt aber: Mit den passenden Tipps und Tools können Sie die Geschwindigkeit erhöhen. Denn nach einer gewissen Betriebszeit verlangsamen sich Zugriffszeiten und Datenraten – das gilt auch für eine SSD. Denn während Windows 10 im Allgemeinen sehr gut für die Nutzung von SSDs optimiert ist, müssen Sie bei Windows7 mit höherem Aufwand nachhelfen, damit SSD und Festplatte ihr ursprüngliches Tempo behalten.

Diese Windows-Bordmittel helfen

HDDs sollten Sie von Zeit zu Zeit defragmentieren. Dann ordnet Windows die zu einer Datei gehörenden Bestandteile wieder hintereinander an und beschleunigt damit den Zugriff auf die benötigten Daten. So muss der Schreib-/Lesekopf nicht an verschiedenen Stellen auf den Magnetscheiben nach den versprengten Fragmenten suchen. Vor allem bei großen Datenmengen macht sich eine Defragmentierung deutlich bemerkbar. Um den Vorgang für Ihre Festplatte manuell durchzuführen, gehen Sie folgendermaßen vor: Öffnen Sie mit der Tastenkombination Windows-E den Explorer, und wechseln Sie zu „Dieser PC“. In älteren Windows-Versionen öffnen Sie mit diesem Shortcut bereits den Arbeitsplatz, der Ihnen alle Laufwerke anzeigt. Klicken Sie mit der rechten Maustaste auf die gewünschte HDD und wählen „Eigenschaften“ aus dem Kontextmenü. Unter der Registerkarte „Tools“ (oder „Extras“) gelangen Sie über „Jetzt Defragmentieren“ zum entsprechenden Fenster mit einer Übersicht Ihrer verbauten Speichergeräte. Wählen Sie die gewünschte HDD aus, und starten Sie den Vorgang über die entsprechende Schaltfläche.

SSDs hingegen besitzen keine beweglichen oder mechanischen Bauteile wie die eben erwähnten Schreib-Lese-Köpfe: Der Controller kann immer direkt auf die Daten im Flash zugreifen, unabhängig davon, ob die Zelle direkt nebenan liegt oder in der hinteren Ecke auf der Platine. Deshalb sollten Sie eine SSD nicht fragmentieren. Das kann sogar schädlich sein, da sich die Lebensdauer der SSD durch überflüssige Schreibzyklen verkürzt.

Mit der Technik Superfetch sorgt Microsoft seit Windows Vista dafür, dass häufig genutzte Daten in den schnellen Arbeitsspeicher geladen werden, um kurze Starts und Reaktionszeiten zu ermöglichen. Diese Technik bietet sich jedoch nur für Festplatten an; Superfetch für SSDs bringt aufgrund der ohnehin hohen Datenraten keine nennenswerten Vorteile. Windows 10 ist das durchaus bewusst, so dass beim Einsatz von SSDs als Systemlaufwerk kein Superfetch mehr erfolgt. In Windows 7 kann die Technik aber noch aktiv sein. Deaktivieren Sie sie, indem Sie die Tastenkombination Windows-R betätigen und ins Ausführen-Fenster services.msc eintippen. Scrollen Sie im nächsten Fenster hinunter bis Superfetch, und klicken Sie doppelt auf den Eintrag. Unter „Starttyp“ deaktivieren Sie Superfetch.

Deshalb sind SSDs so schnell

Damit eine SSD unter Windows mit hohem Tempo arbeitet, müssen Sie darauf achten, dass der Flashspeicher die passenden Befehle des Betriebssystems nutzt. Zum Beispiel den TRIM-Befehl: Er stellt sicher, dass der Platz, in dem sich vom Nutzer gelöschte Daten befanden, wieder als verfügbar bereitgestellt wird. So sorgt TRIM auch dafür, dass der Flashspeicher immer mit seiner maximalen Geschwindigkeit arbeitet, da er alle freien Speicherzellen nutzen kann. Normalerweise nutzt schon Windows 7 diesen Befehl automatisch. Jedoch kann es passieren, dass TRIM nicht aktiv ist. Das ist oft der Fall, wenn Sie Windows von einer HDD auf eine SSD umgezogen respektive geklont haben. Um zu prüfen, ob die Technik aktiv ist, starten Sie die Windows-Eingabeaufforderung als Administrator. Hierfür tippen Sie in die Startmenü-Suchecmd ein und starten das angezeigte Programm mit einem Linksklick bei gedrückter Shift-und Strg-Taste. Der Befehl zur Überprüfung lautet

fsutil behavior query DisableDeleteNotify

mit der Eingabetaste fragen Sie damit den Status ab. Steht nach dem Gleichheitszeichen eine 0, ist TRIM aktiv. Steht dort allerdings eine 1, tippen Sie den folgenden Befehl ein, um die Technik einzuschalten:

fsutil behavior set DisableDeleteNotify 0

Überprüfen Sie anschließend nochmal mit ersterem Befehl, ob die Option tatsächlich aktiviert wurde.

Doch aufgepasst: Nicht jede SSD unterstützt TRIM. Ob Ihr Modell den Befehl versteht, lässt sich über das Gratis-Tool Crystaldiskinfo (auch als portable Version erhältlich) herausfinden. Unter „Eigenschaften“ führt das Tool die unterstützten Techniken der Flashplatte auf, weshalb dort auch TRIM stehen muss. Ist der Befehl nicht vorhanden, dann beherrscht der Flashspeicher die Technik nicht. Das Tool liefert Ihnen noch weitere wichtige Infos für das SSD-Tuning, wie die installierte Firmwareversion, die bisherigen Betriebsstunden und den Gesamtzustand des Speichers, den das Tool aus den „S.M.A.R.T.“-Daten der Platte berechnet.

Eine andere wichtige SSD-Technik nennt sich „Over-Provisioning“, kurz OP. Hierbei zwackt der Hersteller von der Gesamtspeicherkapazität der SSD einen kleinen Teil ab und stellt ihn exklusiv der Firmware respektive dem Controller zur Verfügung: Das erhöht die Leistung und die Lebensdauer des Speichers. Die Leistung steigert sich damit, weil der Controller den Speicherplatz als Zwischenspeicher bei der Datenverarbeitung nutzen kann. Außerdem lässt sich damit auch der Schutzmechanismus „Wear-Leveling“ (siehe nebenstehenden Kasten „Platten-ABC“) umsetzen: Die SSD kann Schreib-und Löschvorgänge auf mehr Speicherblöcke verteilen und dadurch verhindern, dass Flashzellen aufgrund zu vieler Schreibaktionen ausfallen.

Auf den OP-Bereich hat nur der SSD-Controller Zugriff, er ist für den Nutzer nicht sicht-und nutzbar. Typisch ist ein OP von sieben Prozent, womit von einer 128-GB-SSD tatsächlich nur noch 120 Gigabyte Speicher zur Verfügung stehen. Der prozentuale Anteil des OP-Bereiches kann sich von Modell zu Modell und von Hersteller zu Hersteller unterscheiden. Flashspeichern mit großen Kapazitäten wird aber in der Regel mehr Speicher abgezweigt, da schließlich auch mehr Speicherzellen zu verwalten sind.

Intel Optane: Noch flotter dank 3D-Xpoint-Speicher

Bei Intel Optane handelt es sich um eine neue Art von Speicher, die anstelle von Flashbausteinen sogenannten 3D-Xpoint-Speicher verwenden. Dieser ebenfalls nichtflüchtige Speichertyp arbeitet im Vergleich zu Flash noch flotter und kann sogar eine längere Lebensdauer vorweisen. Die Kommunikation erfolgt über den NVMe-Standard (siehe Kasten „Platten-ABC“ auf Seite 75).

Die ersten Intel-Optane-Speichermodule im kompakten M.2-Steckkartenformat fungierten nicht als herkömmlicher Speicherplatz, auf den der Nutzer seine Daten ablegen konnte. Stattdessen dienten sie als Zwischenspeicher (Cache), um vor allem HDDs drastisch zu beschleunigen: Nach einer kurzen Anlernphase dupliziert die Software „Intel Rapid Storage“ die am häufigsten genutzten Daten auf den Optane-Speicher und sorgt so für niedrigere Zugriffs-und Ladezeiten, die sich stellenweise sogar mit einer SSD vergleichen lassen. Allerdings funktioniert Optane nur mit Intel-Prozessoren ab der siebten Core-Generation (7er-Serie, also Kaby Lake).

Doch der Einsatz von Optane als regulärer Speicher war eine logische Konsequenz, die Ende 2017 mit entsprechenden Modellen folgte. Die Ergebnisse waren aber eher durchwachsen: Viele Tester konnten im Vergleich mit SSDs zwar eine höhere Leistung des Intel-Speichers feststellen, der sich allerdings nur auf synthetische Leistungstests (Benchmarks) beschränkte. In alltäglichen Anwendungen ist ein Performance-Plus aber kaum spürbar, da die Programme das Potenzial von Optane bis dato noch nicht ausreizen können.

HDDs auf Fehler überprüfen

Da HDDs im Gegensatz zu SSDs über bewegliche Teile verfügen, sind sie anfälliger gegenüber äußeren Einflüssen, etwa Erschütterungen. Hinzu kommt noch Verschleiß, von dem die sich ständig bewegenden Teile unweigerlich betroffen sind. Deshalb empfiehlt es sich, regelmäßig die oben erwähnten S.M.A.R.T.-Daten zu überprüfen, um nicht eines Tages von einem Festplattenausfall überrascht zu werden.

Um Festplatten auf defekte Sektoren zu überprüfen, bietet Windows das bewährte Tool Checkdisk. Es überprüft Ihre Speichermedien auf Unversehrtheit und kann Fehler korrigieren. Um das Tool zu starten, tippen Sie in die Startmenü-Suche „Eingabeaufforderung“ ein und starten sie als Administrator. Tippen Sie dann folgenden Befehl ein:

chkdsk C: /f /r /x

In unserem Beispiel startet das Programm für die Partition „C:“. Der Parameter „/f“ sorgt dafür, dass Checkdisk gefundene Fehler gleich behebt. „/r“ erweitert den Scan auch auf defekte Sektoren, die das Programm dann gleich mit repariert. Der letzte Zusatz „/x“ sorgt dafür, dass die Bereitstellung des Speichermediums aufgehoben wird, damit der Scan nicht durch Schreibschutz oder andere Einschränkungen behindert wird. Oft ist für Checkdisk aber ein Neustart notwendig, insbesondere wenn ein Scan der Systemfestplatte erfolgen soll. Je nach Größe des Speichermediums kann Checkdisk mehrere Stunden in Anspruch nehmen.

Sinnvoll: Firmware-Update für SSDs

Wie erwähnt, ist der Controller einer SSD mit einer Firmware ausgestattet, die je nach Hersteller und Modelle verschiedene Techniken und Funktionen beherrscht. Diese lässt sich auch auf eine neue Version aktualisieren. Auch HDDs besitzen eine Firmware, allerdings ist hier ein Update zu vernachlässigen. Bei Flashspeicher hingegen kann ein Update die Datenraten verbessern und Fehler beheben. In den meisten Fällen ist ein Update also sinnvoll, jedoch nicht immer ohne Risiko. Bevor Sie sich ans Aktualisieren machen, erstellen Sie zunächst ein komplettes Backup der SSD. Falls es sich um das Systemlaufwerk handelt mit dem Betriebssystem handelt, muss ein vollständiges und bootbares Abbild des Flashspeichers erzeugt werden. Denn wenn es während des Updates zu Fehlern kommt oder die neue Firmware an sich fehlerhaft ist, kann das Datenverlust oder im schlimmsten Fall einen Defekt der Platte zur Folge haben.

Danach notieren Sie sich den exakten Modellnamen, die Seriennummer und Firmware-Version des Speichers mit Hilfe von Crystaldiskinfo. Suchen Sie dann auf den offiziellen Herstellerseiten, ob es eine neue Version für Ihre SSD gibt. Alternativ lässt sich auch oft über Herstellertools nach einer neuen Version suchen. Der Vorteil ist, dass sofort die korrekte Firmware für die eingebaute SSD heruntergeladen wird.

Ein pauschales Vorgehen für das Update der SSD-Firmware gibt es allerdings nicht. So lassen sich aktuelle Intel-Modelle sogar im laufenden Betrieb aktualisieren, während andere dafür von Ihnen verlangen, ein bootbares Medium mit einem Linux-basierten Betriebssystem anzulegen, um in dieser sicheren Umgebung das Update einzuspielen. In der Regel informiert Sie der Hersteller auf seiner Produktseite über die korrekte Vorgehensweise.

Platten-ABC: Die wichtigsten Begriffe für SSD und HDD

AHCI: „Advanced Host Controller Interface“ ist eines der Protokolle, über das SSDs mit dem System kommunizieren. Dabei kommt eine Technik namens NCQ (Native Command Queuing) zum Einsatz. Damit kann die Platte selbstständig eingehende Befehle umsortieren. Vor allem bei HDDs verringert NCQ den Zeitverlust bei der Suche nach den angeforderten Daten.

Cache: HDDs besitzen einen vorgeschalteten Cache-Speicher – in der Regel einen DRAM-Speicherbaustein. Darin lassen sich häufig genutzte Dateien zwischenspeichern, um die Zugriffszeiten zu reduzieren.

Controller: Der Controller ist ein zentraler Bestandteil einer SSD und übernimmt die Kommunikation mit dem System und die komplette Verwaltung der Speicherbausteine. Deshalb ist er auch mit einer Rechenlogik ausgestattet – meistens handelt es sich dabei um einen ARM-Prozessor. Die installierte SSD-Firmware ist das Betriebssystem für den Controller.

Flashspeicher: Diese nichtflüchtigen Speicherbausteine behalten die gespeicherten Daten auch ohne Stromversorgung. Die Daten werden in sogenannten Blöcken gespeichert, die beliebig geändert und gelöscht werden können. Insgesamt arbeitet Flash deutlich schneller als herkömmliche Festplatten, verbraucht weniger Strom und erhitzt sich weniger.

HDD-Drehzahl: Die Magnetscheiben innerhalb einer Festplatte rotieren mit einer bestimmten Umdrehungszahl pro Minute, die auch mit U/min oder auch RPM (rounds per minute) angegeben wird. Höhere Drehzahlen erlauben höhere Datenraten: So bietet eine HDD mit 7200 Umdrehungen pro Minute eine Datenrate von bis zu 250 Megabyte pro Sekunde. Doch durch das Ausrichten des Schreib-und Lesekopfes hinken auch schnelldrehende Magnetscheiben-Festplatten den SSDs in Sachen Geschwindigkeit hinterher.

MTBF: Die „Mean Time Between Failures“ ist die vom Hersteller ermittelte Zeit in Stunden bis zum vermutlichen Ausfall der entsprechenden Komponente. Bei diesem Wert handelt es sich aber um eine durchschnittliche, hochgerechnete Dauer aus Stichproben der Produktionschargen. Diese Angabe ist deshalb weder eine Garantieaussage noch absolut zuverlässig. Denn in der Praxis hängt die Lebensdauer einer Festplatte stark von den Betriebsbedingungen des Geräts ab.

NAND: Dies bezeichnet die Bauart des Flashspeichers und ist der aktuell am häufigsten eingesetzte Speichertyp in SSDs. Die Abkürzung steht für „Not-AND“, also „Nicht-und“ und bezeichnet eine serielle Verschaltung einzelner Speicherzellen wie in einem Gatter.

NVMe: „Non Volatile Memory Express“ ist der Nachfolger von AHCI, der den schnelleren PCI-Express-Standard verwendet. Vor allem bei parallelen Zugriffen, die insbesondere beim Multithreading erfolgen, sind höhere Geschwindigkeiten möglich.

SATA: Diese Abkürzung steht für „Serial Advanced Technology Attachment“ und ist ein Schnittstellenstandard zur Anbindung von Festplatten oder optischen Laufwerken an die Hauptplatine. Hierbei erfolgt eine serielle Punkt-zu-Punkt-Übertragung von Daten.

Wear-Leveling: Im Vergleich mit HDDs verfügen SSDs über eine kürzere Lebensdauer. Je nach Modell und Speichertyp überstehen die Speicherzellen nur eine bestimmte Anzahl von Schreibvorgängen, bevor sie den Geist aufgeben. Wear-Leveling soll dem entgegenwirken und bezeichnet eine Kombination aus mehreren Techniken, um Flashspeicher ein längeres Leben zu ermöglichen. Beispielsweise werden die Schreibzugriffe gleichmäßig über alle Zellen verteilt, anstatt nur auf bestimmte Bausteine und diese somit übermäßig zu belasten. Wie genau diese Verteilung erfolgt, unterscheidet sich von Hersteller zu Hersteller und wird als Betriebsgeheimnis streng gehütet.

Smartphone: Oppo Reno mit 10-fach Zoom Kamera

Oppo hat in China das neue Oppo Reno und das Oppo Reno 10x Zoom Edition mit Pop-Up-Selfie-Kamera enthüllt.

Nachdem das neue Oppo Reno bereits seit einigen Wochen durch die Gerüchteküchegeisterte, hat Oppo seine neuen Smartphones in dieser Woche auf einem Event in Beijing enthüllt . Das Oppo Reno verfügt über einen AMOLED-Bildschirm im 6,4-Zoll-Format. Auf eine Notch verzichtet der chinesische Hersteller bei seinen neuen Geräten. Die Selfie-Kamera ist in einem Ausklapp-Mechanismus untergebracht, der an eine Haifisch-Flosse erinnert. Die Linse löst mit 16 Megapixeln auf und bietet eine maximale Offenblende von f/2.0. Der Fingerabdrucksensor ist direkt im Display-Glas untergebracht. An der Rückseite verbaut der Hersteller einen 48-Megapixel-Sensor mit f/1.7 sowie einen Tiefensensor mit 5 Megapixeln. Im Gehäuse werkeln ein Snapdragon 710 und je nach Speicher-Ausstattung (bis maximal 256 Gigabyte) 6 oder 8 Gigabyte RAM. Der integrierte Akku fasst 3.765 mAh. Die Einsteiger-Variante mit 6 Gigabyte RAM und 128 Gigabyte Speicher kostet in China umgerechnet 396 Euro.

Die Reno 10x Zoom Edition ist mit einem namensgebenden Kamera-Modul ausgestattet, das einen 10-fach optischen Zoom ermöglicht. Die Dreifach-Kamera an der Rückseite löst mit 48, 8 und 13 Megapixeln auf. Im Gegensatz zum Reno bietet die Zoom Edition ein Display im 6,6-Zoll-Format. Als Prozessor kommt der Snapdragon 855 von Qualcomm zum Einsatz. Der Akku fällt mit 4.065 mAh geringfügig großzügiger aus. Das Reno 10x Zoom Edition ist in China ab umgerechnet 529 Euro mit 6 Gigabyte RAM und 128 Gigabyte Speicher erhältlich. Preise und Veröffentlichungstermine für Europa will Oppo am 24. April 2019 im Rahmen eines weltweiten Launch-Events in Zürich bekannt geben.

Die besten Multifunktions-Drucker bis 100 Euro im Test

Ihr neuer Multifunktionsdrucker darf nicht mehr als 100 Euro kosten und soll günstig im Unterhalt sein. Hier sind die besten Kombis aus den Tests.

Multifunktionsdrucker bis 100 Euro sind besonders beliebt, wenn es um das Drucken, Scannen und Kopieren zu Hause geht. Die getesteten Geräte bewegen sich im Preisbereich von gut 60 bis 100 Euro UVP (unverbindliche Preisempfehlungen der Hersteller). In den Straßenpreisen liegen die Multifunktionsgeräte meist deutlich darunter. Sie sind so günstig in der Anschaffung, dass sie als Mitnahmeprodukte in den Elektronikmärkten und zum Teil sogar beim Discounter zu finden sind. Aber was taugen diese Multifunktionsdrucker?

Crux bei Einstiegs-Kombis: Folgekosten für Tinte und Strom

Die getesteten Multifunktionsdrucker nutzen sowohl einzelne Tintentanks für jede Druckfarbe als auch Kombikartuschen, in denen die Farben zwar in separaten Kammern, aber in einer Patrone untergebracht sind.

Kombikartuschen haben den Nachteil, dass Sie die gesamte Patrone austauschen müssen, auch wenn nur eine Farbe leer gedruckt ist. Hier kommen Sie selbst mit XL-Kartuschen nicht günstig weg: So müssen Sie bei im Vergleich günstigen Seitenpreisen mit gut 4 Cent für die schwarzweiße und über 6 Cent für die farbige Seite rechnen. Gerade beim Farbblatt sind schon allein rechnerisch Werte von 10 Cent keine Seltenheit. Die tatsächlichen Kosten liegen sicher darüber, hängen sie doch von Ihren Druckgewohnheiten ab.

Aber auch bei separaten Tintenpatronen ist nicht alles Gold, was glänzt. Denn grundsätzlich sind bei Einstiegs-Multifunktionsgeräten die Kartuschen recht klein und somit mit geringer Füllmenge ausgestattet. Wer etwas mehr druckt oder kopiert, wechselt schnell Tintentank um Tintentank. Die geringen Reichweiten treiben die Seitenpreise in der Regel hoch. Noch ganz gut weg kommen Sie bei der Schwarzweiß-Seite des Canon Pixma TS5051 mit 3,6 Cent. Dafür liegt der Preis für das Farbblatt mit 7,0 Cent im durchschnittlichen Bereich. Dass es im Farbdruck selbst bei den Einsteigermodellen etwas günstiger geht, zeigt das Modell Canon Pixma MX475 mit 6,2 Cent für die farbige Seite.

Wer nun denkt, dass sich bei wenig Druckeinsatz und geringer Kopienanzahl im Monat ein günstiger Multifunktionsdrucker trotzdem lohnen könnte, muss noch etwas wissen. Sind die Geräte im Ruhemodus – also nicht komplett von der Stromversorgung getrennt, spülen sie in bestimmten Intervallen die Düsen. Sie verbrauchen also Tinte, und das ganz ohne verwertbare Ergebnisse auf dem Papier.

Ansatzweise eine Lösung des Dilemmas offerieren die Gerätehersteller mit speziellen Tintenprogrammen. HP startete bereits vor mehreren Jahren mit „Instant Ink“ eine Art Tintenabonnement, bei dem Sie einen monatlichen Seitendurchsatz festlegen und dafür einen festgelegten Betrag zahlen. HP liefert die entsprechende Tintenmenge in Form von speziell gechippten Patronen. Galt das Angebot anfangs nur für ausgewählte Geräte mit kleinen Kartuschen, hat es der Hersteller nun auf fast alle Tintenstrahlmodelle ausgeweitet, egal, ob sie für den Heim- oder den Office-Einsatz gedacht sind – das gilt auch für das Modell HP Deskjet 3630 aus der aktuellen Rangliste.

Seit dem Herbst 2017 hat Epson mit „Readyink“ eine ähnliche Möglichkeit geschaffen, die Tintenkosten für die Kombigeräte-Serien Expression und Workforce zu senken. Hier schließen Sie kein Abo ab, sondern richten beim Fachhändler einen Account ein, in dem Ihr Epson-Modell registriert ist. Benötigen Sie Tintennachschub, sendet Ihnen der Händler die gewünschten Patronen zu und soll Sie regelmäßig über Sonderangebote informieren. Das Angebot schließt die platzierten Drucker Epson Expression Home XP-245 , XP-345 , XP-352 und XP-445 ein und gilt auch für den neu platziertenExpression Premium XP-6100 .

Brother wiederum hatte geplant, den Amazon-Service „Dash Replenishment“ zu nutzen, um für einfachen Tintennachschub zu sorgen. Anstelle eines „Dash-Buttons“ sollte der Nachbestellautomatismus in den Geräten integriert sein. Geht der Tintenvorrat zur Neige, meldet sich der Drucker, und Sie können die Tinte rechtzeitig bei Amazonbestellen. Ob dieser Weg für den Tintennachkauf jedoch jemals eingeführt wird, ist derzeit absolut ungewiss. Denn Amazon hat die Dash-Buttons im März 2019 aus dem Handel genommen, nachdem das Unternehmen im Januar dieses Jahres einen Rechtsstreit vor dem Oberlandesgericht in zweiter Instanz verloren hatte.

Ein Wort zum Stromverbrauch

Grundsätzlich benötigen die günstigen Multifunktionsgeräte relativ wenig Strom. Allerdings sparen sich die Hersteller gerade im Einstiegsbereich oft einen sauberen Ausschalter. Die Folge: Die Kombidrucker ziehen auch dann Strom, wenn Sie den Ausschalter betätigt haben. Im Testfeld trifft das auf die Modelle Canon Pixma TS5051und Epson Expression Home XP-245 und XP-345 zu. Die Multifunktionsdrucker gehen ausgeschaltet nur auf 0,2 oder 0,1 Watt, nicht auf 0 Watt – das ist schade. Abhilfe schafft hier nur, den Stecker zu ziehen, wenn Sie den Kombidrucker sicher nicht benötigen.

Dass es selbst bei sehr günstigen Geräten anders geht, zeigen die Modelle Canon Pixma MX475 , MX495 , TS3151 , TR4551 und HPs Deskjet 3630 , die sich ausgeschaltet komplett von der Energiezufuhr trennen.

Ausstattung bei günstigen Multifunktionsdruckern

Es wäre ein Trugschluss zu glauben, Multifunktionsdrucker bis 100 Euro bringen stets wenig Ausstattung mit. Selbst auf Geräte mit Fax-Funktion müssen Sie hier nicht verzichten, wie die Modelle Canon Pixma MX475 und MX495 zeigen. Die MX-Serie von Canon wird aktuell durch die TR-Serie ersetzt. Das Fax bleibt aber Teil der Ausstattung, wie der Canon Pixma TR4551 zeigt. Die Multifunktionsgeräte können zusätzlich mit automatischem Vorlageneinzug und Schrift-Display punkten.Viel Ausstattung kennzeichnet auch den Epson Expression Premium XP-6100 . Neben automatischem Duplex-Druck bringt das Gerät zwei Papierfächer, Vorschaudisplay und CD/DVD-Druckfunktion im kompakten Gehäuse unter.

Wer drahtlos drucken möchte, findet WLAN bei allen Multifunktionsdruckern der Top 10 integriert. Es gibt allerdings noch Beispiele ohne die Drahtlosschnittstelle. Achten Sie darauf, wenn die Anschaffungspreise deutlich unter 50 Euro liegen. Gleichzeitig bieten alle Hersteller Apps zum Drucken, teils auch zum Scannen an. Wer vom Mobilgerät drucken will, ohne eine App zu installieren, wählt entweder den Dienst des Hersteller wie HP ePrint oder Epson Connect oder im Gerät integrierte Services wie Apple Airprint und Google Cloud Print. Allerdings beherrschen nicht alle Geräte automatisch auch alle Standards.

Karteneinschübe für den Direktdruck ohne PC bieten die Multifunktionsdrucker CanonPixma TS5051, Epson Expression Home XP-345 und Epson Expression Premium XP-6100. Als Kartenformat hat sich SD inzwischen durchgesetzt.

Fazit: Kein günstiger Multifunktionsdrucker ohne Kompromiss

Bei Einstiegs-Multifunktionsdruckern müssen Sie insbesondere bei Tempo und Qualität mit einigen Defiziten rechnen. So sind die Scan-Einheiten der günstigen Multifunktionsdrucker zwar für Alltagsaufgaben geeignet, sie verlieren jedoch meist schnell an Tiefenschärfe. Das macht sich besonders bei Foto-Scans bemerkbar. Gleichzeitig lesen manche Scan-Einheiten nicht sauber bis zum unteren Rand. Kopieren Sie A4-Vorlagen, kann es passieren, dass Inhalte abgeschnitten werden.

Die Testsieger im Überblick

Zum Marktstart ruft der Epson Expression Premium XP-6100 noch eine UVP von 139 Euro auf. Inzwischen findet sich der Multifunktionsdrucker für 99 Euro auf der Hersteller-Webseite. Die Preissenkung katapultiert das Gerät an die Spitze der Kombidrucker bis 100 Euro. Er bringt viel Ausstattung mit, die er in einem kompakten Gehäuse unterbringt.

Den derzeitigen Preis-Leistungs-Sieg erobert sich der Canon Pixma TR4551. Der Multifunktionsdrucker ist der Nachfolger des MX495 – ein jahrelanger Verkaufsschlager und ehemaliger Testsieger. Wie sein Vorgänger ist auch der TR4551 für den heimischen Arbeitsplatz gedacht, wenn ein Fax benötigt wird. Neu ist der automatische Duplex-Druck. Bereits kurz nach seiner Einführung fällt der Preis im offiziellen Canon-Store von 90 auf 70 Euro. Das macht den TR4551 genauso wie die baugleiche schwarze Farbvariante TR4550 zum Preisschnäppchen.

Ärgerlicher als die Kompromisse in Tempo und Qualität bleiben jedoch die Seitenpreise. Gerade günstige Multifunktionsdrucker sind keine Sparer bei den Folgekosten. Wer viel druckt und kopiert, für den kommen die Einsteiger-Kombis nicht in Frage. Dafür sind die Seitenkosten durch die Bank zu hoch. Abhilfe schaffen hier aber schon Multifunktionsdrucker, die knapp über der magischen Marke von 100 Euro liegen. Lesen Sie dazu diesen Vergleichstest .