Windows 10 Mai-2019-Update: Warnung vor USB-Problemen

Microsoft warnt davor, dass ein Update auf Windows 10 Version 1903 scheitern kann, wenn ein USB-Gerät am PC angeschlossen ist.

Microsoft warnt vor einem massiven Problem, welches beim Update auf Windows 10 Mai-2019-Update (Windows 10 Version 1903) auftreten kann und anschließend dessen Installation verhindert.

Das Problem tritt unter Windows 10 Version 1803 (April 2018 Update) oder Windows 10 Version 1809 (Oktober 2018 Update) immer dann auf, wenn bei der Installation von Windows 10 Version 1903 an dem Rechner ein USB-Gerät oder eine SD-Karte angeschlossen ist, die einen eigenen Laufwerksbuchstaben erhält. Die Installation wird mit der Fehlermeldung „Dieser PC kann nicht auf Windows 10 aktualisiert werden“ (im Englischen: „This PC can´t be upgraded to Windows 10“) abgebrochen.

Der Fehler tritt laut diesem neuen Support-Eintrag von Microsoft deshalb auf, weil beim Update auf Windows 10 Mai-2019-Update die vor dem Update zugewiesenen Laufwerke bei der Installation des Updates falsch neu zugewiesen werden könnten. Um die damit verbundenen Probleme zu vermeiden, verweigert Windows 10 das Upgrade auf Windows 10 Mai-2019-Update.

Die einfache Lösung für das Problem: Vor dem Update auf Windows 10 Mai-2019-Update sollten angeschlossene USB-Sticks, USB-Laufwerke oder eingelegte SD-Karten, die einen Laufwerksbuchstaben zugewiesen erhalten, vom Rechner entfernt werden. Die betreffenden Geräte können dann nach einem erfolgreichen Update auf Windows 10 Mai 2019 Update wieder an das System angeschlossen werden.

Microsoft betont, dass das Problem auch noch mal mit künftigen Windows-10-Updates komplett gelöst werden soll, so dass die Geräte vor der Installation einer neuen Windows-10-Version nicht mehr entfernt werden müssen. Für Windows Insider ist das Problem auch schon bereits gelöst: Und zwar ab den Windows-Insider-Versionen mit der Build-Nummer 18877 und höher.

Windows 7: Hinweis-Fenster erinnert jetzt an Support-Ende

Microsoft hat laut Anwenderberichten damit begonnen, auf Windows-7-PCs auf das baldige Support-Ende von Windows 7 hinzuweisen.

Microsoft hat laut Anwenderberichten aus den USA damit begonnen, auf Windows-7-Rechnern die Warnhinweise auf das baldige Support-Ende von Windows einzublenden. Das berichtet Betanews.

Der Hinweis erscheint auf den Windows-7-Rechnern als Pop-up-Fenster. Das Pop-up-Fenster zeigt das Bild eines älteren Notebooks mit dem bekannten Windows-7-Desktop-Hintergrund und dem Windows-7-Startmenü. Darunter steht sinngemäß, dass nach zehn Jahren der Support für Windows 7 sich seinem Ende nähert. Und dass Microsoftam 14. Januar 2020 letztmals Sicherheits-Updates für Windows 7 veröffentlicht. Rechts darunter befindet sich ein großer „Lern more“-Button, der zu einer Seite mit weiteren Informationen führt. Vor allem aber findet man auf dieser Webseite Kauf-Angebote für neue Rechner mit Windows 10.

Sie können aber über eine kleine Checkbox links unten im Pop-up auswählen, dass dieses Hinweis-Fenster nicht mehr angezeigt werden soll.

Die ersten Anwenderberichte über die Hinweis-Fenster stammen wohl vom 18. April 2019. Allerdings scheinen noch nicht alle Windows-7-Nutzer dieses Pop-up tatsächlich schon zu Gesicht bekommen zu haben, wie Betanews schreibt.

Windows 7 können Sie natürlich trotz dieses Hinweis-Fensters weiter nutzen. Nur bekommen Sie nach dem 14.1.2020 eben keine Sicherheitsupdates mehr und neu entdeckte Sicherheitslücken werden nicht mehr geschlossen.

Freesync mit Nvidia-Geforce-Grafikkarten nutzen

Freesync war bis Anfang dieses Jahres nur AMD-Radeon-Grafikkarten vorbehalten – und das hat sich jetzt geändert.

Bisher waren die Bildsynchronisationstechniken Nvidia GSync und AMD Freesync zwei getrennte Verfahren. Beide sorgen für ein deutlich flüssigeres Bild, indem sie die Ausgabe auf dem Monitor mit dem Grafikprozessor gleichschalten.

Das Verfahren Nvidia G-Sync, das vom gleichnamigen Grafikkarten-Spezialisten entwickelt wurde, verursacht eine relativ hohe Investition. Denn die Schirme benötigen ein extra Hardware-Modul im Inneren. Außerdem stellt der Hersteller einen gewissen Qualitätsanspruch an die sonstige Ausstattung, etwa das Panel.

Die Alternative Freesync benötigt keine zusätzliche Hardware in den Bildschirmen, funktioniert jedoch nur im Zusammenspiel mit Displayport ab der Version 1.2. Denn ab dieser Versionsnummer ist der offene Standard „Adaptive Sync“ integriert, der eine ähnliche Bildsynchronisation wie bei G-Sync ermöglicht.

Ab dem Nvidia-Grafiktreiber mit der Version 417.17 für die Geforce-Modelle ab der GTX 1050 wird nun auch Adaptive Sync und damit auch Freesync unterstützt. Damit können Interessenten nun aus einem noch größeren und vor allem preislich deutlich attraktiveren Portfolio an Monitoren auswählen: Aktuell gibt es rund 550 Bildschirme mit Freesync-Funktion, die aus unterschiedlichen Preisklassen stammen.

Von Nvidia offiziell zertifiziert sind bisher zumindest nur zwölf Modelle. Sie tragen das Prädikat „G-Sync Compatible“, da diese wiederum auch in anderen Faktoren wie der Qualität des Panels den Ansprüchen von Nvidia genügen.

Grundsätzlich aktivieren lässt sich Freesync jedoch immer. Allerdings kann es laut Nvidia bei nicht zertifizierten Monitoren zu Bildfehlern kommen. Tests einiger Fachmedien zeigen, dass auch Bildschirme ohne Zertifikat in Zusammenspiel mit G-Sync fehlerfrei funktionieren. Ob das tatsächlich für alle Freesync-Bildschirme gilt, lässt sich derzeit noch nicht sagen.

Wollen Sie G-Sync auf Ihrem Freesync-Monitor aktivieren, klicken Sie mit der rechten Maustaste einfach auf eine freie Stelle Ihres Desktops und wählen aus dem Kontextmenü die „Nvidia Systemsteuerung“ aus. Links unter „Anzeige“ wählen Sie den Eintrag „G-Sync einrichten“. Setzen Sie dann auf der rechten Seite des Fensters einen Haken bei „Enable GSync, G-Sync Compatible“. Wenn Sie möchten, können Sie die Funktion nicht nur für Anwendungen aktivieren, die im Vollbild laufen, sondern auch für jene, die Sie im Fenstermodus nutzen. Übernehmen Sie die Einstellungen und wechseln Sie dann zum On-Screen-Menü Ihres Monitors, um dort ebenfalls Freesync zu aktivieren. Ab sofort ist die Bildsynchronisation aktiv.

Sollte es bei Ihrem Bildschirm zu Darstellungsfehlern wie Flackern oder Rucklern kommen, probieren Sie zunächst einige Bildprofile durch. Eventuell lassen sich die Fehler dadurch beheben. Bleiben die Mängel bestehen, müssen Sie Freesync wieder deaktivieren.

Aldi: 799-Euro-Laptop mit i5, 8 GB RAM, Nvidia-Grafik

Aldi Süd verkauft gleich zwei unterschiedliche 17,3-Zoll-Notebooks: eines für 499 Euro, das andere für 799 Euro. Letzteres kommt mit Intel-Core-CPU, 8 GB RAM, SSD und Festplatte sowie Nvidia-Grafik.

Medion Akoya S17402: 17,3-Zoll-Notebook für 499 Euro

Aldi Süd verkauft ab dem 29. April 2019 das Notebook Medion Akoya S17402. Der 17,3-Zoll-IPS-Bildschirm (Bildschirmdiagonale: 43,9 cm; 1920 x 1080 Pixel) wird von einem Aluminiumgehäuse eingefasst (der Displayrahmen ist aus Kunststoff). Ein Intel-Pentium Gold 5405U-Prozessor (2,3 GHz, 2 MB Intel Smart Cache) mit 4 GB Arbeitsspeicher treibt das Akoya S17402 an. Als Speichermedium kommt eine 512 GB große SSD zum Einsatz.

Für kabellose Datenübertragungen stehen WLAN-AC und Bluetooth 5.0 zur Verfügung. Für Chats und Videokonferenzen sind HD-Frontkamera, Mikrofon und zwei Lautsprecher verbaut. Dank der Schnellladefunktion soll der 3-Zellen-Li-Polymer-Akku innerhalb von 60 Minuten von 0 auf etwa 80 Prozent geladen werden. Aber: Der Akku ist fest eingebaut und kann nicht ohne Weiteres vom Benutzer selbst ausgetauscht werden. Als Betriebssystem ist Windows 10 Home vorinstalliert.

Anschlüsse: Kartenleser für SD, SDHC, SDXC-Speicherkarten, 1x USB 3.1 Typ C mit Display-Port-Funktion, 2 x USB 3.1, 1 x USB 2.0, 1 x HDMI, 1 x Netzadapteranschluss; Audio: 1 x Audio-Kombi-Anschluss (Mic-in & Audio-out)

Abmessungen (B x H x T) / Gewicht: 39,9 x 1,84 x 26,6 cm / 2,2 kg (inklusive Akku)

Preis: Aldi Süd verkauft das Medion S17402 ab dem 29. April für 499 Euro. Kunden bekommen drei Jahre Garantie.

Einschätzung und Alternativen: Das Medion Akoya S17402 ist mit seinem Intel- Pentium Gold 5405U-Prozessor kein Bolide. Für Alltagsaufgaben wie Surfen, Chatten, Mailen, Social Media und einfache Office-Aufgaben ist es aber sicherlich ausreichend. Wie unser Preisvergleich zeigt, ist der Preis durchaus attraktiv. Vergleichbar ausgestattete Notebooks kosten in der Regel deutlich mehr. Oder aber man bekommt für rund 500 Euro nur Notebooks mit einem kleineren Bildschirm.

Medion Akoya P17601: 17,3-Zoll-Notebook mit Geforce MX150, Core-CPU, 8 GB RAM, 1,5-TB-Festplatte für 799 Euro

Ebenfalls ab dem 29. April verkauft Aldi Süd noch ein weiteres 17,3-Zoll-Notebook (IPS-Display, 1920 x 1080 Pixel). Es bietet gegenüber dem 499-Euro-Notebook deutlich mehr Leistung. Denn das Medion Akoya P17601 ist mit einem Intel Core i5-8265U-Prozessor (1,60 GHz, bis zu 3,90 GHz, 6 MB Intel Smart Cache) der 8. Generation ausgestattet, der auf 8 GB Arbeitsspeicher zugreifen kann. Außerdem ist ein dedizierter Grafikchip dabei, nämlich ein Nvidia Geforce MX150 mit 2 GB Grafikspeicher.

Als Speichermedium für Betriebssystem und Programme kommt auch beim Akoya P17601 eine 512 GB große SSD zum Einsatz. Zusätzlich gibt es aber noch eine 1,5-TB-Festplatte für Videos, Bilder, Musik, Spiele oder Dokumente.

Zur weiteren Ausstattung gehören auch beim Medion P17601 Schnellladefunktion, WLAN-AC, Bluetooth 5.0, HD-Frontkamera, Mikrofon und zwei Lautsprecher. Als Betriebssystem ist auch hier Windows 10 Home vorinstalliert. Das Gehäuse ist aus Aluminium, der Displayrahmen aus Kunststoff. Der Akku ist fest eingebaut und kann nicht ohne Weiteres vom Benutzer selbst ausgetauscht werden.

Anschlüsse: Kartenleser für SD, SDHC, SDXC-Speicherkarten, 1x USB 3.1 Typ C mit Display-Port-Funktion(4), 2 x USB 3.1, 1 x USB 2.0, 1 x HDMI, 1 x Netzadapteranschluss; Audio: 1 x Audio-Kombi-Anschluss (Mic-in & Audio-out)

Abmessungen (B x H x T) / Gewicht: 39,9 x 1,84 x 26,6 cm / 2,3 kg (inklusive Akku)

Preis: Das Medion P17601 ist ab dem 29. April für 799 Euro in allen Aldi-Süd-Filialen erhältlich. Kunden bekommen drei Jahre Garantie.

Einschätzung und Alternativen: Mit Core i5, 8 GB RAM und Nvidia-Grafikchip ist das Medion Akoya P17601 deutlich leistungsstärker als das Medion Akoya S17402. Und dank der 1,5 TB großen Festplatte bietet das 799-Euro-Notebook deutlich mehr Platz. Selbst wenn Sie nur selten Videoschnitt oder Bildbearbeitung machen oder nur selten spielen, bietet das Medion Akoya P17601 mehr Leistungsreserven als das Medion Akoya S17402 und dürfte somit langfristig die bessere Wahl sein. Der Preis ist wirklich gut, wie unser Preisvergleich zeigt. Andere Notebooks zu diesem Preis haben in der Regel kleinere Bildschirme und keine zusätzliche Festplatte.

Windows 10 Version 1903: Diese CPUs werden unterstützt

Zum Start von Windows 10 Version 1903 hat Microsoft die Liste der durch Windows 10 unterstützten CPUs aktualisiert.

Der Start von Windows 10 Mai-2019-Update (Windows 10 Version 1903) rückt immer näher, da hat Microsoft auch die Liste der unterstützten Prozessoren aktualisiert. Windows 10 Version 1903 wird bereits an Windows Insider ausgeliefert. Demnächst dürfen dann auch andere Window-10-Nutzer zur neuen Version wechseln, wenn sie die Windows-Update-Funktion verwenden. An alle Windows-10-Nutzer wird Windows 10 Mai-2019-Update dann wohl ab Ende Mai ausgeliefert.

Auf der Website „Windows Processor Requirements“ erläutert Microsoft, welche Prozessoren die jeweiligen Varianten von Windows 10 unterstützen. Neu hinzugekommen ist der Eintrag für „Windows 10 Version 1903“ im Bereich „Windows Client Edition Processor Table“.

Anzumerken ist, dass dort derzeit nur CPUs aufgelistet werden, die auch tatsächlich auf dem Markt erhältlich sind. Wer Windows 10 Version 1903 nutzen möchte, der muss laut der Liste eine der folgenden CPUs besitzen:

Intel…

Intel Core i3, i5, i7, i9-9xxxK (bis zur 9ten Generation)

Intel Xeon E-21xx (nur unter Windows 10 Pro für Workstation und Windows 10 Enterprise)

Intel Atom J4xxx, J5xxx und N4xxx, N5xxx

Celeron

Pentium

AMD…

A-Series (Ax-9xxx) & E-Series (Ex-9xxx) & FX-9xxx (bis zur 7ten Generation)

AMD Athlon 2xx Prozessor

AMD Ryzen 3/5/7 2xxx (bis zur 2ten Generation der Ryzen-Prozessoren)

AMD Opteron (nur unter Windows 10 Pro für Workstation und Windows 10 Enterprise)

AMD EPYC 7xxxx

Qualcomm

Snapdragon 850

Die AMD-Prozessoren der dritten Ryzen-Generation (Ryzen 3000) werden damit laut der Liste nicht unterstützt. AMD wird sie voraussichtlich demnächst vorstellen und sie werden dann ab Mitte 2019 auch erhältlich sein. Die neuen Ryzen-3000-Prozessoren soll AM4-Mainboards der ersten oder zweiten Ryzen-Generation mit 300/400er Chipsätzen unterstützen.

Dass Ryzen-3000-Prozessoren nicht ausdrücklich von Microsoft erwähnt werden, hat in der Praxis keinerlei Auswirkungen auf die tatsächliche Unterstützung unter Windows 10. Vermutlich wird diese CPU noch hinzugefügt, sobald AMD sie offiziell auch angekündigt hat, was demnächst passieren soll.

Auf der Liste fehlt übrigens auch eine Erwähnung des Qualcomm Snapdragon 8cx, den Qualcomm bereits vor einiger Zeit angekündigt hatte, Mit ihm sollen Windows-10-Geräte schneller als mit dem Snapdragon 850 laufen. Allerdings dauert es bei diesem Prozessor noch einige Zeit, bis er tatsächlich verfügbar ist.

iCloud-Speicher ist voll? So räumen Sie auf!

Wer für den zusätzlichen Speicherplatz in iCloud nichts zahlt, merkt recht bald, dass fünf Gigabyte recht wenig sind. So kommen Sie auch damit problemlos aus.

Seit Oktober 2011, dem Start von iCloud, hat sich nichts geändert: Fünf Gigabyte kostenlosen Speicher gibt Apple zu jedem Konto hinzu. Für den Anfang reicht das, aber schon bald läuft das Cloud-Fass über. Vor allem dann, wenn man in Fotos die iCloud-Fotomediathek eingeschaltet hat, 5 GB sind mit Bildern und Videos schnell beieinander. Auch der iCloud-Desktop beansprucht recht schnell viel Speichervolumen. Apple hat zwar seit dem Start von iCloud vor sieben Jahren die kostenpflichtigen Zusatzangebote im Preis reduziert, respektive die Volumina für gegebene Preise erhöht, aber weiterhin nicht den freien Bereich vergrößert.

Das ist insbesondere deshalb ärgerlich, weil seit der Zeit einige nützliche Funktionen in den Systemwelten zwischen Mac, iPhone und iPad hinzugekommen sind. So etwa die erwähnte iCloud-Fotomediathek , mit deren Hilfe man all seine Bilder und Videos auf Apples Servern sicher speichern und beliebig auf alle Endgeräte herunterladen kann, die mit der gleichen Apple ID verknüpft sind. Zuletzt wanderte iMessage in die iCloud, der Nachrichtendienst kann auch locker ein Gigabyte an iCloud-Speicher belegen.

„Andere“ im iCloud-Speicher verstehen

Wenn man den iCloud-Speicher aufräumen will, muss man zunächst wissen, wo man am besten anfängt. Doch was tun, wenn eine ominöse Datenart „Andere“ viel Speicher im iCloud belegt? Apple erklärt nun, was es unter „Andere“ meint . Die zwei größten Datenarten bzw. Anwendungen, woher die Datenarten stammen, werden auf dem iPhone und auf dem Mac direkt angegeben, beispielsweise „Backups“ und „Mail“. Alle restlichen Daten fasst iOS und macOS aus Platzgründen im Menü-Fenster zusammen und tituliert sie „Andere“. Etwas genauer aufgedrößelt werden die Daten im Bildschirm „Speicher verwalten“. Dort blendet sich nicht nur eine Balkengrafik mit der Speicherbelegung, sondern auch eine Liste mit allen Daten bzw. Apps, die in iCloud landen, sowie deren Größe. Ein guter Tipp ist immer, mit den Apps und Daten oben in der Liste anzufangen, so lassen sich schnell größere Datenmengen löschen und so der iCloud-Speicher aufräumen.

Seit macOS Sierra verlagert sich das Mac-Betriebssystem immer mehr in die Cloud, der iCloud-Desktop erlaubt es, all seine (wichtigen) Daten überall parat zu haben. Mit den eher mickrigen 5 GB kommt man nicht weit und wird weder iCloud-Fotomediathek noch iCloud-Desktop nutzen können. Immerhin erlaubt es Apple seit iOS 11 und High Sierra,in der Familie den iCloud-Speicher aufzuteilen . Anstatt vier- oder fünfmal 200 GB zu mieten, kauft man eben 2 TB Speicher und teilt ihn sich auf. Den ausführlichen Ratgeber hierzu haben wir oben verlinkt.

Apple will mit seinen Services Kundschaft anlocken und verkauft Speicher-Upgrades für Intensivnutzer. Die Preise (Stand März 2019): 50 GB kosten 0,99 Euro, 200 GB kosten 2,99 Euro und für 2 TB sind 9,99 Euro fällig, jeweils monatlich. Teilen mit der Familie ist jedoch erst ab 200 GB möglich.

Lokale Sicherung mit Time Machine

Daten in Apples Cloud zu speichern hat Vorteile, vor allem dann, wenn es um wertvolle Erinnerungen wie Fotos und Videos gibt. Die Originale sind auf Apples Servern gespeichert, auf Endgeräten sieht man nur Thumbnails, bis man sich die Bilder in voller Auflösung herunterlädt. Verzichtet man auf diese Bequemlichkeit, muss man sich über Backups wieder intensivere Gedanken machen. Denn wenn die Platte des Rechners versagt und sich Fotos aus mehreren Jahren und Jahrzehnten nicht mehr wiederherstellen lassen, ist das Leid groß. Immerhin hat macOS mit Time Machine eine zuverlässige und einfache Backupfunktion direkt in das System integriert . Bei wertvollen Daten ist es aber unerlässliche, mehr als ein Backup anzufertigen und die Platten am Besten an unterschiedlichen Orten zu lagern. Auch hält keine Festplatte ewig, von Zeit zu Zeit sollte man also auch die Backup-Volumes erneuern. Spätestens dann, wenn man sich einen neuen Mac anschafft.

iCloud-Speicher voll? Aufräumen hilft!

Verzichten wir aber darauf, unsere Fotos und Dokumente in der Cloud zu speichern und kümmern uns um das Backup unserer Daten jeweils lokal , können wir mit den kostenlosen 5 GB durchaus auskommen. Dafür müssen wir aber selbst etwas tun.

Denn mit ein klein wenig Aufräumen schrumpfen wir unseren Platzbedarf schnell unter die Gratis-Grenze und verzichten dankend auf ein kostenpflichtiges Upgrade. iCloud speichert zwar viele Daten wie unsere Kontakte, iWork-Dokumente, Termine, Aufgaben und Spielstände von iOS-Apps, aber nur zwei Arten von Daten rauben wirklich viel Platz: E-Mail-Postfächer und iOS-Backups. Sieht man einmal von dem Sonderfall iCloud-Fotomediathek ab.

iCloud: Was zählt, was nicht?

Der iCloud-Speicher wird von E-Mails, iCloud-Dokumenten und iOS-Backups gefüllt.

Fotostream , den automatische Abgleich von bis zu 1000 Bildern, zieht Apple uns nicht vom Speicherplatz ab. Es lohnt sich also nicht, Fotostream abzuschalten, um iCloud zu entlasten. Fotostream belegt jedoch unter Umständen mehrere Gigabyte Speicher auf dem iPhone oder iPad, da diese die Bilder lokal speichern. Die iCloud-Fotomediathek hingegen geht den umgekehrten Weg: Originale werden in der Cloud gespeichert, auf den angeschlossenen Geräten landen niedrigere Auflösungen.

Kalendereinträge , das Adressbuch und Erinnerungen speichert Apple ebenfalls auf den iCloud-Servern. Diese nehmen jedoch so wenig Platz weg, dass Apple deren Platzbedarf nicht einmal anzeigt.

Auch iTunes in the Cloud geht nicht vom Speicherplatz ab. Apple erlaubt es, gekaufte Videos, Bücher, Apps oder Musik jederzeit wieder erneut herunter zu laden. Das hat jedoch nichts mit unserem iCloud-Speicher zu tun.

Die E-Mails der vergangenen Jahre aufzuräumen, ist mühselig, dauert ewig und ist letztlich nur mäßig effektiv, falls Sie jedoch mit Mail-Ordnern arbeiten, lohnt es sich, diese ab und zu komplett zu löschen. Ab iOS 12 gibt es einen Trick, alle Mails auf einmal vom iPhone zu bereinigen. Dies haben wir in diesem Tipp beschrieben.

iOS-Backups machen es uns dagegen ganz einfach, schnell viel Platz in der iCloud zu schaffen. In den iCloud-Einstellungen auf dem iPhone, iPad und auch am Mac können wir genau sehen, was wie viel Speicherplatz verbraucht.

Aufräumen am Mac

Unter macOS stecken die Einstellungen unter: „Systemeinstellungen > iCloud > Verwalten“. Dort sehen wir, welche Anwendungen und Datentypen wie viel Speicher belegen. E-Mails können wir nur direkt in Mail aufräumen. Gerade für Nutzer, die gerne ihre komplette Mail-Geschichte in einem iCloud-Mailarchiv aufbewahren, kann es sich an dieser Stelle lohnen, die Archive lokal statt in der Cloud abzulegen: Dafür wählen wir in Mail das entsprechende Postfach aus der Seitenleiste aus und wählen per Rechtsklick den Befehl „Postfach exportieren“ und bestimmen, wo das Archiv abgelegt werden soll. Im Anschluss an den Speichervorgang können wir das iCloud-Mail-Archiv leeren und so Speicherplatz zurückgewinnen.

Tipp vom Leser Dirk Volkmann

Kleiner Tipp: Garageband Dokumente und Ordner, die schnell weit über ein GB Speicherplatz belegen, lassen sich nur löschen, wenn das Programm Garageband auch auf dem Rechner installiert ist. Hat man es irgendwann mal gelöscht, ist die Löschoption deaktiviert.

Um die Daten trotzdem los zu werden, muss man Garageband erneut herunterladen, installieren und dann kann man löschen. Anschließend Garageband wieder löschen, und das Problem ist gelöst.

Wichtig: nach der Installation keine Updates, Instrumente und ähnliches laden, sonst kann man wieder von vorn anfangen.

Andere Programme räumen wir direkt im iCloud-Speichermenü von macOS auf. Das gilt auch für Dokumente und Daten, also Pages-Dokumente, Keynote-Präsentationen, Numbers-Spreadsheets, Dokumente aus Textedit oder Bilder und PDFs aus Vorschau. Vorsicht: Daten aus einer dieser Apps lassen sich nur komplett löschen. Will man nur einen Teil der Daten loswerden, hilft ein Blick in den Ordner „iCloud Drive“. Dort sind alle Dokumente sortiert nach Programm sichtbar, die auf iCloud Platz belegen.

Unter „Backups“ sehen wir auch in den macOS-Einstellungen Sicherungen aller iOS-Geräte. Diese können wir hier komplett löschen, beispielsweise, wenn eines der gesicherten Geräte längst verkauft ist. Auch wenn wir unser iPhone zwischendurch neu eingerichtet haben, legt iCloud ein neues Backup an und behält das alte. Um die Backups im Detail auszumisten, müssen Sie dies direkt auf dem jeweiligen iOS-Gerät machen.

Aufräumen am iPhone und iPad

Da Fotobackups vom iPhone der größte Datenfresser sind, lohnt sich dieser Schritt besonders: Der effektivste Punkt ist das Backup von Foto- und Videoaufnahmen. Alle unsere Aufnahmen werden in den Standardeinstellungen in das iCloud-Backup gesichert – zusätzlich zum Fotostream. Wenn wir das Backup für Aufnahmen ausschalten, werden alleine dadurch schnell mehrere Gigabyte frei. Der einzige Haken: Stellt man sein iPhone aus einem iCloud-Backup wieder her, ist „Aufnahmen“ anschließend leer.

Die Details zum iOS-Backup finden Sie wie folgt: Öffnen Sie zunächst die App „Einstellungen“ und tippen Sie dann auf Ihren Namen ganz oben in der Liste. Wenn Sie nun auf „iCloud“ tippen, sehen Sie ganz oben unter dem Stichwort „Speicher“ eine Grafik, die anzeigt, wie viel Platz mit Daten welcher Art belegt ist. Darunter befindet sich die gesuchte Option „Speicher verwalten“. Unter dem Punkt „Backups“ sehen Sie nun ein Symbol Ihres Gerätes und daneben die Größe des Backups. Tippen Sie für mehr Informationen darauf.

Im nächsten Bildschirm listet iOS auf, welche Apps wie viel Backup-Platz verbrauchen. Legen Sie einen der virtuellen Schalter um, löscht iCloud das Backup für dieses Programm und sichert es in der Zukunft nicht erneut. Neben der Kamera-App gibt es einige weitere Anwendungen, die unter Umständen viel Platz im iCloud-Backupbelegen: Dazu zählen beispielsweise Apps, die Videos aus dem Internet herunterladen oder Apps, die Videos aufzeichnen und nicht in den „Aufnahmen“, sondern im eigenen Nutzerordner speichern. Bei Videos können hier schnell mehrere Gigabyte zusammen kommen.

Anwendungen, die besonders viel Speicher fressen, listet iOS in der Backup-Übersicht ganz oben auf. Wenn wir eine dieser Apps vom Backup ausschließen, warnt iOS und fragt nach, ob wir die Daten wirklich löschen wollen. Dies löscht nur das Backup der Daten aus der iCloud, auf dem iPhone bleiben sie vorhanden. Stellen wir das iPhone jedoch später aus dem iCloud-Backup wieder her, sind die Daten verloren. Wichtige Daten sollten deshalb in jedem Fall Teil des Backups bleiben.

Haben wir mehrere iOS-Geräte im Einsatz, müssen wir das Backup für bestimmte Daten wie Fotos auf allen einzeln ausschalten. Das geht nur vom jeweiligen Gerät aus, nicht zentral für alle gleichzeitig.

Fehlerquellen Netzteil und Festplatte

Es ist zwar immer befriedigend, wenn man einen alten PC mit neuen, leistungsstärkeren Komponenten aufrüsten kann. Und auch das (leichte) Übertakten der CPU führt oft zu erstaunlichen Performance-Ergebnissen. Doch Sie sollten nur so weit upgraden, wie die Leistung Ihres Netzteils hierfür ausreicht. Ansonsten kann Ihr PC instabil werden und unerwünschte Neustarts provozieren.

Es ist nicht einfach herauszufinden, welche Komponenten am meisten Strom verbrauchen. Die Webseite des jeweiligen Geräteherstellers kann aber Aufschluss geben. So können Sie zumindest in etwa den gesamten Stromverbrauch Ihres PCs errechnen und mit der Leistung Ihres Netzteils vergleichen. Wenn sich herausstellt, dass Ihr Netzteil die Summe der Strom verbrauchenden Komponenten nicht stemmen kann, müssen Sie eine Entscheidung treffen. Wenn Sie Ihre CPU übertaktet haben, können Sie den Prozessor wieder in seinen Ursprungszustand versetzen, um Strom einzusparen. Alternativ ersetzen Sie einige besonders stromhungrige Teile durch sparsamere Komponenten. Oder Sie bauen ein leistungsstärkeres Netzteil ein. Ein 500- bis 650-Watt-Netzteil reicht in aller Regel für einen PC mit durchschnittlicher Leistung aus.

Fragmentierte Festplatten

Jedes Mal, wenn Sie eine Datei speichern, ein Programm installieren oder etwas löschen, wird Ihre Festplatte ein klein wenig fragmentierter – und dadurch instabiler. Das verlangsamt sie nicht nur, es kann Ihrem Betriebssystem auch Probleme bereiten, wenn es darum geht, systemrelevante Dateien für den Betrieb zu finden. Nicht selten wird Ihr System dabei aufgeben und es nochmal versuchen wollen – mit einem Absturz.

Ungefähr wöchentlich sollten Sie deshalb Ihre Festplatten (HDD) defragmentieren. Der Prozess dauert je nach Festplattengröße und Dateienmenge allerdings unangenehm lang und ist ausgesprochen hinderlich, wenn Sie nebenbei gerade am PC arbeiten müssen (während des Defragmentierens können Sie keine Dateien abspeichern). Starten Sie den Vorgang also lieber, wenn Sie Ihre Arbeit beendet haben – zum Beispiel nach Büroschluss.

Wichtig: Das Defragmentieren ist bei Solid State Drives (SSDs) nicht notwendig. SSDs speichern alle Daten bereits in einer fortlaufenden Reihenfolge (statt zufälliger Reihenfolge) und sind anfällig für Schäden, wenn sie trotzdem defragmentiert werden.

Unordentliche Registry

Die Registry Ihres PCs ist eine weitläufige Bibliothek von Systemeinstellungen. Die manchmal auch zu Bluescreens und anderen Fehlern führen können. Denn selbst wenn Sie ein Programm deinstallieren, können Registry-Einstellungen zurückbleiben. Diese Einstellungen sind im alltäglichen PC-Gebrauch nutzlos, können aber Systemfehler und Konflikte beinhalten. Denn Ihr PC wird die fehlerbehafteten Registry-Einträge wieder und wieder scannen – und verlangsamt so andere Prozesse. Zu viel davon und Ihre System-Stabilität geht endgültig den Bach runter.

Ein guter Registry-Cleaner – etwa Free Wise – ist das perfekte Tool, um den ganzen Abfall loszuwerden. Free Wise scannt Ihre Registry, findet die Probleme und beseitigt sie – und Ihre Registry ist wieder sauber.

Der gefürchtete Virus

Ja, auch Malware ist ein wichtiger Verursacher von Bluescreens. Zum Glück ist die Lösung simpel: Starten Sie das Antivirus-Programm Ihres Vertrauens, stellen Sie sicher, dass es auf dem aktuellsten Stand ist und scannen Sie Ihr System mit dem gründlichsten Scan, den das Programm zu bieten hat.

Wenn der Virus Sie daran hindert, Ihre Antiviren-Software zu starten, starten Sie Ihren Rechner im abgesicherten Modus neu, indem Sie beim Bootprozess F8 drücken, bevor das Windows-Logo auftaucht. Der abgesicherte Modus hindert alle irrelevanten Programme und Treiber daran, zu starten – nur das Kernsystem wird geladen. Im abgesicherten Modus sollten Sie in der Lage sein, Ihr Antiviren-Programm zu starten und den Scan durchzuführen.

22 Antivirus-Programme unter Windows 7 im Test

Hinweise sammeln, Probleme beheben

Jede Information, die Sie aus einem Bluescreen ziehen können, hilft Ihnen dabei, die Lösung für Ihr spezielles Problem zu finden. Wenn Sie also ein Bluescreen plagt, schreiben Sie sich so viel davon auf, wie Sie können und suchen Sie dann online nach Informationen zu den einzelnen Fehlermeldungen. Diagnostizieren Sie das Problem und lösen Sie es – denn das Problem einfach nur zu ignorieren, wird es auf lange Sicht verschlimmern.

PC-Absturz: Gründe und Schutzmaßnahmen

Ein plötzlicher PC-Absturz ist der Super-Gau. Wir nennen typische Gründe dafür, weswegen der Rechenknecht streiken kann. Und geben Tipps als Schutzmaßnahmen gegen Abstürze.

Zunächst ist es nur ein kleines Stottern. Als nächstes stürzen Programme ab und merkwürdige Geräusche dringen aus Ihrem Arbeits-PC. Es folgt der obligatorische Bluescreen: Ihr PC ist gecrasht und Sie sitzen bloß da, warten einen Neustart ab und hoffen, dass all das keine ernsthaften Schäden hinterlassen hat. Zumal auf Ihrem Arbeits-PC alle Dateien liegen, die Sie für Ihr aktuelles Projekt dringend benötigen. Und der Kunde wartet…

Für solche Horror-Szenarien gibt es viele mögliche Ursachen. Umso wichtiger ist es zu wissen, wie und warum ein PC zusammenbricht, um Abstürze in Zukunft zu vermeiden. Denn eines sollten Sie sich immer vor Augen halten: Der nächste Crash Ihres PCs könnte auch sein letzter sein.

Die meisten Bluescreens sind das Resultat von Hardware- und Installations-Konflikten. Alle Ihre System-Komponenten brauchen IRQs (Interrupt Request Channels) wenn sie installiert werden und jede Komponente benötigt ihren eigenen Kanal, um richtig zu funktionieren. Wenn sich zwei Komponenten den gleichen Kanal teilen und gleichzeitig benutzt werden, kann es zu einem Absturz kommen.

Werfen Sie einen Blick in Ihren Geräte-Manager (bei Windows 7 finden Sie diesen unter „Systemsteuerung, Hardware und Sound“) und suchen Sie nach Geräten, die mit einem gelben Ausrufezeichen markiert sind. Hier liegen die Probleme, die sich oft allein mit einem Treiber-Update beheben lassen. Suchen Sie einfach auf der Webseite des Geräteherstellers nach den neuesten Treibern oder installieren Sie notfalls die betroffene Hardware neu.

RAM-Fehler

Fehler beim Arbeitsspeicher können ebenfalls die Ursache zahlreicher Bluescreens und Boot-Fehler sein. Zum Glück gehören Ihre RAM-Module zu den am einfachsten zu überprüfenden und auch auszutauschenden Komponenten.

Bemühen Sie zunächst die kostenlose Software Memtest86+ um sicherzugehen, dass der Problemherd tatsächlich Ihr RAM ist. Wenn Fehler entdeckt werden, müssen Sie als nächstes herausfinden, welcher Ihrer RAM-Riegel betroffen ist. Entfernen Sie dazu alle Riegel aus Ihrem System bis auf einen, den Sie in den primären Speicherslot stecken. Wenn das System nun ordnungsgemäß bootet und Memtest86+ keine Fehler entdeckt, fahren Sie nach dem gleichen Schema mit den verbleibenden RAM-Riegeln fort. Dabei immer nur einen Riegel gleichzeitig in den RAM-Slot stecken und booten, bis das System entweder Boot-Fehler produziert, oder Memtest86+ ein Problem entdeckt.

Wenn Sie herausgefunden haben, welches Modul die Probleme verursacht, können Sie es einfach durch einen neuen Riegel ersetzen. Achten Sie aber darauf, dass er kompatibel zu Ihrem Motherboard und den anderen RAM-Modulen ist.

Ihr Feind: Die Hitze

Computer erhitzen sich. Das wissen wir spätestens, wenn der Lüfter im Desktop-PC mal wieder besonders laut rotiert, oder sich unsere Beine nach ein paar Stunden unter dem Laptop wie frisch gegrillt anfühlen. Alles im Innern eines PCs erzeugt Abwärme. Und Hitze kann dazu führen, dass Komponenten instabil werden und Ihren PC zum Absturz bringen. Zum Glück, muss man fast sagen; denn PCs sind so gebaut, dass sie sich bei zu großer Hitzeentwicklung automatisch abschalten, um bleibende Hitzeschäden an Komponenten zu vermeiden.

Wenn Sie das Gefühl haben, Ihr PC leitet die Wärme nicht ausreichend ab, überprüfen Sie zuerst alle verbauten Ventilatoren auf ihre Funktionstüchtigkeit. Wenn sich einer gar nicht oder zu langsam bewegt, sehen Sie nach, ob alle Kabelverbindungen richtig sitzen. Wenn die Kabel richtig angeschlossen sind und sich der Lüfter trotzdem nicht bewegt, ist es besser, ihn auszutauschen. Als nächstes stellen Sie sicher, dass alle Lüftungsschlitze, Gitter und Filter in Ihrem PC frei von Staub, Tierhaaren und anderen Materialien sind und die Luft so ausreichend zirkulieren kann. Diese Stellen sind wahre Brutstätten für Hitzebildung. Wenn Sie stark verstaubte oder anderweitig blockierte Komponenten entdecken, reinigen Sie sie mit einem speziellen Luftdruckspray.

Wenn Sie einen Laptop besitzen, achten Sie darauf, dass dieser beim Arbeiten stets auf einem harten, flachen Untergrund steht, der die Lüftungsschlitze nicht verschließt oder behindert. Sie können die Temperatur Ihres Systems mit kostenlosen Tools, etwa demPC Wizard , überwachen. Zusätzlich zu ein paar anderen nützlichen Infos zeigt es Ihnen die Echtzeit-Temperatur aller Ihrer Komponenten an. Wenn in puncto Luftzirkulation alles tiptop ausschaut und Ihr PC sich trotzdem überhitzt, werfen Sie einen Blick in Ihre BIOS-Einstellungen. Wenn Sie während einer Übertaktungs-Eskapade an den Volt-Einstellungen herumgespielt haben, setzen Sie diese wieder auf ihre Ursprungswerte zurück. Je mehr Volt einer Komponente zugefügt, desto heißer wird sie.

Vielleicht haben Sie auch kürzlich eine neue CPU eingebaut? Dann könnte die Ursache für die Abstürze darin liegen, dass Sie die Wärmeleitpaste falsch aufgetragen haben. Entfernen Sie das Wärmeleitblech also wieder, reinigen Sie die Oberflächen mit einem Wattebausch und Isopropyl-Alkohol und versuchen Sie es erneut. Für das Auftragen von Wärmeleitpaste gibt es verschiedene Theorien, das Ziel ist jedoch stets das gleiche: Die Wärmeleitpaste legt sich zwischen die mikroskopisch kleinen Hügel und Täler auf der Oberfläche der CPU und der Wärmeleitplatte, um den bestmöglichen Kontakt zwischen beiden Komponenten herzustellen. Die Paste wirkt nicht, wenn zu wenig davon aufgetragen wurde und ebenso bleibt sie wirkungslos, wenn zu viel benutzt wurde. Arbeiten Sie also am besten nach der „Erbsen-Methode“: Setzen Sie einen kleinen, erbsengroßen Tropfen der Paste in die Mitte der CPU und setzen Sie dann das Wärmeleitblech direkt darauf. Der natürliche Druck verteilt die Paste gleichmäßig.

Router auf Werkseinstellungen zurücksetzen

Wenn sich eine fehlerhafte Netzkonfiguration nicht korrigieren lässt oder ein Netzwerkgerät nicht mehr zugänglich ist, hilft meist nur noch das Zurücksetzen auf die Standardeinstellungen.

Im Netzwerk kommt es auf das Zusammenspiel mehrerer Geräte an. Je nach Ausbau gibt es neben dem DSL-Router Switches zur Erweiterung der Ethernet-Anschlüsse, WLAN-Access-Points oder Repeater zur Vergrößerung der WLAN-Reichweite und Powerline-Adapter für den Datentransport über das Stromnetz. Kommt es zu Störungen, funktioniert der Internetzugriff nicht oder die Geräte können keine Daten austauschen. In diesem Fall prüfen Sie zuerst die Konfiguration der Geräte und stellen bei nicht behebbaren Fehlern die Standardeinstellungen wieder her.

1. Zugriff auf die Konfigurationsoberfläche

Prüfen Sie, ob Sie die Konfigurationsoberfläche des Routers im Browser aufrufenkönnen und ob dieser korrekt für den Internetzugriff und das WLAN konfiguriert ist.

Auch WLAN-Access-Points und Repeater lassen sich über eine Weboberfläche konfigurieren. Standard-IP sowie Benutzername und Passwort für den Zugang sind meist auf einem Aufkleber auf der Unterseite des Gerätes untergebracht oder in der Anleitung zu finden. Diese Daten gelten jedoch nur für den Auslieferungszustand.

Bei der ersten Konfiguration erhalten die Geräte eine IP-Adresse aus dem Adressbereich des DSL-Routers und sind dann nur noch über diese zu erreichen.

Wo immer technisch möglich, verbinden Sie Netzwerkgeräte für die Konfiguration direkt per Ethernet-Kabel mit dem PC, um weitere Fehlerquellen auszuschließen. Standardmäßig erhält der PC dann seine IP-Adresse von diesem Gerät. Sollte dort der DHCP-Server abgeschaltet sein, konfigurieren Sie die IP-Adresse manuell . Sollte ein Gerät auch dann nicht erreichbar sein, setzen Sie es auf die Werkseinstellungen zurück.

Einige Geräte bieten Tools, über die Sie Einstellungen ändern oder die Konfigurationsseite aufrufen. Bei Powerline-Adaptern von Devolo gibt es etwa das Devolo-Cockpit, das Sie nach einem Download von www.devolo.de installieren. Es zeigt alle Powerline-Geräte im Netzwerk an. Ist eine Weboberfläche für ein Gerät vorhanden, etwa beim Adapter dLAN 1200 + WiFi ac , erreichen Sie diese per Klick auf den zugehörigen Reiter neben dem Gerätesymbol.

Ähnliche Tools gibt es oft auch für Webcams, Netzwerkdrucker oder Geräte für die Haussteuerung. Beim Start durchsucht das Tool das Netzwerk nach passenden Geräten und zeigt diese an. Alternativ können Sie die per DHCP konfigurierten IP-Adressen auch über die Weboberfläche des Routers ermitteln, bei einer Fritzbox beispielsweise unter „Heimnetz“. Die Registerkarte „Geräte und Benutzer“ zeigt alle aktuell verbundenen Geräte. Die angezeigte IP-Adresse können Sie direkt in die Adresszeile des Browsers eintippen, um die Konfigurationsseite eines Gerätes aufzurufen. Sollten Sie bei einem Gerät eine feste IP-Adresse manuell eingestellt haben, taucht dieses nicht in der Übersicht des Routers auf. Hersteller-Tools können das Gerät dann ebenfalls meist nicht finden.

In diesem Fall müssen Sie den PC mit einer IP aus dem beim Gerät gewählten Bereich manuell konfigurieren oder das Gerät auf den Werkszustand zurücksetzen (-> Punkt 2 und 3).

2. Geräte auf Standard zurücksetzen

Wenn DSL-Router oder Access Points nicht funktionieren wie gewünscht, stellen Sie notfalls die Standardkonfiguration wieder her. Dafür ist der Zugriff auf die Konfigurationsoberfläche nötig, wie in Punkt 1 beschrieben. Wenn Sie das Passwort für die Konfigurationsoberfläche vergessen haben, verwenden Sie bei älteren Fritzboxen auf der Anmeldeseite den Link „zurücksetzen“. Auch dabei gehen alle Einstellungen verloren. Bei neueren Fritzboxen müssen Sie unter „System -> Push Service“ eine Mailadresse konfiguriert haben, an die das Gerät auf Anforderung einen Passwort-Rücksetz-Link sendet. Dann können Sie auf der Startseite den Link „Kennwort vergessen?“ verwenden und auf „Push Service Mail senden“ klicken. Ohne Zugang zur Konfigurationsoberfläche verwenden Sie die Anleitung aus Punkt 3. Sofern das möglich ist, empfiehlt sich vor dem Zurücksetzen eine Sicherung der bisherigen Konfiguration, bei einer Fritzbox beispielsweise über „System -> Sicherung“ auf der Registerkarte „Sicherung“.

Notieren Sie sich außerdem die Internet-Zugangsdaten, den WLAN-Schlüssel und andere wichtige Einstellungen wie etwa Regeln für die Portweiterleitung. Je nach Router-Modell sollten Sie noch weitere Daten sichern. Bei einer Fritzbox erstellen Sie unter „Telefonie -> Anrufe“ und „Telefonie -> Telefonbuch“ Backups der Listen, jeweils per Klick auf „Sichern“. Das Telefonbuch lässt sich später per Klick auf „Wiederherstellen“ rekonstruieren.

Alle konfigurierbaren Netzwerkgeräte bieten eine Reset-Option, die sich meist unter „System“ oder „System Tools“ erreichen lässt – bei einer Fritzbox unter „System -> Sicherung -> Werkseinstellungen“. Nach einem Klick auf „Werkseinstellungen laden“ wird das Gerät zurückgesetzt.

Der Vorgang kann einige Zeit dauern. Sollte die Konfigurationsoberfläche des Routers danach nicht automatisch erscheinen, starten Sie Ihr Betriebssystem neu, damit sich der PC eine neue IP-Adresse holt.

3. Zurücksetzen ohne Konfigurationsoberfläche

Die meisten Netzwerkgeräte lassen sich auch auf Hardware-Ebene auf den Standard zurücksetzen. Dazu dient meist ein kleiner Knopf auf der Unter- oder Rückseite, der sich oft nur mit einem spitzen Gegenstand wie eine Büroklammer betätigen lässt. Bei einigen Geräten halten Sie den Knopf während des Betriebs einige Zeit gedrückt, um den Reset einzuleiten. Bei anderen schalten Sie das Gerät aus und halten dann den Knopf nach dem erneuten Einschalten für mehrere Sekunden gedrückt. Die weit verbreitete Fritzbox hat keinen Reset-Knopf. Sie können aber ein Telefon verwenden, das mit dem Anschluss für ISDN-Geräte („FON S0“) verbunden ist. Für die meisten Anwender dürfte das AVM-Wiederherstellungsprogramm die komfortablere Option sein. Dieses installiert einfach die Firmware neu und löscht alle Einstellungen. Sie finden das Programm unterftp://ftp.avm.de/fritz.box/ . Gehen Sie in den Ordner mit der Bezeichnung Ihrer Fritzbox und dort nach „x_misc/deutsch“. Laden Sie die EXE-Datei mit der höchsten Versionsnummer herunter, für eine Fritzbox 7390 aktuell die Datei „fritz.box_fon_wlan_7390.annexb.06.30.recover-image.exe“. Damit das Programm funktioniert, müssen Sie die Windows-Firewall vorübergehend deaktivieren. Auf dieser Seite finden Sie eine Anleitung zum Wiederherstellungsprogramm .

Alternativer Notzugriff auf die Fritzbox

Sollte eine Fritzbox nicht mehr über http://192.168.178.1 oder http://fritz.boxerreichbar sein, etwa weil Sie für den Router eine IP-Adresse aus einem anderen Bereich konfiguriert haben, nutzen Sie den Notzugang. Verbinden Sie Buchse „LAN 1“ der Fritzbox direkt mit einem PC per Ethernet-Kabel. Starten Sie erst die Fritzbox und dann Windows neu. Die Konfigurationsoberfläche lässt sich jetzt über die IP-Adressehttp://169.254.1.1 aufrufen.

Defekte Dateien reparieren – So retten Sie Ihre Daten

Ein Programmabsturz, eine abgebrochene Netzwerkverbindung, ein unüberlegter Mausklick – das reicht, um wichtige Dateien zu verlieren. Sorgfältige Rettungsaktionen können den Totalverlust noch vermeiden.

Windows verwöhnt Nutzer zwar mit allerlei Backup-Versionen und ab Windows 7 auch mit einer Versionsverwaltung für Dateien, nicht jedoch mit Wiederherstellungs-Tools im Falle debiler Datenträger und defekter Dateisysteme. Natürlich ist die Vorsorge in Form von Backups immer das zuverlässigste Mittel, um einem Datenverlust vorzubeugen.

1. Zurücksichern statt retten: Dateien in Backups

Weil die meisten Anwender die hohe Kunst von Backups auf dem privaten Rechner kaum pflegen, hat Microsoft Backup und Wiederherstellung in das Betriebssystem integriert. Bereits Windows 7 ist mit der Möglichkeit ausgestattet, über eine Schattenkopie in einem reservierten Bereich auf der Festplatte auch Dateien und Ordner wiederherzustellen. Damit dies funktioniert, muss der Anwender zuvor aber in der Systemsteuerung unter „System -> Erweiterte Systemeinstellungen anzeigen -> Computerschutz“ die Wiederherstellungseinstellungen für jedes gewünschte Laufwerk aktiviert und konfiguriert haben. Die Wiederherstellung erfolgt danach im Windows-Explorer mit einem Rechtsklick auf die Datei beziehungsweise auf den Ordner und über die Auswahl des Menüpunktes „Eigenschaften -> Vorgängerversion“. Dieser Schutz hilft allerdings nur bei versehentlich überschriebenen und gelöschten Dateien.

Bei den Windows-Systemen 8.1 und 10 hat sich Microsoft wiederum etwas Neues einfallen lassen: Mit dem „Dateiversionsverlauf“ lassen sich verschiedene Versionen von Dateien vom Betriebssystem automatisch auf ein externes Laufwerk oder eine Netzwerkfreigabe sichern und von dort wiederherstellen. Dieser Ansatz bietet einen besseren Schutz bei Problemen mit dem Dateisystem oder Laufwerk, ist aber mit Einschränkungen verbunden: Der Dateiversionsverlauf funktioniert lediglich für Dateien in den Bibliotheken. Wer seine eigenen Dateien auf diese Weise schützen möchte, der muss seine Daten immer brav in einer der Bibliotheken speichern. Auch diese automatisierte Backup-Funktion müssen Sie zuerst einmal einschalten: Gehen Sie dazu in der Systemsteuerung auf „Dateiversionsverlauf“, wählen Sie als Nächstes das externe Laufwerk oder die Netzwerkfreigabe als Backup-Speicher aus und klicken Sie danach auf „Einschalten“.

An der Vorsorge gegen versehentlich herbeigeführten Datenverlust hapert es also unter Windows nicht. Die gebotenen Möglichkeiten, Dateien von defekten Datenträgern wiederherzustellen, sind aber doch sehr begrenzt.Im Alltag wird es so sein, dass Nutzer erschrocken feststellen, dass gerade jene Dateien nicht mehr lesbar sind, für die kein angelegtes Backup bereitsteht, weil Medien wie CDs/DVDs und USB-Sticks nicht mehr einwandfrei sind. Es gibt auch dann noch Tools, die für die behutsame Datenrettung auf eigene Faust infrage kommen. Wichtig ist, darauf zu achten, mit Reparaturaktionen direkt am Datenträger den Schaden nicht noch zu vergrößern.

2. Dateirettung: JPEGs, Dokumente, ZIP-Dateien und Co.

Es sind selten die spektakulären Hardware-Katastrophen, die ungesicherte Dokumente mit sich reißen, sondern die kleinen Gemeinheiten: Ein Absturz oder Netzwerkhänger zur denkbar ungünstigsten Zeit, Flüchtigkeitsfehler oder auch Missverständnisse im Team sind die wahren Datenkiller. Und selbst wenn „nur“ eine einzige Datei oder ein einziger Projektordner davon betroffen ist, so ist das Desaster schon groß genug. Dass alles muss aber nicht das Ende der Datei bedeuten, denn eine Wiederbelebung defekter oder gelöschter Dokumente rettet in vielen Fällen zumindest noch einen Teil – was immer noch besser ist als ein Totalverlust.

Ein triviales Namensproblem Viele Windows-Anwender halten ein Dokument für defekt, wenn das vertraute Symbol fehlt und der Doppelklick einen Dialog wie „Wie soll diese Datei geöffnet werden?“ produziert. Tatsächlich liegt oft nur eine falsche Dateinamenserweiterung vor oder diese fehlt komplett. Blenden Sie die Dateierweiterungen über „Ansicht -> Optionen -> Ansicht“ ein, indem Sie das Häkchen bei „Erweiterungen bei bekannten Dateitypen ausblenden“ entfernen. Jetzt können Sie eine fehlende oder falsche Erweiterung manuell korrigieren.

Bilddateien: JPEGs restaurieren & defekte Daten wiederherstellen

Bei JPEG handelt es sich um ein komprimiertes Bildformat, das die Bildinformationen in einem Datenstrom von Byte-Blöcken speichert, den Anzeigeprogramme oder Bildbearbeitungen interpretieren. Dieser Aufbau macht JPEGs zu einem robusten Bildformat und wenn nicht ausgerechnet der Datei-Header am Anfang einer JPEG-Datei fehlt, kann der Inhalt einer beschädigten Bilddatei trotzdem noch angezeigt werden. Sie können dafür in der Regel jedes Bildbetrachtungs- oder -bearbeitungsprogramm verwenden. Mit Irfan View gibt es einen bewährten Bildbetrachter als Freeware-Tool, das auch bei beschädigten Bilddateien nicht schlappmacht.

Fehlt die JPEG-Signatur oder ein Teil des Datei-Headers, dann wird die JPEG-Datei schon gar nicht mehr erkannt. Aber auch in diesem Fall ist eine Wiederbelebung mit einem Datenrettungs-Tool einen Versuch wert. Ein Shareware-Programm, das die Ergebnisse einer Reparatur zunächst einmal mit einem Wasserzeichen versieht, ist Stellar Phoenix JPEG Repair . Die Vollversion ohne Wasserzeichen kostet 39 US-Dollar.

Office-Dateien: Begrenzte Fehlertoleranz

Eine Reparaturfunktion für nicht mehr einwandfreie Dokumente ist sowohl in MicrosoftOffice als auch im freien Libre Office vorhanden. Wenn Sie eine beschädigte Datei öffnen, werden beide Office-Pakete für die bekannten Dateiformate nach einer ersten Fehlermeldung eine Reparatur vorschlagen. Ein Test mit Dateien, die Defekte von gering bis schwer aufweisen, zeigt uns schnell: Libre Office ist empfindlich und quittiert das Öffnen auch bei kleinen Beschädigungen mit einem Ein-/Ausgabefehler. Wacker schlägt sich dagegen Microsoft Office . Selbst wenn Sie Libre Office und dessen offene Dokumentenformate bevorzugen, sollten Sie einen Reparaturversuch von Libre-Office-Dokumenten mit Microsoft Office ab der Version 2007 versuchen, wenn Ersteres nicht weiterhilft. Etwa bei Kollegen oder Bekannten, wenn Sie das Büropaket von Microsoft nicht auf dem Rechner haben oder nur über eine ältere Version (2000, XP, 2003) verfügen. Auch wenn ODT-Dateien kein natives Format von Microsoft Word ist, funktioniert die Reparatur defekter Dateien dieses Typs erstaunlich gut.

Schlägt die automatische Reparatur fehl, dann gibt es für DOC-Dateien in Microsoft Word ab Word XP noch eine nützliche Funktion zur Wiederherstellung des enthaltenen Textes. Alle anderen Informationen in der Datei, das heißt sämtliche Formate, Bilder, Formeln sowie andere Objekte gehen dabei verloren. Bei Textdokumenten sind diese Einbußen sowie die anschließende Arbeit allerdings immer noch einfacher zu verkraften als ein Totalverlust.

Gehen Sie in Microsoft Word auf den Dialog zum Öffnen einer Datei. In der Liste der Dateitypen wählen Sie im unteren Drittel die Option „Text aus beliebiger Datei wiederherstellen“ aus und als Nächstes die beschädigte DOC-Datei. Mit den neueren, XML-basierten, gepackten Formaten wie DOCX und ODT funktioniert dieser Weg dagegen nicht.

Archive: Rettung für Zip-Dateien

Bei gepackten Archiven haben auch kleine Fehler in der Datei und fehlende Bytes aufgrund der Dateistruktur große Auswirkungen auf den Inhalt. Eine Wiederherstellung der enthaltenen Dateien wird schnell unmöglich. Bei Zip-Archiven gibt ein Reparaturprogramm wie Diskinternals ZIP Repair . Aufschluss über den Zustand der Datei. Wenn sich der Datei-Header wiederherstellen lassen sollte, können Sie im Anschluss daran wenigstens einige Dateien extrahieren. Für das ebenfalls verbreitete Pack-Format RAR liefert Winrar selbst eine fähige Reparaturfunktion, die Sie über den Erste-Hilfe-Kasten in der Menüleiste aufrufen.

Alte Programme: Obsolete Dateiformate

Für jedes veraltete, proprietäre Datenformat schlägt irgendwann das letzte Stündlein. Obskure Binärformate wie beispielsweise Microsoft Works, Ami Pro, Word Perfect, Adobe Freehand, Adobe Pagemaker sowie eine Vielzahl anderer, heutzutage nahezu vergessener Programme, sind lediglich lesbar, solange man die dazugehörige Software noch parat hat.

Eine Frage ist, ob eine alte 16-Bit-Software noch läuft. Die 32-Bit-Varianten von Windows bis zu Windows 8.1 haben nach wie vor ein 16-Bit-Subsystem, die 64-Bit-Varianten hingegen nicht mehr. Hier sind uralte Programme wie beispielsweise Dbase folglich nicht mehr lauffähig. Wenn die alte Software selbst fehlt, dann gibt es mit der Webseitewww.vetusware.com eine gute Anlaufstelle. Dort werden Sie die wichtigsten Oldies finden.

Der Download erfordert eine Registrierung mit gültiger Mailadresse. Es gibt seitens der Document Foundation, die auch hinter Libre Office steht, das „Document Liberation Project“, das sich um die Unterstützung freier Bibliotheken für alte Dokumentformate kümmert. Die Ergebnisse dieser Arbeiten werden einmal in Libre Office einfließen.

Gelöschte Dateien: Schnelle Reaktion gefragt

Die Grenzen der Datenwiederherstellung sind immer dann erreicht, wenn das Betriebssystem eine Datei nicht nur zum Löschen markiert, sondern deren Platz bereits teilweise oder vollständig mit anderen Dateien belegt hat. Je mehr Zeit zwischen dem Löschen und dem Wiederherstellungsversuch verstreicht, desto geringer ist die Chance, eine gelöschte Datei noch retten zu können.

Wer hier schnell reagiert, der kann die verloren geglaubten Dateien jedoch häufig mithilfe des Programmes Recuva zurückholen. Das gilt nicht nur nach einem geleerten Papierkorb, sondern auch bei formatierten oder gelöschten Partitionen. Recuva stellt Daten wieder her, die auf Speichermedien mit den Dateisystemen FAT, NTFS oder exFAT abgelegt sind.

Somit unterstützt das Tool nicht nur Festplatten und USB-Sticks, sondern auch Flash-Speicherkarten. Eine Datenrettung funktioniert aus diesem Grund auch bei Digitalkameras, zumal das Tool ebenfalls Bilder im Raw-Format erkennt und oftmals wiederherstellen kann. Eine Voraussetzung dafür ist allerdings, dass sich das externe Medium auf dem Rechner als gewöhnliches Laufwerk ansprechen lässt.

Tipp: In unserem Ratgeber “ Notfall-Hilfe: Defekte Dokumente reparieren “ stellen wir weitere Möglichkeiten zur Datenrettung vor. Und diese Gratis-Tools retten im Notfall ebenfalls Ihre Daten .

Backups: Sichern statt verlieren

Die häufigste Panne ist das Backup selbst. Wählen Sie das richtige Medium, damit sich sicher geglaubte Kopien im Notfall nicht als Nieten herausstellen. Setzen Sie für Backups auf zuverlässige Medien, denen lange Lagerung nichts ausmacht. Bei Backups großer Datenmengen ist das Magnetband keinesfalls ausgestorben, da es bei korrekter, klimatisierter Lagerung nachweislich langfristige Haltbarkeit verspricht. Aktuelle Bandlaufwerke nach den Standards LTO-5 (1,5 TB) und LTO-6 (bis 2,5 TB) sind aber teuer und ohne eigene IT-Abteilung zu umständlich. Externe Festplatten sind dagegen nicht mehr teuer, der Zugriff darauf ist intuitiv und muss nicht linear wie bei Bändern erfolgen. Durch große Kapazitäten entfällt Organisationsaufwand. Daher sind Festplatten für Nutzer aller Couleur die aktuell beste Lösung. Vermeiden Sie lange Lagerung ohne Aktivität. Backup-Platten sollte man etwa alle drei Monate anschließen, damit die Viskosität der Lagerflüssigkeit erhalten bleibt.

3. Unstoppable Copier: Einzelne Dateien bei Lesefehlern retten

Nicht jeder Defekt an einem Datenträger hat dessen kompletten Ausfall zur Folge. Ein typisches Fehlerbild für lädierte optische Medien, USB-Sticks und Speicherkarten sind Lesefehler bei einzelnen Dateien. Partitionstabelle und Dateisystem sind noch weitgehend intakt, einzelne Sektoren aber nicht mehr. In diesem Fall bestehen immer noch gute Chancen, per Software einen Großteil der Daten vom Laufwerk zu retten. Unbrauchbar sind dafür die üblichen Dateimanager. Denn wenn beim Lesen Probleme auftreten, so brechen die üblichen Tools den Zugriff nach einer kurzen Zeitüberschreitung mit einer Fehlermeldung ab und verwerfen auch den bisher korrekt gelesenen Teil der Datei wieder oder bleiben gleich ganz hängen. Gründlicher arbeitet unter Windows der besonders hartnäckige Unstoppable Copier . Das Programm versucht, die Quelldateien Byte für Byte in mehreren Durchgängen zu lesen. Was schließlich unlesbar ist, füllt das Programm mit Nullen auf und rettet so immerhin eine Teildatei.

Nach dem Start geben Sie hinter „Quelle“ den defekten Datenträger an, von dem das Tool die noch lesbaren Dateien in das Verzeichnis unter „Ziel“ schreiben soll. Auch eine einzige Datei lässt sich dabei als Quelle angeben. Die weiteren Optionen zur Leseoperation finden sich unter „Einstellungen“, wobei Unstoppable Copier mit Standardwerten arbeitet, die eine maximale Anzahl von Durchgängen für das Auslesen der Dateien zulassen.

Diese Dateirestaurierung eignet sich natürlich nicht für jeden Dateityp. Am besten arbeitet das Programm bei gewöhnlichen Textdateien, aber auch die meisten Bildformate und Sounddateien sind aufgrund ihrer Struktur robust. Bei Office-Dateien muss die Reparaturfunktion von Microsoft Office weiterhelfen, die sich aber als durchaus brauchbar erweist.

4. Datenträger retten: Mit Abbildern arbeiten

Schlechter sieht es allerdings aus, wenn Windows gar kein Dateisystem mehr auf dem Medium erkennt und sich weigert, den Datenträger als solchen zu erkennen. Nun ist zusätzliche Vorsicht geboten, um das betroffene Medium durch Reparaturversuche am Dateisystem nicht noch weiter zu beschädigen. Zwar muss nicht immer ein physikalischer Schaden der Grund für defekte Dateisysteme sein, aber es lässt sich auch nie ganz ausschließen. Deshalb empfiehlt es sich, nicht direkt mit dem Laufwerk zu arbeiten, sondern zuerst ein Abbild mit Datenrettungs-Tools zu erstellen. Ein geeignetes Windows-Programm dafür ist das Kommandozeilen-Tool Dd .

Das Programm ist eine Portierung des bekannten Werkzeuges Dd von Linux und hat keine Programmoberfläche. Nach dem Entpacken der Datei „dd.exe“ öffnen Sie eine Eingabeaufforderung mit einem Rechtsklick auf die Verknüpfung und „Als Administrator ausführen“. Gehen Sie daraufhin mit dem Befehl cd in das Verzeichnis, in dem „dd.exe“ liegt und führen Sie zunächst den Befehl

dd –list

aus, der eine Liste aller Laufwerke anhand ihrer Geräteadressen, Mount-Punkte (Laufwerksbuchstaben) und ihres jeweiligen Typs anzeigt. Die Geräteadresse ist eine längere, hexadezimale Zeichenkette. Das Quelllaufwerk, aus dem das Abbild erstellt werden soll, erkennen Sie am Eintrag „Mounted on“, der den Laufwerksbuchstaben anzeigt, sowie am Typ, etwa „removable media“ für USB-Sticks, Speicherkarten und externe Laufwerke. Zum Auslesen brauchen Sie die komplette Geräteadresse und den Pfad der gewünschten Zieldatei. Hat ein Datenträger etwa die Adresse „\\.\Volume{4d9a39ae-71aa-11e5-9ad1- 848f69b7c9c0}\“ und soll das Image unter „C:\ usb.img“ erstellt werden, so geben Sie diesen Befehl auf der Kommandozeile ein:

dd if=\\.\Volume{4d9a39ae-71aa-11e5-9ad1-848f69b7c9c0} of=C:\usb.img

Stellen Sie vorher sicher, dass auf dem Ziellaufwerk genug Speicherplatz vorhanden ist.

5. Restauration: Ein Abbild öffnen und mit OSF Mount reparieren

Auf das Abbild können Sie ohne Risiko verschiedene Datenrettungs-Tools loslassen, ohne das tatsächliche Medium weiter in Mitleidenschaft zu ziehen. Der erste Schritt sollte aber das Anlegen einer weiteren Sicherungskopie dieses Abbilds sein. Falls ein Datenrettungs-Tool versagt, dem Dateisystem jedoch weiter zusetzt, haben Sie so noch das ursprüngliche Abbild für weitere Versuche. Vor einer Überprüfung mit Windows-Bordmitteln oder Rettungsprogrammen, ist es notwendig, die Abbilddatei als Laufwerk unter Windows verfügbar zu machen. Diese Aufgabe erledigt das Tool OSF Mount , das einem Image im Rohformat einen Laufwerksbuchstaben zuweist. Gehen Sie nach Installation und Aufruf des Programms, das Administratorrechte verlangt, auf die Schaltfläche „Mount new“. Die „Source“ (Quelle) belassen Sie auf „Image file“, dann wählen Sie darunter die von Dd erstellte Abbilddatei aus und vergeben nun einen Laufwerksbuchstaben im Feld „Drive Letter“. Unter „Drive type“ belassen Sie die Voreinstellung „Auto“, entfernen aber vor der Option „Readonly drive“ den Haken, falls es sich um ein Abbild von beschreibbaren Medien handelt. Klappt das Einhängen, so ist das Dateisystem noch lesbar. Um mögliche Fehler zu beheben, rufen Sie in einer Eingabeaufforderung, die Sie als Administrator öffnen, den Befehl

chkdsk [Laufwerksbuchstabe]:

auf, wobei der Laufwerksbuchstabe dem vergebenen Buchstaben des Abbildes entspricht. Die Ausgabe verrät Ihnen, wie es um das Dateisystem bestellt ist, und listet die Fehler auf, allerdings wird chkdsk Korrekturen nicht automatisch ausführen, bevor Sie das nicht mit „J“ bestätigen. Diese Reparaturen werden nur auf das Abbild angewandt und sind daher ungefährlich. Im Anschluss daran können Sie mit einem Dateimanager wie dem Explorer nachsehen, ob sich die benötigten Dateien jetzt vom eingehängten Abbild über den vergebenen Laufwerksbuchstaben lesen lassen.

6. Dateisystem: Größere Defekte mit Recuva umgehen

Wenn die Dateien nach der Reparatur des Abbilds nicht vorhanden oder zu beschädigt sind, verwerfen Sie diese Abbilddatei und arbeiten mit der zuvor erstellten Kopie weiter. Denn sollte das Windows-eigene chkdsk versagen, so ist der Schaden an den eventuell doch noch auslesbaren Dateien eventuell sogar größer als zuvor. In OSF Mount klicken Sie dazu in der Liste auf die Abbilddatei und danach auf „Dismount“. Erstellen Sie eine erneute Kopie der Abbilddatei und hängen Sie diese wieder in OSF Mount ein. Statt chkdsk zu verwenden, ziehen Sie jetzt das Datenrettungsprogramm Recuva hinzu. Recuva ist darauf spezialisiert, gelöschte Dateien zu finden, kann aber auch mit einer tieferen Suche auf lädierten Dateisystemen dienen.

Nach der Installation und dem Aufruf von Recuva wählen Sie den Laufwerksbuchstaben des Abbilds aus und gehen auf „Einstellungen -> Aktionen“. Schalten Sie dort die drei Optionen „Sicher gelöschte Dateien anzeigen“, „Tiefensuche“ und „Nach ungelöschten Dateien suchen“ ein. Starten Sie im Anschluss daran die Suche, die bei größeren Abbildern auch einige Stunden dauern kann. Nach dem Abschluss des Suchlaufs erhalten Sie eine Liste der gefundenen Dateien, die Sie mit einem Klick markieren und über „Wiederherstellen“ dann in einen ausgewählten Zielordner kopieren. Recuva findet auch alte Dateien, die auf dem Datenträger bereits gelöscht waren, aber physisch noch vorhanden sind. Stark fragmentierte Dateien lassen sich auf diese Weise allerdings nicht rekonstruieren.

7. Unlesbares Dateisystem: Abbilder direkt untersuchen

Ein schwieriger Fall sind Abbilder, die sich bereits nicht mehr mit OSF Mount einhängen lassen, da sich Windows gleich über ein fehlendes Dateisystem beschwert. In diesem Fall ist der Schaden am Laufwerk schon erheblich und mit den üblichen Programmen unter Windows geht es nicht mehr weiter. Übergehen Sie den Schritt, auf das Abbild mit OSF Mount zuzugreifen, und arbeiten Sie direkt mit der Abbilddatei und dem Wiederherstellungswerkzeug Photorec . Auch bei Phot

orec handelt es sich um eine Windows-Portierung eines bewährten Linux-Programms, das in der Eingabeaufforderung läuft und keine grafische Oberfläche hat.

Nach dem Entpacken der Programmdateien in einen beliebigen Ordner verschieben Sie die Abbilddatei ebenfalls dort hinein, da sich Photorec ansonsten häufig über fehlende Zugriffsrechte beschwert. Daraufhin öffnen Sie eine gewöhnliche Eingabeaufforderung, gehen in das Verzeichnis von Photorec und übergeben den Namen der Abbilddatei als Parameter:

photorec_win.exe usb.img

Wenn das Abbild einen anderen Namen als in diesem Beispiel hat, so passen Sie „usb.img“ entsprechend an. Jetzt wird Photorec nach Administratorrechten fragen und ein Menü im Textmodus präsentieren. Hier wählen Sie die Abbilddatei aus und bestätigen dann die ausgewählte Option „Proceed“ mit der Return-Taste. Im nächsten Menü gehen Sie unten mit der Pfeiltaste auf „Options“, schalten die Einstellung „Paranoid“ mithilfe von Return auf „Yes (Brute force enabled)“ und „Keep corrupted files“ auf „Yes“. Zurück geht es mit „Quit“. Wählen Sie mit der Pfeiltaste in der Liste „Unknown“ für das gesamte Abbild aus und starten Sie als Nächstes mit Return „Search“. Nun geht es an die Auswahl des Dateisystems, wobei Sie „Other“ für Windows-Dateisysteme belassen. Im darauffolgenden Menü wählen Sie das vorgegebene Unterverzeichnis, in dem Photorec liegt, als Zielverzeichnis für wiederhergestellte Dateien aus und bestätigen Sie diese Auswahl mit der C-Taste. Photorec wird die Dateien in neuen Unterverzeichnissen mit den Namen „recup_dir.1“, „recup_dir.2“, „recup_dir.3“ und so weiter speichern. So wie Recuva findet Photorec auch bereits gelöschte, zusammenhängende Dateien. Die originalen Dateinamen sind in jedem Fall verloren, die Dateiendungen bleiben allerdings bestehen. Zur Identifikation einer auf diese Weise wiederhergestellten Datei müssen Sie diese also zunächst einmal öffnen, als Nächstes untersuchen und anschließend bei Bedarf umbenennen.

8. Alte USB-Sticks: Datenträger mit MD5-Code überprüfen

Bei angestaubten USB-Datenträgern aus der Schublade ist es immer fraglich, wie gut – oder schlecht – es um die Datensicherheit bestellt ist. SMART-Werte zur Selbstanalyse liefern diese Datenträger im Gegensatz zu Festplatten und SSDs nicht. Bevor Sie einem älteren USB-Stick noch Daten anvertrauen, sollten Sie diese Kandidaten sicherheitshalber einem kleinen, manuellen Test unterziehen. Für einen Datenträgertest erstellen Sie zuerst eine MD5-Prüfsumme einer ausreichend großen Datei auf dem PC und kopieren diese auf den USB-Stick. Einen MD5-Prüfsummengenerator für Windows gibt es in unzähligen Varianten. Ein grafisches Gratis-Tool für diesen Zweck ist Win MD5 Free . Lassen Sie das Programm die MD5-Prüfsumme der kopierten Datei auf dem USB-Stick errechnen.

Sind beide Summen identisch, ist die Integrität der kopierten Datei bestätigt und der Stick ist noch in Ordnung. Wenn sich eine andere Prüfsumme ergibt, ist der USB-Datenträger mit hoher Wahrscheinlichkeit unbrauchbar. Ähnlich lassen sich auch Anschlusskabel und USB-Anschlüsse testen, die diese eine Fehlerquelle bei der Datenübertragung sein können.

Ultima Ratio: Professionelle Datenrettung

Liegt ein physikalischer Schaden des Datenträgers vor, der katastrophal erscheint, dann stellt sich die Frage: Sind die Daten so wertvoll, dass gleich professionelle Hilfe hinzugezogen werden sollte? So ist bei einer Festplatte mit Headcrash jeder weitere Betrieb schon riskant, da der Schaden auch bei den sanftesten, eigenen Rettungsversuchen nur noch größer wird. Im privaten Umfeld und für Selbstständige ist es immer eine Frage des Preises. Standardpreise für die Datenrettung gibt es nicht. Holen Sie deshalb unbedingt Angebote von verschiedenen Dienstleistern in Deutschland ein, etwa bei Kroll Ontrack oder bei Convar .

Gut ist, wenn die Preise erfolgsabhängig sind. Die in der Werbung auf den Webseiten von Datenrettungslaboren genannten Preise für Festplatten, USB-Sticks oder Speicherkarten können Sie erfahrungsgemäß oft gut verdreifachen bis vervierfachen. Es ist darüber hinaus üblich, dass schon die erste Untersuchung einiges kostet – bis zu 900 Euro. Erst im Anschluss daran ist eine Preiskalkulation möglich. Bei aktuellen großen Festplatten und SSDs beispielsweise ist es durchaus realistisch, mit Kosten von bis zu 3000 Euro zu rechnen.