So schützen Sie Ihre Daten vor Katastrophen

Der Verlust von Daten durch Brände, Überschwemmungen und andere Naturkatastrophen kann für Unternehmen existenzgefährend sein. So schützen Sie Ihre Daten zuverlässig.

Laut Behörden-Berichten aus den USA müssen 25 Prozent der Unternehmen, die von einer Naturkatastrophe betroffen sind, ihren Geschäftsbetrieb dauerhaft einstellen. Aber auch in Deutschland sind Naturkatastrophen eine reale Gefahr für Unternehmen, die Hochwasserkatastrophe vor einiger Zeit in Bayern ist dafür der beste Beweis. Deshalb sollten Sie einen Notfallplan für den Super-Gau entwickeln. Noch besser: Sie überlegen Sie sich mindestens zwei Notfall-Backup-Strategien.

Cloud-Dienste

Ihre Sicherheitskopien an einem externen Ort zu speichern ist der beste Weg, um sicher zu gehen, dass die Kopie Ihrer wichtigen Daten vor allen denkbaren Katastrophen, die Ihr Unternehmen treffen könnten, geschützt ist.

Wählen Sie für größtmögliche Sicherheit einen etablierten Cloud-Storage-Anbieter aus, damit Sie sich darauf verlassen können auf Ihre Daten im Fall der Fälle zugreifen zu können. Zusätzlich sollten Sie Ihre Daten immer mit einer zuverlässigen Verschlüsselung versehen, bevor Sie diese einem externen Unternehmen zur Verwahrung anvertrauen.

In einigen Situationen könnte Cloud-Storage unpraktisch sein. Wenn Sie regelmäßig mit großen Daten arbeiten, versichern Sie sich, dass Sie genügend Internet-Bandbreite zur Verfügung haben, um Ihre Daten online abzusichern. Außerdem sollte Ihr Cloud-Storage-Anbieter, den Transport Ihrer Daten-Backups über physische Medien unterstützen, falls ein kompletter Download zu lange dauert.

Turnschuh-Netzwerk alias Sneakernet

Nutzer, die wenig Vertrauen in Cloud-Storage haben, sollten sich überlegen Ihre Daten auf Band oder auf externe Festplatten zu speichern. Deren Portabilität erleichtert den Transport an einen außerhalb Ihres Unternehmens gelegenen Ort. Ein solches als „Turnschuh-Netzwerk“ (Sneakernet) bezeichnetes System kann entweder so funktionieren, dass Sie die Datenträger jeden Abend mit nach Hause nehmen, oder Ihre Back-Up-Dateien beispielsweise alle paar Tage zu einem sicheren Schließfach bringen. Die Sneakernet-Strategie funktioniert auch mit klassischer Daten-Backup-Software.

Falls Ihre Speicher-Bedürfnisse nicht zu umfangreich sind, machen DVDs oder Blu-Rays Sinn. Diese sind deutlich günstiger als Bandlaufwerke, besonders wenn sie in großen Mengen erworben werden. Um sich vor einem alterungsbedingten Ausfall der Datenträger zu schützen, sollten Sie die Datenträger in einem kühlen, dunklen Raum lagern, vor Sonneneinstrahlung schützen und sie nur für kurzfristige Backups nutzen.

Synchronisieren Sie Ihr NAS

Wenn Sie alleiniger Unternehmens-Inhaber sind oder ein sehr kleines Unternehmen haben, können Sie Ihre Daten-Backups jeden Tag mit nach Hause nehmen. Aber das funktioniert nicht mehr, sobald Ihr Unternehmen und das Tätigkeitsumfeld wachsen.

Falls Ihr Unternehmen Büros an verschiedenen Orten besitzt, können Sie zwei miteinander kompatible NAS (Network-Attached-Storage) an jedem Ort mit Internetanschluss aufstellen und diese für die Synchronisation oder ein gegenseitiges Backup über das Netzwerk installieren. Typische NAS-Anbieter sind Buffalo, Synology und QNAP. Vor einiger Zeit bot nur das teure Speichernetzwerk SAN (Storage Area Networks) diese Möglichkeit. Heute dagegen ist dazu nahezu jedes neue NAS in der Lage. Sehen Sie sich nach NAS-Modellen um, die Block-Level-Synchronisation unterstützen. Diese schont die Bandbreite, da sie nur die geänderten Teile einer Datei überträgt.

Wichtig: Sie sollten niemals unverschlüsselte Daten übertragen.

Katastrophen-geschützte Speichermedien

Spezielle besonders robuste Gehäuse schützen Ihre Datenspeicher vor Katastrophen. Beispielsweise können Sie Datenträger in feuerfeste Tresore einschließen. .

Das ioSafe N2 NAS wiederum ist ein Unfall-resistentes NAS-Gerät, das automatische Datenspiegelung bietet (RAID-1). Er ist sowohl feuerfest bis zu einer Außentemperatur von rund 850 Grad für bis zu 30 Minuten, als auch wasserfest bei einer Tiefe von 3 Meter für 72 Stunden. Der ioSafe N2 läuft mit Synologys DiskStation-Manager-Betriebssystem, welches die Synchronisation mit einem zweiten Synology-NAS oder einer Cloud unterstützt.

Terminal-Tuning: Linux-Tricks für mehr Komfort

Die Bash-Kommandozeile ist extrem anpassungsfähig. So lassen sich Aussehen, Infos, Bedienung und Funktionen perfekt maßschneidern. Wir zeigen, wie’s geht.

Unter Linux kommen Sie ohne Kommandozeile noch weniger aus als unter Windowsoder Mac-OS. Daher lohnt es sich auf alle Fälle, gewisse Defizite der Standardkonfiguration zu beseitigen und sich die Bash- Shell individuell einzurichten. Dann geht alles, was Sie dort brauchen, einfacher, schneller – und schicker. Dieser Artikel befasst sich mit Grundlagen- Tuning, nicht mit Shell-Scripting, landet dabei aber schnell bei komplexeren Anpassungen.

Gezieltere History-Bearbeitung

Einige Distributionen haben es voreingestellt, andere aus unerfindlichen Gründen nicht: das gezielte Filtern der Befehls-History. Was hilft es Ihnen, dass das Terminal die letzten 1000 Eingaben speichert, wenn Sie diese mit der Cursortaste (nach oben) einzeln abspulen müssten? Eigentlich kann die Shell die Befehls-History nach der Vorgabe filtern, die Sie bereits eingeben haben – etwa „sudo“. Dann erhalten Sie durch Drücken der Tasten Bild-oben und Bild-unten nur noch die Kommandos angezeigt, die mit „sudo“ beginnen: ein sehr hilfreicher Service, den Sie unbedingt aktivieren sollten. Dazu öffnen Sie die Datei „/etc/inputrc“ mit root-Rechten:

sudo gedit /etc/inputrc

Tragen Sie dort folgende Zeilen ein:

\“e[5~\“: history-search-backward \“e[6~\“: history-search-forward

Eventuell sind die beiden Zeilen bereits vorhanden, und Sie müssen nur das vor angestellte Kommentarzeichen „#“ entfernen, um diesen wichtigen Komfortservice freizuschalten. Sind die beiden Tasten aktuell anders belegt, müssen Sie diese Belegung umgekehrt mit „#“ deaktivieren.

Alias-Befehlskürzel in der bashrc

Häufig benötigte Befehle kürzen Sie am besten durch Aliases ab. Das sind Kommandokürzel in der Form:

alias x=’nautilus $PWD‘

Die Eingabe „x“ im Terminal startet dann den grafischen Dateimanager Nautilus (oder jeden anderen, den Sie bevorzugen) mit dem aktuellen Ordner („$PWD“). Um solche Alias-Definitionen dauerhaft abzulegen, schreiben Sie diese in die Datei „.bashrc „in Ihrem „home“-Verzeichnis. Mehrzeilige Befehle sind kein Hindernis für Aliases – diese trennen Sie jeweils durch Semikolon ab:

alias hi=’echo HiDrive laden…; echo Kennwort | sshfs -o password_ stdin mueller@sftp.hidrive. strato.com:/users/mueller ~/ HiDrive; nautilus ~/HiDrive‘

Solange Sie Ihre „bashrc“ ausbauen, ist auch folgendes Alias sinnvoll:

alias conf=’gedit ~/.bashrc & disown‘

Damit laden Sie die Datei in den Gnome- Editor gedit, und zwar so, dass Sie das Terminal schließen können, ohne damit den Editor zu beenden.

Informativer Super-Prompt

Die Anzeige bei jeder Befehlseingabe, der Prompt, kann mehr oder weniger alle aktuellen Informationen anbieten, die Sie zur Orientierung erwarten. Die Prompt-Anzeige definieren Sie interaktiv zum Testen und dauerhaft in der Datei „.bashrc“ mit „PS1=’…’“. Standardvariablen wie das aktuelle Verzeichnis, Datum oder Uhrzeit werden durch vordefinierte Escape-Zeichenfolgen angefordert, etwa „\w“ für das aktuelle Verzeichnis – also:

PS1=’/w‘

Darüber hinaus können Sie aber auch jede beliebige Umgebungsvariable einfach mit „$[Variable]“ in die PS1-Definition setzen

PS1=’/w [$LOGNAME]‘

Um Infos gegeneinander abzugrenzen, sind ferner Farbdefinitionen vorgesehen, die stets mit der Sequenz „\[\033“ starten. Ein komplexer Prompt wie

PS1=’\n\[\033[47;30m\]\d, \A \ [\033[41;37m\] \u on \H \ [\033[47;30m\] MB free=$freemem \[\033[41;37m\] $CPU \ [\033[40;37m\] [$timediff] \ [\033[42;30m\] \w \[\033[0m\]\n‘

erscheint kryptisch. Wenn Sie den simplen Mechanismus verstanden haben, verliert er aber seinen Schrecken: Es geht Schritt für Schritt von einer Escape- Sequenz zur nächsten – „\n“ bedeutet einen Zeilenumbruch, „\[\033“ schaltet dann die Farben um, „\d“ setzt danach das Datum ein, erläuternder Text oder Zeichen wie Komma oder Blank sind an jeder Stelle möglich, ferner auch Systemvariablen mit „$“. Wichtig ist, Farbdefinitionen am Ende wieder explizit wieder zurückzusetzen („\[\033[0m\]“), andernfalls sind Störungen mit den allgemeinen Terminal- Farbeinstellungen („Bearbeiten fi Einstellungen fi Farben“) zu erwarten.

Die Wirkung des obigen Prompt- Beispiels sehen Sie in der Abbildung auf dieser Seite: Sie können also neben Standardvariablen wie Datum, Uhrzeit, User, Host, Arbeitsverzeichnis im Prinzip jede beliebige Info im Bash- Prompt anfordern. Im Beispiel sehen Sie den freien Arbeitsspeicher, die CPUAuslastung und einen Sekunden-Timer.

Der Prompt_Command

Der Prompt erlaubt den Einbau jeder beliebigen Variablen. Wenn diese allerdings echtzeit-aktuell sein soll wie etwa bei der CPU-Auslastung, muss diese Variable unmittelbar vor der Prompt-Darstellung ermittelt werden. Genau dafür bietet das Linux-Terminal einen speziellen Service: Mit

PROMPT_COMMAND=[script | function]

definieren Sie ein Shell-Script oder eine Function der Datei „.bashrc“, die bei jedem Enter in der Kommandozeile abgerufen wird. Da dies oft geschieht, sollte sich der Rechenaufwand dieses Prompt_Command in Grenzen halten. In unserem Beispiel-Prompt verweist der Prompt_Command auf eine kleine Function „promptcmd“ in der Datei „.bashrc“, welche die RAM-Auslastung, die CPU-Auslastung und die Zeit seit dem letzten Befehl ermittelt.

Unentbehrliche Kommandos

Die Befehle cd, mkdir, rmdir zum Wechseln und Bearbeiten von Verzeichnissen gehören ebenso zum Terminalalltag wie ls, cp, cat, mv, rm zum Auflisten, Kopieren, Lesen, Umbenennen und Löschen von Dateien. Selbst diese einfachen Standardtools bieten zahlreiche Optionen, die eine Recherche mit man [Befehl] lohnen. Man muss sich die geeigneten Parameter nicht dauerhaft merken, wenn man sie als Alias in der „.bashrc“ ablegt – etwa

alias ls=’ls -AlF‘

Viele weitere Terminalkommandos sind unersetzlich oder mit grafischen Alternativen weitaus umständlicher.

lsblk: Den schnellsten und übersichtlichsten Weg, sich alle Datenträgerkennungen anzeigen zu lassen, bietet der Befehl lsblk – mit eindeutiger UUID-Kennziffer durch folgende Parameter:

lsblk -fl

Die richtige Datenträgerkennung ist fundamental und unabdingbar, um etwa eine dd-Kopie oder eine Partitionierung durchzuführen.

df in der Form

df -h

oder auch df -h | grep /dev/sd – um die physischen Laufwerke zu filtern – ist das einschlägige Hilfsmittel für eine schnelle Übersicht zur Festplattenbelegung.

find: Windows-Umsteiger werden schnell feststellen, dass der Befehl ls kein Äquivalent zu dir ist. Für große Dateiaktionen ist das Kommando find einschlägig:

find /home -name „*.png“

find kann allerdings deutlich mehr, als die Dateien nur aufzulisten. Folgendes Kommando löscht im angegebenen Ordner alle Dateien bis auf jene mit der Endung „.png“:

find ~/Bilder -type f ! -iname „*.png“ -delete

Das vorangestellte Ausrufezeichen kehrt den nachfolgenden Suchbegriff um (hier „*.png“).

Für alles, was find nicht selbst erledigen kann, gibt es den Parameter „-exec“ mit nachfolgendem Bash-Befehl. Dann sucht find die passenden Dateien und gibt sie mit „-exec“ weiter an das gewünschte Kommando.

xprop zeigt zahlreiche Eigenschaften grafischer Programme an. Das einfachste und häufigste Motiv, xprop zu verwenden, ist die Frage nach dem Programmnamen eines Fensters. Also etwa die Frage: Wie lautet der Name des Dateimanagers, den ich gerade benutze? Nach diesem Befehl

xprop | grep CLASS

verwandelt sich der Mauszeiger in ein Kreuz, mit dem Sie auf das gewünschte Fenster klicken. Im Terminal erscheint dann der zughörige Programmname.

pkill: Vor allem Prozesse, die in mehreren Instanzen laufen, wie etwa Browser, sind mit grafischen Hilfsmitteln wie der Systemüberwachung schlecht zu zähmen. Um alles zu beenden, was etwa zu Chrome oder Chromium gehört, hilft pkill:

pkill chrom

Die Eigenschaft von pkill, auch Teilstrings von Programmnamen zu akzeptieren, macht die Sache einfach, allerdings auch riskanter. Achten Sie darauf, dass der String eindeutig bleibt.

dd: Das Werkzeug dd (Diskdump) erledigt bitgenaue Kopien von einem Gerät auf das andere. Unentbehrlich ist es unter anderem für das Schreiben bootfähiger ISO-Images:

sudo dd if=[name].iso of=/dev/sd[x]

„if=“ steht für „Input File“, „of=“ für „Output File“, wobei aber typischerweise als „of=“ die Laufwerksangabe etwa einer DVD oder eines USB-Sticks anzugeben ist.

rsync ist ein Sicherungstool mit zahlreichen Spezialoptionen, aber oft genügt der Sammelschalter „-a“:

rsync -a /Quellpfad /Zielpfad

Dies berücksichtigt alle Unterverzeichnisse des Quellpfads. Für periodische Sicherungen nützlich ist Schalter „u“, also insgesamt rsync -au […]. Der Updateschalter spart viel Zeit, indem er bereits bestehende Dateien überspringt.

lshw zeigt nach

sudo lshw –short

unter anderem für die Klasse „memory“ die belegten und die nicht belegten RAM-Slots sowie die Kapazität der einzelnen Speichermodule. Weitere spezialisierte Tools lspci und lsusb liefern sämtliche PCI-und USB-Geräte, wobei Sie die Gesprächigkeit der Ausgabe durch die Parameter „-v“ und „-vv“ erhöhen können.

dmidecode kann weitgehend die komplette übrige Hardware analysieren, wobei Sie die gesuchte Komponente mit dem Schalter „-t“ angeben:

sudo dmidecode -t bios

Mögliche Parameter nach „-t“ sind „bios“, „system“, „baseboard“, „chassis“, „processor“, „memory“, „cache“, „connector“ und „slot“.

ifconfig informiert nicht nur über Netzwerkschnittstellen, sondern veranlasst auch Eingriffe. Bei purer Eingabe ifconfig erhalten Sie unter anderem die physikalische MAC-Adresse, die lokale IP-Adresse (ipv4 und ipv6) und Anzahl und Datenmenge der empfangenen (RX) und der gesendeten (TX) Datenpakete seit dem letzten Systemstart. Der Ethernet-Adapter erscheint als „eth0“, der WLAN-Adapter als „wlan0“. Die angezeigte „lo“-Schnittstelle mit der IP-Adresse 127.0.0.1 existiert nicht physisch, weshalb ifconfig hier auch keine Hardwareadresse anzeigt. Mit „down“ und „up“ wie

sudo ifconfig eth0 down

schalten Sie einen Adapter aus oder wieder ein, in diesem Fall mit „eth0“ den Ethernet-Anschluss.

Android-Backup erstellen – so geht‘s

Ein Backup für Android-Smartphones und Android-Tablets ist absolutes Pflichtprogramm. Egal, ob Sie ein Samsung-Smartphone oder ein Gerät eines anderen Herstellers nutzen. Hier erfahren Sie Schritt für Schritt, wie Sie eines anlegen.

Auf dem Smartphone lagern wir viele wichtige und persönliche Informationen. Umso größer der Ärger, wenn die Daten verloren gehen. In diesem Artikel erklären wir Ihnen, wie Sie einfach und regelmäßig Backups anlegen können.

Lokales Android-Backup am PC

Die Vorteile bei einem lokalem Backup mit dem heimischen PC sind der riesige verfügbare Speicher. So sind auch mehrere Backup-Versionen kein Problem. Dazu der Sicherheitsgewinn durch die Lagerung der Sicherungsdatei getrennt vom Telefon. Hersteller wie HTC, Motorola, Samsung oder LG bieten häufig kostenlose Programme zum Download an. Hauptzweck ist neben dem Einspielen von Firmware-Aktualisierungen der Abgleich mit lokalen PC-Programmen wie Outlook für Termine und Kontakte, oder iTunes für Musik. Meistens ist aber auch eine Sicherungsfunktion enthalten. Bei Samsung heißt diese Software etwa Kies bzw. dessen NachfolgerSamsung Smart Switch und bei LG heißt sie LG Backup.

Ein bessere Alternative ist die Freeware MyPhoneExplorer . Dieses Programm ist Hersteller-unabhängig und arbeitet mit so gut wie allen Android-Smartphones zusammen. MyPhoneExplorer erstellt Backups von Handydaten sowie Apps und Einstellungen und legt die Sicherungsdateien auf der eigenen Festplatte ab.

Nachdem Sie das Tool auf Ihren PC heruntergeladen, installiert und gestartet haben, müssen Sie eine Verbindung zu Ihrem Smartphone herstellen. Das geht auf dreierlei Weise. Am einfachsten ist die Verbindung über WLAN. Einzige Voraussetzungen hierfür sind, dass sich PC und Smartphone im selben Netzwerk befinden, und außerdem derMyPhoneExplorer Client auf dem Handy installiert und gestartet ist. Über „Datei -> Verbinden“ stellen Sie dann im PC-Programm die WLAN-Verbindung her. Sollte sie fehlschlagen, öffnen Sie „Datei -> Einstellungen -> Verbindung“, wählen dort die Option Fixe IP-Adresse, und geben daneben die IP-Adresse ein, die die MyPhoneExplorer-Client-App anzeigt. Nach einem Klick auf „Ok“ und erneut „Datei -> Verbinden“ sollte es klappen. Falls nicht, können Sie die Verbindung auch per USB-Kabel herstellen. Dazu muss Ihr Handy beim Anschließen im Modus „Nur laden“ stehen, und USB-Debugging aktiviert sein. Diese Funktion finden Sie in den Entwickleroptionen . Falls Ihr PC oder Notebook über Bluetooth verfügt, können Sie alternativ auch darüber eine Verbindung herstellen.

Nachdem die Verbindung steht, werden Kontakte, Kalender, Anruflisten und SMS synchronisiert. Ist das erledigt, können Sie zum Beispiel über die Rubrik „Dateien“ die kompletten Ordner der Daten-Partition und der SD-Karte sichern.Was bei der automatischen Synchronisation allen berücksichtigt wird, können Sie über „Datei -> Einstellungen -> Multi-Sync“ auswählen. Ein komplettes Image Backup des Handy lässt sich mit MyPhoneExplorer nicht anlegen.

Android-Backup direkt auf dem Smartphone

Hauptnachteil eines PC-Backups ist die manuell zu startende Sicherung. Solche Routineaufgaben werden schnell vergessen. Für Backups direkt auf dem Android Smartphone gibt es zahlreiche Apps im Google Play Store . Übersichtlich und leicht zu bedienen ist dabei das in der Basisversion kostenlose “MyBackup” . Sicherungen von Anwendungen, Medien und persönlichen Daten werden auf der SD-Karte oder dem internen Speicher abgelegt. Die Wiederherstellung von persönlichen Daten wie Kontakten, SMS oder Fotos funktioniert gut. In der Basisversion werden allerdings nur die installierten Apps selbst gesichert, persönliche Einstellungen gehen verloren.

Deutlich mehr Möglichkeiten bietet da Titanium Backup . Die Anwendung benötigt dazu allerdings Root-Zugriff – die Superuser-Rechte auf Android . Dieses Privileg ist vergleichbar mit den Administrator-Rechten auf dem Windows-PC. Dafür kann dann Titanium wirklich alles sichern und wiederherstellen. Neben den Anwendungen und Daten werden auch Systemeinstellungen und die persönlichen Einstellungen jeder einzelnen App gesichert. So werden auch die Spielstände vor dem Datenverlust bewahrt. Sämtliche Daten wandern dabei erst einmal auf die SD Karte des Handys. Praktisch ist, dass das Backup dabei über einen Zeitplan auf der entsprechenden Registerkarte konfiguriert und gestartet wird. Einmal aktiviert, müssen Sie sich keine Gedanken mehr über die Sicherung machen.

In der kostenlosen Version fehlen allerdings einige wichtige Funktionen die der kostenpflichtige Pro Version von Titanium Backup vorbehalten sind. Stapel-Wiederherstellung, Verschlüsselung, und die Dropbox-Synchronisation machen das Tool erst richtig mächtig. Letztere sorgt für eine sichere Lagerung der Daten, getrennt vom Mobiltelefon. Titanium Backup ist dabei mehr als nur ein Backup-Tool. Insbesondere mit den Möglichkeiten der Pro-Version verwalten und optimieren Sie Ihr Android-Smartphone zusätzlich ganz einfach. Aber Vorsicht! Mit den Möglichkeiten, die Ihnen der Root-Zugriff bietet, lässt sich auch Schaden anrichten.

Für eine Sicherung der Anwendungen und Einstellungen direkt auf dem Android-Smartphone geht unsere Empfehlung an Titanium Backup Pro.

Android-Backup in die Cloud

Auf der folgenden Seite lesen Sie, wie Sie ein Android-Backup in der Cloud erstellen.

Gesicherte Daten außerhalb vom eigenen Telefon zu lagern ist in jedem Fall sinnvoll. Denn auch wenn Ihr Handy-Speicher über eine SD-Karte erweitert werden kann, kann diese beschädigt werden und bei einem Diebstahl des Telefons bleiben Ihnen dann zumindest noch die Daten erhalten. Der Interne Speicher des Telefons ist aus naheliegenden Gründen die schlechteste Wahl für ein Backup. Sehr vielseitig nutzbar ist dafür der Internet-Speicher vom Marktführer Dropbox . Neben einem kompletten Systembackup ist es vor allem sinnvoll auch die eigenen Daten an einem sicheren Ort zu speichern. Zu diesen Daten gehören beispielsweise Fotos, eBooks oder aufgezeichnete GPS-Touren des Navigationsprogramms.

Die Backup-Funktionen von Google

Google bietet natürlich auch eine ganze Reihe an eigenen Backup Funktionen an. Kein Wunder, der Konzern lebt schließlich von den Daten seiner Kunden.

In der Fotos-App können Sie zum Beispiel alle Bilder und Videos die auf ihrem Handygespeichert sind, automatisch mit Ihrem Google Drive synchronisieren. Unbegrenzten Speicherplatz bietet Google allerdings nur, wenn Sie sich dazu bereiterklären, die Bilder herunterskalieren zu lassen (Option „Hohe Qualität“). Wenn Sie die Bilder in Originalgröße sichern möchten, kostet Sie das Google-Drive-Speicher.

Die Synchronisation Ihrer App-Einstellungen, WLAN-Passwörter, Anruflisten und weitere Daten können Sie über die Standard-Funktion im Menü „Sichern & zurücksetzen“ aktivieren. Auch hierfür wir Ihr Google-Konto als Backup-Ziel genutzt.

File Expert: Dateimanager zum Kopieren von Daten in die Cloud

Für einzelne Dateien bietet sich “File Expert” an. Mit dem auf Deutsch erhältlichen Dateimanager gelingen alle nötigen Kopiermaßnahmen auf dem Smartphone ganz einfach. Über die Funktionen “Clouds” kopieren Sie Daten an sichere Speicherorte außerhalb des eigenen Telefons.

Dropsync: Dropbox aufbohren

Größere Mengen an persönlichen Daten gelangen am besten über ein automatisiertes Synchronisationstool in den Cloud-Speicher. Die mobile Anwendung von Dropbox unterstützt leider keinen Abgleich von beliebigen Verzeichnissen. Mit der App Autosync Dropbox – Dropsync lässt sich diese Funktion leicht nachrüsten.

Sie müssen dazu nur über einen Assistenten einen lokalen Ordner und einen Ordner in der Dropbox auswählen und die Synchronisierung per Haken aktivieren. In den Einstellungen wird anschließend festgelegt, wie oft synchronisiert werden soll (von 15 Minuten bis zu mehreren Stunden) und wann dies passieren soll. Ob die Synchronisation planmäßig startet, hängt zudem von den Einstellungen der Faktoren Stromversorgung, Batterieladung und Internetverbindung ab. Nicht erforderliche Dateien und Ordner (wie beispielsweise Vorschaubilder) bleiben anhand von Ausschlusskriterien bei der Synchronisierung unberücksichtigt.

Besonders komfortabel ist die Option “Instant Upload”. Sobald in einem überwachten Ordner des Telefons eine neue Datei auftaucht, wird diese sofort in die Dropbox geladen. Sinnvoll ist das für Fotos, Screenshots oder unterwegs erzeugte Office-Dokumente. Sollen mehr als ein Verzeichnis oder Dateien größer als 10 MB synchronisiert werden, so ist ein Upgrade auf die Pro Version erforderlich.

iDrive: Backup-App mit Sicherheitsfunktionen

Die Backup-App iDrive bietet ebenfalls eine einfache Möglichkeit an, um alle auf einem Android-Gerät befindlichen Daten in der Cloud zu sichern. Dabei werden die Daten auf Wunsch auch mit einer Verschlüsselung gesichert. Über das iDrive-Konto hat der Anwender Zugriff auf die Backups mehrerer Geräte und kann darauf von überall zugreifen. Neben der Verschlüsselung bietet die App auch noch zwei weitere Sicherheitsfunktionen an: Der Zugriff auf die App kann über ein Passwort geschützt werden. Außerdem können verlorene oder gestohlene Geräte aus iDrive gelöscht wird.

Datenrettung ohne Backup

Für den ärgerlichen Fall, dass Sie wichtige Daten löschen, ohne vorher ein Backup erstellt zu haben, müssen Sie einige wichtige Verhaltensregeln beachten.

Es ist empfehlenswert, das Smartphone nach dem Löschvorgang am besten überhaupt nicht mehr zu verwenden, sondern sogleich mit der Wiederherstellung der Daten anzufangen. Die gelöschten Fotos oder Dateien könnten ansonsten überschrieben werden. Sollte das passieren, lassen sie sich zumeist nicht mehr retten. Aktivieren Sie deshalb den Flugmodus auf Ihrem Androiden und schränken Sie den Datenverkehr mit dieser Maßnahme effizient ein. Im Anschluss daran entscheiden Sie sich dann für eine der folgenden Lösungen.

Allerdings sollten Sie sich darüber bewusst sein, dass der Scan nach gelöschten Daten und deren Wiederherstellung bei allen vorgestellten Programmen seine Zeit braucht. Geduld ist daher angebracht. Entfernen Sie das Gerät während des Scans und der Wiederherstellung keinesfalls vom PC und unterbrechen Sie den Scan, wenn möglich, niemals, da Sie sonst größeren Schaden anrichten könnten.

Coolmuster: Für die Wiederherstellung von Kontakten und Nachrichten bietet sich das Windows-Programm „ Coolmuster Android SMS + Contacts Recovery “ an. Installieren Sie das Programm auf Ihrem Rechner und stellen Sie eine Verbindung per USB-Kabel zu Ihrem Smartphone her. Aktivieren Sie als Nächstes die USB-Debugging-Funktion auf Ihrem Smartphone und öffnen Sie das Tool auf dem Rechner. Bestätigen Sie auf Ihrem Mobilgerät dann die Superuser-Anfrage. Wählen Sie anschließend im Programmfenster auf Ihrem Rechner die Daten aus, die Sie retten möchten. Hier stehen Ihnen die Optionen „Contacts“ und „Messages“ zur Auswahl. Um nach den verloren gegangenen Dateien zu suchen, klicken Sie rechts unten auf die Schaltfläche „Start Scan“. Über den Reiter „Show only Deleted“ können Sie sich im Folgenden die gefundenen, zuvor gelöschten Dateien anzeigen lassen. Um die Dateien wiederherzustellen, markieren Sie diejenigen, die Sie wiederherstellen wollen, und klicken sodann auf „Recover“.

Jihosoft Android Phone Recovery: Wenn Sie mehr Dateien als lediglich SMS und Kontakte wiederherstellen wollen, könnte Jihosoft Android Phone Recovery die richtige Wahl für Sie sein. Mithilfe dieser Software lassen sich Fotos, Videos, Musikdateien, Kontakte, SMS, Anruflisten und sogar Whatsapp-Nachrichten inklusive Anhängen wiederherstellen. Installieren Sie die kostenlose Testversion auf Ihrem PC und starten Sie das Programm. Entscheiden Sie sich jetzt für die Dateiart, die Sie retten wollen, oder wählen Sie „Alle“. Wenn Sie beabsichtigen, Fotos wiederherzustellen, müssen Sie überdies die entsprechenden Formate wählen, nach denen Sie suchen möchten. Verbinden Sie Ihr Smartphone mittels USB-Kabel mit dem Rechner. Nunmehr müssen Sie auch hier die USB-Debugging-Funktion auf Ihrem Smartphone aktivieren und die Superuser-Anfrage auf Ihrem Smartphone bestätigen. Das PC-Programm identifiziert im Anschluss daran Ihr Smartphone. Dies kann etwas dauern. Im folgenden Schritt beginnen Sie die Suche nach den gelöschten Dateien über „Start“. Das Programm präsentiert Ihnen daraufhin eine Liste aller Daten, die Sie wiederherstellen könnten. Klicken Sie jetzt diejenigen an, die Sie sichern möchten, und bestätigen Sie zum Schluss noch die Auswahl über „Wiederherstellen“.

Diskdigger: Dateien, die Sie versehentlich von Ihrer Micro-SD-Karte gelöscht haben, lassen sich mit dem kostenlosen PC-Programm Diskdigger wiederherstellen. Installieren Sie dafür einfach das Gratis-Programm auf Ihrem Rechner und stecken Sie die Speicherkarte wahlweise in den dafür vorgesehenen Slot an Ihrem Rechner oder stellen Sie eine Verbindung mithilfe eines Lesegeräts her. Starten Sie anschließend das Programm und wählen Sie die Micro-SD-Karte als zu scannendes Laufwerk aus. Klicken Sie als Nächstes unten rechts auf „Weiter“. Entscheiden Sie sich nun für eine der präsentierten Optionen: „Dig Deep“ oder „Dig Deeper“. Erstere ist laut Anbieter besser für kürzlich gelöschte Dateien geeignet und kann alle Dateitypen und Dateinamen wiederherstellen. Die zweite Variante soll sich besser eignen bei der Wiederherstellung von Fotos und kleineren Dateiformaten sowie bei der Wiederherstellung von formatierten oder beschädigten Daten.

Setzen Sie den Vorgang mit „Weiter“ fort. Warten Sie, bis das Programm die SD-Karte komplett nach gelöschten Daten durchsucht hat und die Fortschrittsleiste auf 100 Prozent geladen ist. Der Vorgang kann je nach Datenvolumen eine Zeit dauern. Sie bekommen danach eine Übersicht aller gefundenen Dateien und können ausgewählte mithilfe der Schaltfläche oben im Bild speichern. Dafür wählen Sie einen entsprechenden Speicherplatz selbst aus.

Übrigens: Die besten Backup-Tools für Windows stellen wir Ihnen in diesem Beitrag vor.Diese Tools helfen, damit Sie im Falle eines Hardware-Defekts oder eines Malware-Angriffs nicht mit leerer Festplatte dastehen. Keineswegs sollten Sie übrigens Ihr Backup nur einmal im Jahr am World Backup Day anlegen. Wir empfehlen Ihnen eine wöchentliche Sicherung Ihrer wichtigsten Dateien.

Gründe für einen Ausfall des Android-Smartphones gibt es viele: Etwa Totalschaden der Hardware, Diebstahl oder Verlust. Auch durch einen eigenen Fehler, etwa beim versehentlichen Deinstallieren einer App, wird eine Datensicherung schnell notwendig. Auch bei neu gekaufter Hardware hilft ein Backup sehr bequem bei der Erstinstallation des Nachfolgemodells und der Übernahme des Datenbestandes vom alten auf das neue Smartphone.

Pannen & Lösungen für typische Linux-Probleme

Der folgende Grundlagenbeitrag bespricht typische Linux-Probleme, deren Lösungen Sie kennen sollten. Diese Pannen sind keineswegs häufig, aber bei langfristiger Nutzung irgendwann akut – und dann zielsicher behebbar.

Diese kleine Sammlung von Linux-Problemen zeigt keine marginalen Störungen, die man tolerieren könnte. Es geht überwiegend um ernste Startprobleme, die eine normale Systembedienung verhindern. Linux-Neulinge sollten vor allem die Erkenntnis gewinnen, dass auch ohne grafische Oberfläche eine funktionierende Systembasis vorliegt, die Reparaturen erlaubt. Ferner gibt es Zugriffsmöglichkeiten über unabhängige Livesysteme, um von außen Dateien zu verändern oder ein System zum Start zu überreden.

Bootprobleme mit Grub-Bootloader

Dass ein Linux bei normaler Alltagsbenutzung plötzlich nicht mehr startet, ist äußerst selten. Banale Ursachen sind gelockerte Kontakte beim Stromstecker oder beim SATA-Datenkabel der internen Festplatte, dies am wahrscheinlichsten nach Transporten.

Es gibt aber ein sehr häufiges Szenario, das den Linux-Bootmanager Grub regelmäßig vernichtet – die nachträgliche Installation eines Windows-Systems. Das Windows-Setup ignoriert bei einer Parallelinstallation seit je konsequent vorhandene Linux-Systeme. Der Grub-Bootloader wird durch den Windows-Bootloader ersetzt, der nur Windows-Systeme bootet. Der Verlust des Linux-Bootmanagers bedeutet aber nicht das Ende der bestehenden Linux-Installationen. Von den möglichen Reparaturmaßnahmen empfehlen wir nachfolgend die einfachste, die auch jedem Linux-Einsteiger mühelos gelingt.

Schritt 1: Starten Sie den Rechner mit dem Tool Super Grub Disk . Der kleine Boothelfer durchsucht mit der Option „Detect and show boot methods“ alle angeschlossenen Datenträger nach bekannten Betriebssystemen und zeigt diese anschließend an. In der Liste markieren Sie dann das bootunfähige System und starten es mit der Eingabetaste. Die eigentliche Reparatur der Grub-Umgebung findet dann im gestarteten System statt (Schritt 2).

Wichtig für Schritt 1: Super Grub Disk kann mit Bios- und Uefi-Modus umgehen. Es ist aber wichtig, das Tool im richtigen Modus zu starten, denn nur dann wird die anschließende Reparatur gelingen. Wenn es sich bei Ihrem Bootproblem um das typische Szenario nach einem Windows-Setup handelt, ging offenbar eine Bios-Installation voraus (Uefi und sein GPT-Partitionsschema vermeiden das Problem). Um ganz sicher zu gehen, können Sie sich unter Windows, das ja starten sollte, mit dem Befehl „msinfo32“ unter „Systemübersicht –› BIOS-Modus“ vergewissern: Hier wird „Vorgängerversion“ stehen, wenn es sich um eine Installation im Bios-Modus handelt.

Schritt 2: Wenn das Linux-System nach der Starthilfe der Super Grub Disk wieder läuft, öffnen Sie ein Terminalfenster und geben dort die beiden Befehle

sudo grub-install –recheck /dev/sd[X]

sudo update-grub

ein. Anstatt des Platzhalters „[X]“ ist die Angabe der Datenträgerkennung nötig, die üblicherweise zum Booten dient. In den allermeisten Fällen ist dies der Datenträger „/dev/sda“, nämlich die erste interne Festplatte des Rechners. Der reparierte Grub-Bootloader berücksichtigt auch die Windows-Bootumgebung, sodass anschließend wieder alle Systeme startfähig sind.

Startprobleme mit Cinnamon & Co.

Streikt die Anzeige schon vor oder bei der Installation, handelt es sich um ein fundamentales Hardwareproblem. Gegenstand dieses Abschnitts sind jedoch Desktopprobleme, die nach längerer Nutzung eines Mint-Systems und erst nach der Anmeldung am System auftauchen (der Start zum Log-in-Bildschirm verläuft störungsfrei).

Ursache ist hier in der Regel eine fehlerhafte Konfiguration des Desktops – oder der Desktop fehlt nach unachtsamer Deinstallation eines Pakets komplett (siehe dazu den nächsten Abschnitt). Wechseln Sie mit Strg-Alt-F1 zur Textkonsole und melden Sie sich dort an. Beenden Sie zunächst den Window-Manager des grafischen Systems:

sudo service lightdm stop

Danach benennen Sie Ihr Home-Verzeichnis um, erstellen ein neues Home-Verzeichnis und setzen die Zugriffsrechte:

sudo mv /home/sepp /home/sepp.bak

sudo mkdir /home/sepp

sudo chown sepp:sepp /home/sepp

Den Namen unseres Beispielnutzers „sepp“ ersetzen Sie durch die Bezeichnung Ihres Benutzerkontos. Danach starten Sie wieder den Window-Manager:

sudo service lightdm start

Damit landen Sie am Anmeldebildschirm, melden sich dort an und testen das System. Wenn keine Probleme mehr auftauchen, ist der Fehler in den Konfigurationsdateien im Home-Verzeichnis nachgewiesen.

Die Maßnahme ist zunächst tiefgreifend, da sich die Oberfläche jungfräulich präsentiert und alle Anpassungen verloren sind. Sie können aber nun Ordner Stück für Stück aus der Sicherungskopie („[Benutzername]. bak“) in das neue Home-Verzeichnis kopieren. Die meisten Konfigurationsverzeichnisse beginnen mit einem Punkt, sind also versteckt und werden erst sichtbar, wenn Sie im Dateimanager „Ansicht –› Verborgene Dateien anzeigen“ wählen (Strg-H). Sinnvoll ist das Restaurieren vor allem für umfangreiche Verzeichnisse wie „.mozilla“ und „.thunderbird“. Bei vielen kleineren Programmen ist es oft einfacher, sie neu einzustellen, anstatt sich durch versuchsweises Kopieren auf detaillierte Suche der fehlerhaften Datei zu machen.

Startproblem: Die Oberfläche fehlt

Anfänger können den Fehler begehen, eine kleine Komponente deinstallieren zu wollen, und dabei die Meldung über zahlreiche Paketabhängigkeiten zu übersehen. Dies kann bei Desktopkomponenten zur kompletten Deinstallation der Oberfläche führen. Logischerweise geht es dann nach der Systemanmeldung nicht weiter.

Dieses Szenario ist wie folgt zu verifizieren und zu beheben: Wechseln Sie auch hier mit der Tastenkombination Strg-Alt-F1 auf eine Textkonsole und melden Sie sich an. Versuchen Sie dann, mit dem Befehl startx die Oberfläche zu starten. Wenn dann nur ein Mauszeiger auf leerer Oberfläche erscheint, ist offensichtlich kein grafischer Desktop verfügbar. Dies müssen Sie dann mittels des Befehls

sudo apt install cinnamon-desktop-environment

beheben (für Cinnamon). Die weiteren Mint-Desktops haben die Paketnamen „mintmeta- mate“ (Mate) und „xfce4“ (XFCE).

Startproblem mit Herstellergrafiktreibern

Die Installation eines proprietären Grafiktreibers des Herstellers („Systemeinstellungen –› Treiberverwaltung“) ist nicht immer erfolgreich.

In seltenen Fällen kann dies zu Darstellungsfehlern am Desktop führen oder sogar den Start der Oberfläche verhindern. Hier hilft es nur, die proprietären Treiber wieder zu deinstallieren, um zum Open- Source-Treiber zurückzukehren. Dies können Sie erneut in der virtuellen Konsole (Strg-Alt-F1) erledigen: Bei Grafiktreibern von Nvidia hilft der Befehl

sudo apt purge nvidia*

und bei Treibern von AMD verwenden Sie dieses Kommando:

sudo apt purge fglrx*

Nach einem Neustart wird der Desktop wieder funktionieren.

Anmeldekennwort vergessen

Bei selten genutzten Systemen kann es durchaus vorkommen, dass man sein Anmeldekennwort vergisst. Aber natürlich ist folgende Anleitung gewissermaßen auch eine Anleitung zum Einbruch. Denn in der Tat kann man sich an einem unverschlüsselten Linux-System ohne Kenntnis des Kennworts erfolgreich anmelden, indem man das Kennwort vorher entfernt.

Zunächst booten Sie den Rechner mit einem beliebigen Linux-Livesystem. Der Dateimanager des Livesystems wird die Festplatte(n) und Partition(en) des PCs anzeigen. Die Datei mit den Kennwörtern lautet „/etc/shadow“. Wenn Sie diese in einen beliebigen Editor laden, haben Sie Zeile für Zeile alle Systemkonten vor sich, stets mit führendem Kontonamen:

sepp:$Ld/1J5tZgk 2C[…]:17317:0:99999:7:::

Wenn Sie nach dem ersten Doppelpunkt bis zum zweiten Doppelpunkt alles löschen, ist das Passwort für dieses Konto entfernt. Danach (Speichern und Neustart des Systems) können Sie sich (in unserem Beispiel) als „sepp“ mit leerem Kennwort anmelden.

Fehlende Rechte auf Dateien und Ordner

Ein häufiges Szenario mangelnder Zugriffsrechte spielt sich im eigenen Home-Verzeichnis ab: Dort abgelegte Dateien oder Ordner verweigern dem Benutzer wegen fehlender Rechte den Zugriff. Auslöser sind meist mit dem root-Account oder über sudo ausgeführte Aktionen oder Scripts, die Ordner und Dateien anlegen. Die Lösung besteht in einer Änderung der Besitzrechte in der Kommandozeile mit dem Befehl chown. Generell dürfen Rechte an Dateien und Ordnern, die anderen Benutzern oder root gehören, auch nur wieder mit root-Privilegien geändert werden, deshalb verlangt dieser Befehl ein vorangestelltes sudo:

sudo chown [Benutzer] [Datei]

Dies ändert den Besitzer einer angegebenen, einzelnen Datei auf den angegebenen Benutzer. Ist eine ganze Ordnerstruktur mit Dateien und Unterverzeichnissen betroffen, so arbeitet chown mit dem Parameter „-R“

sudo chown -R [Benutzer] [Ordner]

auch rekursiv.

Probleme mit Anwendungssoftware

Bei Softwareproblemen ist das wichtigste Tool zum Aufspüren von Fehlerquellen das Terminal. Programme öffnen beim Start „stdout“ für Ausgaben und „stderr“ für eventuelle Fehlermeldungen. Starten Sie fehlerhafte Programme daher im Terminal, dann lesen Sie hier alle Startmeldungen und mögliche Fehler der Software. Falls Sie einen Programmnamen nicht wissen, ermitteln Sie ihn über seine Verknüpfung unter „/usr/share/applications“ sowie „/usr/ local/share/applications“. Den Namen laufender Programm können Sie auch durch den Befehl xprop im Terminal und anschließenden Klick auf das Programmfenster ermitteln (in der Zeile „WM_CLASS“.

Die Fehlermeldungen zeigen typische Fehlerbilder: Fehlende Bibliotheken können Abstürze sofort nach dem Start verursachen. Gerade Python- und Perl-Scripts mit grafischer Oberfläche bauen meist auf einer größeren Zahl von Bibliotheken (Modulen) auf. Ein Merkmal dieser Fehler ist die Reproduzierbarkeit bei jedem Aufruf. In der Fehlermeldung selbst wird in der Regel allerdings lediglich der sehr spezielle Methoden- oder Modulname ersichtlich. Der Lösungsweg ist daher eine Suche im Web mit genauem Wortlaut der Fehlermeldung. Hier ist dann meist schnell ermittelt, welches Paket nachinstalliert werden muss.

Verabschiedet sich ein Programm mit der Meldung „Segfault“, so wurde es nach einem Speicherzugriffsfehler beendet. Der Auslöser kann ein Bug sein und ist dann bei jedem Aufruf reproduzierbar. Sporadische Segfaults in unterschiedlichen Situationen sprechen hingegen eher für ein Hardwareproblem (Speicherfehler oder überhitzte CPU). Stürzen Programme ab, die bestimmte Merkmale der Hardware nutzen, etwa Open GL für die Grafikausgabe oder einen Netzwerkchip, dann liefert ein Blick in die Kernel-Meldungen mehr Informationen. Der Befehl dmesg -T zeigt alle Meldungen der Kernel-Logfiles mit Zeitstempel an. Hier finden Sie auch Fehlermeldungen und Warnhinweise zu allen Geräten und Treibern. Die Eingabe

dmesg -T -l err

reduziert die Ausgabe auf Fehler und filtert zahlreiche normale Meldungen weg, wie sie der Kernel etwa für die Initialisierung von Geräten protokolliert.

Defekte Datenträger

Linux-Distributionen bieten ein Arsenal an Tools zur Datenrettung bei defekten Dateisystemen. Dabei gilt es, mit den Reparaturaktionen den Schaden nicht noch zu vergrößern. Je nach Schwere des Defekts sind bei der Wahl der Rettungsmethode zwei Szenarien zu unterscheiden:

1. Das Linux-System kann den Datenträger ohne Fehlermeldung einhängen, aber einige Dateien sind nicht mehr lesbar. Typisch ist dieses Fehlerbild für optische Medien, USB-Sticks und Speicherkarten, wenn Partitionstabelle und Dateisystem noch weitgehend intakt sind, einzelne Sektoren jedoch nicht mehr. In diesem Fall stehen die Chancen gut, per Software einen Großteil der Daten vom Laufwerk zu retten.

2. Es wird kein Dateisystem erkannt und das System weigert sich, den Datenträger einzuhängen. Der mount-Befehl meldet ein ungültiges Dateisystem und einen unlesbaren Superblock („mount: wrong fs type, bad option, bad superblock“).

Safecopy: Wenn der Datenträger noch eingehängt wird und der Zugriff auf eine Handvoll Dokumente scheitert, dann genügt es in vielen Fällen, gezielt die gewünschten Dateien vom Datenträger zu holen. Dafür gibt es das spezialisierte Kommandozeilentool Safecopy, das Sie in Linux Mint mit

sudo apt-get install safecopy

nachinstallieren. Zum Auslesen einzelner Dateien geben Sie Quellpfad und Ziel an:

safecopy /pfad/dokument.pdf ~/dokument_rettung.pdf

Das Tool liest die Quelldateien Byte für Byte. Was unlesbar bleibt, füllt es mit Nullen auf. Diese Methode eignet nicht natürlich nicht für jeden Dateityp. Am besten arbeitet das Tool bei einfachen Textdateien, aber auch Bildformate und Sounddateien verzeihen den Ausfall einiger Bytes.

ddrescue: Bei unerkannten Dateisystemen liefert der Befehl dmesg nach dem Anstecken des Datenträgers dmesg alle Kernel-Fehlermeldungen. Zwar muss nicht immer ein physikalischer Schaden der Grund defekter Dateisysteme sein, aber es lässt sich auch nie ausschließen. Dann empfiehlt es sich, nicht direkt mit dem Laufwerk zu arbeiten, sondern zuerst ein Abbild mit Datenrettungstools zu erstellen. Das geeignete Programm dafür ist ddrescue. In Linux Mint ist ddrescue Teil des größeren Programmpaket gddrescue, das mit

sudo apt-get install gddrescue

schnell nachinstalliert ist.

Um einen beschädigten Datenträger auszulesen, benötigten Sie den Gerätenamen, den Sie mit dem Kommando lsblk -p herausfinden.

Damit kein anderes Programm auf das Laufwerk zugreift, muss es vor dem Auslesen ausgehängt sein. ddrescue arbeitet in mehreren Durchgängen, da beim ersten Leseversuch eine Logdatei mit fehlerhaften Blöcken erstellt wird, die erst im zweiten Durchgang gelesen werden. Folgender Befehl liest das Laufwerk „/dev/sdc1“ in die Datei „image.img“ aus und protokolliert Lesefehler in der Datei „fehler.log“.

sudo ddrescue -n /dev/sdc1 image.img fehler.log

Wenn ddrescue sich über Lesefehler beschwert, dann setzen Sie das Tool in einem zweiten Durchlauf nochmal auf die Disk an, um möglichst alle Blöcke in der Logdatei gezielt zu retten:

sudo ddrescue -d /dev/sdc1 image.img fehler.log

Je nach Kapazität und Fehlermenge kann dieser Prozess viele Stunden dauern. Das Image lässt sich wie ein Laufwerk behandeln und Sie können das Werkzeug fsck zum Beheben von Dateisystemfehlern anwenden. Dabei müssen Sie die zum Dateisystem passende Variante verwenden. Für FAT/FAT32 ist dies die Variante fsck.fat, die Sie mit

sudo fsck.fat image.img

aufrufen, während Ext4 die Variante fsck.ext4 benötigt. Gelingt die Wiederherstellung, dann können Sie die Imagedatei einhängen und auf deren Inhalt zugreifen. Erstellen Sie dazu im Home-Verzeichnis einen neuen Ordner (etwa „Image“), und hängen Sie das ISO-Image mit

sudo mount image.img /home/ benutzer/image

dort ein.

5 Tipps, die Sie vor Vireninfektionen schützen

Viren, Würmer und Trojaner bedrohen immer noch die Windows-PCs. Mit diesen fünf einfachen Tipps machen Sie es den Biestern aber deutlich schwerer, sich auf Ihren Rechner einzunisten.

Mit Hilfe einiger einfacher Regeln schaffen Sie einen effektiven Grundschutz vor Viren und anderen PC-Schädlingen, die es auf Ihre Daten abgesehen haben.

1. Gefälschte E-Mails

Seien Sie vorsichtig bei Mails von Absendern, mit denen Sie normalerweise nicht korrespondieren. Und auch bei bekannten Absendern wie Online-Shops, Providern und anderen Firmen sollten Sie genau hinsehen. Eine beliebte Methode, Anwender-PCs zu infizieren, ist es, die Gestaltung einer Mail nachzuahmen und Links oder Dateianhänge einzufügen, die vermeintlich harmlos aussehen, um Sie zum Klicken zu bewegen. Kommt Ihnen eine Nachricht verdächtig vor, klicken Sie nichts an, sondern löschen Sie die Mitteilung einfach.

2. Verdächtige Dateien

Öffnen Sie keine Datei, der Sie nicht trauen. Haben Sie Bedenken hinsichtlich der Vertrauenswürdigkeit von Dateien, beispielsweise in Mails, nach Downloads oder von USB-Sticks, löschen Sie sie einfach. Achten Sie auch generell auf Dateiendungen – insbesondere bei Anhängen an Mails. Schädliche Dateien haben häufig falsche Endungen, um Sie zum Klicken zu bewegen, etwa „.PDF.EXE“ oder „.JPG.EXE“. Um die Dateiendungen in Windows einzublenden, klicken Sie im Explorer von Windows 10 auf „Ansicht“ und setzen ein Häkchen vor „Dateinamenerweiterungen“.

3. Nicht auf Passwort-E-Mails reagieren

Geben Sie keine Passwörter oder Anmeldedaten preis, wenn Sie in einer Mail danach gefragt werden. Ein seriöser Absender wird in Mails nie nach Ihrem Passwort oder anderen persönlichen Infos fragen.

4. Achten Sie auf vertrauenswürdige Seiten

Wählen Sie Downloads mit Bedacht und laden Sie Programme oder Treiber nur von vertrauenswürdigen Seiten herunter.

5. Achten Sie darauf, dass das Betriebssystem Ihres Routers aktuell ist.

Wenn Ihr WLAN-Router Sicherheitslücken hat, kann er Ihr Heimnetz nicht schützen. Solche Lücken dienen Angreifern und Schad-Software als Schlupfloch. Halten Sie das Betriebssystem Ihres Routers (Firmware) daher aktuell. Bei den meisten Modellen erhalten Sie im Bedienmenü Hinweise, wenn eine aktuellere als die installierte Firmware-Version bereitsteht.

Technik-Riesen aus vergangenen Zeiten

Es gibt Giganten der Technikgeschichte, die irgendwann den Anschluss verloren haben. Und entweder längst untergangen sind oder nur noch ein Schattendasein führen. Wir stellen einige dieser gescheiterten IT-Riesen vor.

Die Technik-Geschichte ist voll mit Unternehmen und Produkten, die in ihrer Branche einst unangefochten waren, dann aber durch zu starke und clevere Konkurrenz oder einen veränderten Konsumenten-Geschmack schließlich gescheitert sind. Wir stellen einige solcher gescheiterten IT-Giganten vor.

Wang

In den 1970er Jahren automatisierte Wang den Schreibvorgang durch die Massenherstellung von eigenständigen Textverarbeitungsrechnern, welche den Text auf ein Band lagerten und es somit erlaubten Seiteninhalte zu ändern, ohne diese aufwändig neu zu drucken. In den 1980er Jahren war Wangs auf Textverarbeitung fokusiertes Office Informationssystem in 80 Prozent der größten Unternehmen vertreten. Allerdings war der Gründer An Wang so auf seine Rivalität mit IBM fixiert, dass er sich weigerte, sich mit den aufkommenden IBM-kompatiblen PCs zu beschäftigen. Das Ergebnis: Innerhalb weniger Jahre hatten diese universeller einsetzbaren Geräte Wangs „Textverarbeiter“ von dem Markt, den diese vorher dominierten, vertrieben. Das Unternehmen ging 1992 Bankrott.

Netscape

Für die erste Generation der Internetnutzer außerhalb der akademischen Welt in der Mitte der 1990er Jahre war der Netscape Navigator das Internet (vereinfacht gesagt). Im Jahr 1996 nutzten 70 bis 80 Prozent der User den Netscape-Browser. Aber diese Überlegenheit ließ rasant nach, Microsofts Internet-Explorer überholte Netscape schnell.1998 verlor der Navigator die Führung an den Internet-Explorer. 2002 fiel der Marktanteil des einstigen Marktführers in den einstelligen Bereich.

IBM als PC-Hersteller

1981 startete IBM in den noch jungen Mikrocomputer-Markt mit dem PC und hatte dort mehr Erfolg als selbst die firmeneigenen Manager erwartet hatten. 1983 nahme IBM ein Viertel des Marktes ein und schlug damit Apple vollkommen. Aber das Ende des Geräts war sein Design: Um es schnell auf den Markt zu bringen, hat IBM es fast ausschließlich aus handelsüblichen Teilen gefertigt. Der einzige firmeneigene Aspekt, das BIOS, wurde von Konkurrenten entwickelt, die dann schnell damit begannen eigene PC-Klone zu verkaufen. Schließlich verlor IBM den PC-Markt völlig. Das Unternehmen IBM gibt es heute zwar noch, aber eben nicht mehr als führenden PC-Hersteller. Sondern IBM setzt nun auf Software und Cloud sowie Serviceleistungen und hat vor einiger Zeit Red Hat gekauft.

WordPerfect

Als MS-DOS die PCs beherrschte war WordPerfect von WordPerfect Corporation das dominierende Textverarbeitungsprogramm. Es war in den 1980er Jahre seinen Gegenspielern um Längen voraus war und schaffte es Benutzerfreundlichkeit und Leistung in ein Text-basiertes Umfeld zu packen. Aber WordPerfect schaffte es nicht sich den wechselnden Anforderungen anzupassen. Es dauerte Jahre, um eine ordentliche Windows-Version von WordPerfect herauszubringen und als es so weit war, waren viele seiner beliebten Tastaturkürzel von Windows-Standards überschrieben worden. Einige vermuten, dass Windows versteckte APIs nutzte, um seinem eigenen bald vorherrschenden Word einen unfairen Vorteil zu gewähren. Heute wird WordPerfect nur noch in Nischenmärkten, wie zum Beispiel in Anwaltskanzleien genutzt, während Wordden Markt beherrscht. Und nur noch durch LibreOffice beziehungsweise OpenOffice Konkurrenz bekommt.

Sun Microsystems

Zum Jahr 2000 erzielte Sun Microsystems Rekordgewinne und sein Börsenkurs war auf einem Höchststand. All die verschiedenen Produkte, die Sun über die Jahre herausgebracht hat wurden zu Kundenlieblingen: Jeder wollte Java-Inhalte, SPARC-Server und Solaris nutzen. Was niemand bemerkte: Alle diese Dinge wurden mit Geld aus der Finanzblase gekauft und als diese Blase kurz nach der Jahrtausendwende platzte, erkannten die Leute bald, dass sie x86 Linux-Server für einen Bruchteil der Kosten nutzen konnten. Und Java, in das Sun so viel Geld investiert hatte, war als kostenloser Download verfügbar. Oracle kaufte die marode Firma 2009 auf.

RIM

Am Tag nachdem Steve Jobs das erste iPhone enthüllte, waren sich die überrumpelten RIM-Ingenieure sicher, dass Jobs bei der Bescheibung des iPhones bluffte, weil kein Mobiltelefon all das mit einer sinnvollen Batterielaufzeit leisten könnte. Doch die RIM-Leute täuschten sich. Durch die Fortschritte bei der Akkutechnik und den 3G-Netzwerken wurden Smartphones immer besser und RIMs Vorherrschaft verschwandnoch bevor RIM sein veraltetes Betriebssystem aktualisieren konnte. Das Unternehmen existiert zwar heute noch, aber unter anderem Namen: Blackberry. Zudem spielt es auf dem Smartphone-Markt keine Rolle mehr. Blackberry machte zuletzt nur noch mit seinen Patentklagen von sich reden.

Myspace

Myspace entstand Anfang der 2000er Jahre und zog rasch an dem Pionier Friendster vorbei. Doch dann ging alles schief, gab Mitgründer Chris DeWolfe zu. Die ColdFusion-Codebasis, die es zunächst einmal einfach machte die Seite ins Netz zu bringen, erschwerte es aber, Myspace schnell zu erweitern und zu verbessern. Zudem stand Myspace plötzlich unter dem Druck Profit machen zu müssen und sich mit Werbung überladen zu müssen.

Atari

Der Atari 2600 war mit seinen Spielen wie Space Invaders in den 1980er Jahren ein Riesenhit. Das hielt allerdings nicht lange an. Ataris beste Programmierer verließen das Unternehmen wegen zu schlechter Bezahlung. Konkurrierende Konsolenhersteller holten auf und zogen schließlich an Atari vorbei.

Sony

Sony entwickelte den Walkman und verdiente damit ein Vermögen. Doch Sony verpasste die Chance auch den Nachfolger des Walkman zu entwickeln. Das gelang stattdessen Apple mit dem iPod. Sony ist natürlich noch lange nicht untergangen, aber eben längst nicht mehr so mächtig wie zu Walkman-Zeiten. Und muss sich zudem immer wieder mit massiven Hackerangriffen herumschlagen.

So verkaufen Sie alte Geräte richtig und sicher

Schlummern bei Ihnen zu Hause oder Im Büro auch noch alte Hardware-Schätze? Wir zeigen Ihnen, wie Sie ungenutzte Smartphones, Tablets und Co. schnell und sicher zu Geld machen.

Vor Ihnen liegt ein altes Smartphone. Sie erinnern sich daran, als Sie es gekauft haben – es war neu, glänzend, der letzte Schrei, aktuellste Technik. Doch jetzt sind seine Tage längst gezählt. Jetzt ist es nur noch ein abgenutzter, verkratzter Schatten seiner selbst. Vor allem im Vergleich zu Ihrem neuen Smartphone, das Sie gerade gekauft haben.

Trotz Ihrer neuen Ausstattung ist aber noch ein Funken Leben im alten Smartphone. Und bestimmt gibt es da draußen jemanden, der es noch gut gebrauchen könnte. Sein gebrauchtes Handy zu verkaufen beschert ihm also nicht nur eine möglicherweise längere Lebenszeit, sondern Ihnen auch noch den einen oder anderen Euro aus dem Verkauf. Aber wo verkauft man seine alten Geräte am besten? Wie halten Sie Smartphone, Tablet und Co. während ihrer Gebrauchszeit so gut in Schuss, dass Sie diese später noch zu einem möglichst guten Preis verkaufen können? Und – am allerwichtigsten – wie entfernen Sie auch garantiert alle Ihre persönlichen und privaten Daten vom Gerät, um es guten Gewissens verkaufen zu können? Wir haben die – zum Glück gar nicht so komplizierten – Antworten auf diese Fragen.

Schritt 1: Daten löschen

Mit großer Wahrscheinlichkeit befinden sich auf jedem Laptop, Smartphone und Tablet eine Vielzahl Ihrer sensiblen Daten. Von Ihrem Adressbuch über Ihre Amazon-Zugangsdaten bis hin zu Bankkontoinformationen. Und weil die natürlich niemanden etwas angehen, ist es umso wichtiger, Ihr Gerät vor dem Verkauf komplett von solchen Daten zu säubern. Bevor Sie damit anfangen sollten Sie aber von allen wichtigen Dateien auf dem Gerät ein Backup anlegen, damit am Ende nichts wichtiges verloren geht. Ein Smartphone oder Tablet von sensiblen Daten zu befreien, ist einfacher als Sie vielleicht denken.

Bei einem älteren Android-Gerät öffnen Sie einfach das Einstellungen-Menü, wählen „Privatsphäre-Einstellungen“ und setzen es dort auf den Werkszustand zurück. Besitzt Ihr Gerät schon eine neuere Version von Android, öffnen Sie die Einstellungen-App, scrollen hinunter in die „Nutzer“-Rubrik, wählen dort „Sichern & zurücksetzen“ und dort dann „Auf Werkszustand zurück“. Bei iOS öffnen Sie ebenfalls die Einstellungen-App, wählen „Allgemein“, scrollen nach unten und wählen dort „Zurücksetzen“. Zum Schluss bestätigen Sie die Löschung noch mit „Alle Einstellungen“.

Bei Laptops wird es schon ein bisschen komplizierter. Am sichersten ist es, wenn Sie die Festplatte komplett formatieren und anschließend wieder ein sauberes Betriebssystem darüber installieren. Apple bietet sogar Anleitungen an, wie Sie OS X deinstallieren und anschließend wieder aufspielen. Ganz egal, wie Sie am Ende Ihre Festplatte löschen: De-Autorisieren Sie in jedem Fall vorher Ihre Accounts für iTunes und Cloudspeicher-Dienste. Ebenso die Aktivierungsschlüssel für jede Software, die Sie auf Ihrem neuen Gerät wieder verwenden möchten.

Schritt 2: Sauber machen

Sobald Sie Ihre Daten bereinigt haben, nehmen Sie sich ein paar Minuten Zeit, um Ihr Gerät auch äußerlich zu säubern. Schalten Sie es dazu aus und entfernen Sie auch den Akku, sofern das möglich ist. Nehmen Sie dann ein weiches, feuchtes und faserfreies Tuch und wischen Sie damit das Gehäuse ab. Bei hartnäckigerem Schmutz üben Sie nur leichten Druck aus. Ist der Schmutz mit Wasser allein nicht zu entfernen, verwenden Sie stattdessen eine Mischung aus Wasser und weißem Essig oder Essigessenz (im Verhältnis 50:50).

Danach können Sie Ihr Gerät für den Verkauf fotografieren. Das ist in jedem Fall nützlich, wenn Sie den Verkauf auf Ebay oder Craigslist planen. Wählen Sie für die Fotos einen hellen, indirekt beleuchteten Platz und machen Sie Aufnahmen aus verschiedenen Winkeln – frontal, seitwärts, von der Rückseite, und so weiter. So können potentielle Käufer schon auf den Bildern den Zustand des Gerätes einschätzen.

Schritt 3: Verkaufen

Nach dem digitalen und physischen Frühjahrsputz ist Ihr Gebrauchtgerät bereit für den Verkauf. Zuvor müssen Sie sich selbst nur noch eine Frage stellen: Sind Sie bereit, ein bisschen weniger Geld am Gerät zu verdienen, wenn sich dadurch der Verkaufsprozess beschleunigt und vereinfacht? Oder wollen Sie Ihren Profit um jeden Preis maximieren, auch wenn das für Sie ein paar Unbequemlichkeiten und mehr Arbeit bedeutet?

Wenn die Entscheidung auf letztere Variante fällt, sind Sie ein typischer Kandidat für Craigslist und Ebay, wo Sie Ihre eigene Auktion erstellen und den Preis für Ihr Gerät festlegen können. Es gibt allerdings keine Garantie dafür, dass Sie den gewünschten Preis auch wirklich erzielen und es kann Tage und sogar Wochen dauern, bevor Sie Ihre Ware verkauft bekommen – wenn sie überhaupt gekauft wird. Andererseits, wenn es sich beim Gerät um gute und funktionierende Ware handelt und Sie einen vernünftigen Preis dafür verlangen, haben Sie das Geld vermutlich schon in der Tasche, bevor der Tag rum ist.

Andere Services wie reBuy, WirKaufens oder das Amazon Trade-In-Programm bieten einen Festpreis für gebrauchte Handys, Tablets, iPhones und andere elektronische Geräte. Sie akzeptieren beispielsweise auch Kameras, Spielkonsolen und Laptops. Der Dienst funktioniert folgendermaßen: Sie machen ein paar Angaben über das Gerät (Marke, Modell, Zustand, usw.), der Service schlägt Ihnen dann einen Eintauschpreis vor. Wenn Sie das Angebot akzeptieren, erhalten Sie eine vorfrankierte Postmarke, mit der Sie das Gerät einschicken. Sobald der Dienstleister das Gerät erhalten und den angegebenen Zustand überprüft hat, erhalten Sie Ihr Geld.

App-Test: Gebrauchte Medien verkaufen mit reBuy für iOS

Der Nachteil: Bei solchen Anbietern erhalten Sie in aller Regel weniger, als bei einem Verkauf über Ebay und Co. Es kann sogar passieren, dass Sie am Ende weniger Geld erhalten, als Ihnen versprochen wurde, wenn der Anbieter das Gerät prüft und nicht mit Ihren Angaben zum Zustand der Ware übereinstimmt. Trotzdem gehört diese Methode zu den einfachsten und stressfreien Möglichkeiten, seine alten Geräte zu verkaufen. Für viele Grund genug, sich auch mit ein paar Euros weniger zufrieden zu geben.

Schritt 4: Verkäufe für die Zukunft planen

Auch wenn es jetzt noch ein Weilchen hin ist, wird irgendwann Ihr neues, tolles Smartphone oder Tablet den gleichen Weg gehen, wie sein Vorgängermodell. Und auch dann sind Sie vielleicht wieder in der Situation, Ihr Altgerät verkaufen und sich ein neueres Modell anschaffen zu wollen. Mit diesem Gedanken im Hinterkopf ist es recht einfach, schon jetzt dafür zu sorgen, irgendwann den maximalen Preis für Ihr Altgerät zu erzielen.

Verzichten sollte man generell auf Dinge, die nicht wieder rückgängig zu machen sind, zum Beispiel Gravuren ins Gehäuse und ähnliches, um dem Gerät den „persönlichen Touch“ zu verleihen. Wenn Sie Wert auf Personalisierung legen, benutzen Sie lieber ein individuell bedrucktes Case oder einen Skin, der sich recht einfach bei Bedarf wieder ablösen lässt. Bei Smartphones und Tablets lohnt sich für die Zeit des Gebrauchs auf jeden Fall eine Bildschirm-Schutzfolie, um Kratzer zu vermeiden und die Bruchgefahr zu minimieren. Auch verschlissene Ecken und Kanten können Sie vermeiden, indem Sie das Gerät konsequent in einer Hülle mit sich herumtragen und nicht einfach in der Jacken- oder Hosentasche transportieren, in der vermutlich auch noch der Schlüsselbund lagert.

Bewahren Sie auch sämtliches Zubehör, das im Lieferumfang des Geräts enthalten war: Karton, Ladekabel, Kopfhörer, Anleitungen, am besten auch den Kassenbeleg, falls der zukünftige Besitzer darauf Wert legt – zum Beispiel für Garantieansprüche. Ihr Ziel sollte darin liegen, Ihr Gerät so neu wie möglich aussehen zu lassen – denn nur so erzielen Sie die besten Preise auf dem Markt.

Windows 10 Mai 2019 Update offiziell – wichtige Änderung für alle

Microsoft hat nun offiziell die Veröffentlichung von Windows 10 Mai 2019 Update angekündigt. Die Verteilung startet in Kürze.

angekündigt. Und es gibt eine wichtige Änderung in Windows Update für alle Nutzer – dazu mehr weiter unten. Mit Windows 10 Mai 2019 Update steht auch der Name für das nächste große Windows-10-Update fest, welches bisher nur als Windows 10 Version 19H1 oder Windows 10 Version 1903 bezeichnet wurde.

Trotz des Namens wird das Update die Version von Windows 10 auf Version 1903 erhöhen. „1903“ setzt sich aus der Jahreszahl und des Monats der Fertigstellung. Microsoft veröffentlicht jedes Jahr zwei große Updates jeweils im Frühjahr und im Herbst des Jahres. Windows 10 Mai 2019 Update wird damit das Windows-10-Oktober-Update (Windows 10 Version 1809) ablösen.

Die Entwicklung von Windows 10 Mai 2019 Update war mit einigen Problemen verbunden: Ein hartnäckiger Gaming-Bug hielt sich bis zuletzt. Nun wurde ein Status erreicht, in dem das Update auch allen Windows-10-Nutzern zur Verfügung gestellt werden kann.

Zeitplan für den Start von Windows 10 Mai 2019 Update

Der Zeitplan für die Verteilung von Windows 10 Mai 2019 Update sieht laut Angaben von Microsoft wie folgt aus:

Windows Insider erhalten das Windows 10 Mai 2019 Update ab nächster Woche über den „Release Preview Ring“

Im Mai 2019 erhalten alle Nutzer das Windows 10 Mai 2019 Update, die den Button „Nach Updates suchen“ in den Einstellungen unter Windows Update anklicken. Nutzer, die diesen Button regelmäßig anklicken, gelten als besonders interessiert am Ausprobieren einer neuen Windows-10-Version.

Später im Mai 2019 erhalten auch alle Nutzer das Windows 10 Mai 2019 Update, die eine Windows-10-Version verwenden, die nicht oder bald nicht mehr unterstützt wird. Demnächst läuft beispielsweise die Unterstützung für Windows 10 Version 1709 aus .

Anschließend erhalten auch alle anderen Nutzer die Möglichkeit auf Windows 10 Mai 2019 Update zu wechseln.

Windows 10 Mai 2019 Update wird länger im „Release Preview Ring“ für Windows Insider und Hardware-Hersteller verbleiben, als bisherige große Windows-10-Updates. Dadurch können die Windows-10-Entwickler länger Feedback sammeln und dieses dann noch einfließen lassen, ehe das Windows 10 Mai 2019 Update dann an alle Nutzer ausgeliefert wird.

Dabei werden offensichtlich die Konsequenzen nach dem holprigen Start des vergangenen Herbst-Updates Windows 10 Version 1809 gezogen. Es erschien zunächst im Oktober 2018, wurde dann wieder wegen Fehlern zurückgezogen, dann wieder veröffentlicht und wieder zurückgezogen… Erst kürzlich hat Microsoft das Update als „bereit für Profi-Nutzer“ erklärt.

Erst in dieser Woche wurde dann aber wieder ein Mega-Update für Windows 10 Version 1809 mit zahlreichen Bugfixes nachgereicht.

Wichtige Änderung in Windows Update ab Windows 10 Mai 2019 Update

Mit Windows 10 Mai 2019 Update führt Microsoft auch eine wichtige Änderung in Windows Update ein.

Microsoft will die Nutzer nun besser vor solchen problematischen Update-Releases schützen. Die Maßnahme: Alle Windows-10-Nutzer erhalten mehr Kontrolle darüber, wann ein neues Update installiert werden soll. Egal ob es sich um ein großes Windows-10-Update handelt, oder um ein neues monatliches Update. Der Anwender erhält zunächst nur eine Benachrichtigung, wenn ein neues Update verfügbar ist. Der Nutzer kann dann selber entscheiden, ob er das Update sofort installieren möchte. Er kann die Installation aber auch verschieben.

Bei Windows-10-Geräten, auf denen eine Windows-10-Version installiert ist, die nicht mehr unterstützt wird oder bald nicht mehr unterstützt wird, führt Windows Update eher automatisch eine Aktualisierung auf die neu verfügbare Version durch. Microsoftbegründet dies damit, dass dadurch sichergestellt werden soll, dass diese Geräte auch mit neuen Sicherheitsupdates versorgt werden und damit möglichst wenig aufgrund von bekannten Betriebssystem-Lücken angreifbare Windows-10-Systeme im Internet unterwegs sind.

Wichtigste Änderung ist allerdings, dass beginnend ab Windows 10 Mai 2019 Update auch Windows 10 Home Nutzer die Installation eines neuen großen Windows-10-Updates oder eines monatlichen Updates um bis zu 35 Tage verzögern können.

Eine Verschiebung ist jeweils um sieben Tage möglich. Das kann insgesamt fünf Mal durchgeführt werden, also maximal 35 Tage.

Windows Insider durfte die Verzögerung der Updates bereits während der Testphase von Windows 10 19H1 ausprobieren , wobei die Entwickler hier noch mit der Zeitdauer experimentierten. Letztendlich fiel nun die Entscheidung auf 35 Tage.

Funktion Nutzungszeit wird flexibler und weitere Update-Änderung

Eine Änderung gibt es auch bei der Funktion „Nutzungszeit“ von Windows 10. Viele Nutzer verwenden die Standardeinstellung für die Nutzungszeit, als von 8 Uhr morgens bis 17 Uhr nachmittags. In dieser Zeit darf Windows 10 die Arbeit der Nutzer nicht durch ein Update unterbrechen. Ab Windows 10 Mai 2019 Update kommt die neue Option hinzu, bei der Windows 10 automatisch die Nutzungszeit anpasst, je nach dem persönlichen Nutzungsverhaltens des Anwenders.

Außerdem synchronisiert sich Windows Update künftig mit Updates vom MicrosoftStore. Damit werden Updates zeitgleich durchgeführt, was zu weniger Unterbrechungen bei den Nutzern sorgen soll.

Corsair K83 Wireless im Test: Kabellose Tastatur im edlen Design fürs Wohnzimmer

Corsair präsentiert eine kabellose Gaming-Tastatur fürs Wohnzimmer. Neben der Wireless-Verbindung bietet sie einige Gaming-Features wie einen integrierten Joystick. Was die Tastatur sonst noch zu bieten hat, verraten wir ihm Test.

Mit der Corsair K83 Wireless stellt der US-Hersteller seine erste kabellose Gaming-Tastatur fürs Wohnzimmer vor. Neben dem Drahtlosanschluss bietet sie außerdem ein integriertes Touchpad, Extra-Tasten und einen gummierten Joystick.

TEST-FAZIT: Corsair K83 Wireless

Die Corsair K83 Wireless begeistert sich nicht nur mit dem edlen Metall-Look, sondern hat außerdem jede Menge nützlicher Features zu bieten. Dabei finden wir nicht nur den integrierten Joystick, die Extra-Tasten und das Touchpad besonders spannend, sondern auch die dedizierte Lautstärkeregelung und das kompakte Format. Corsair beleibt sich allerdings nicht nur bei der hochwertigen Verarbeitung und den ausgeklügelten Funktionen treu, sondern auch beim Preis, denn die Wireless-Tastatur liegt aktuell bei sehr hohen 140 Euro.

Pro:

+ Beleuchtete Tasten

+ hochwertige Materialien

+ lange Akkulaufzeit

Contra:

– hoher Preis

– Latenz beim Touchpad

Ausstattung und Technik der Corsair K83 Wireless

Die spannendsten Highlights der Wireless-Gaming-Tastatur sind wohl nicht der Drahtlosanschluss, sondern der gummierte Joystick und das integrierte Touchpad. Letzteres beherrscht zudem die Windows-10-Gestensteuerung und lässt damit Wischgesten mit den Fingern zu. Neben diesen Steuerelemente können wir außerdem in den Genuss einer dedizierten Lautstärkeregelung, einer Beleuchtungssteuerung und einer Windows-Lock-Taste kommen. Hinzu kommen auf der rechten oberen Ecke eine Schultertaste und eine weitere Taste an der Unterseite der Tastatur, die eine „Maus“-ähnliche Steuerung ermöglichen sollen. Dank des leistungsstarken Akkus bietet die K83 Wireless einen Spielspaß von bis zu 40 Stunden (Herstellerangabe).

Das kompakte Design mit einer Länge von 381 und einer Breite von 28 Millimeter eignet sich ideal für längeres Zocken oder auch Surfen im Wohnzimmer. Dank des geringen Gewichts von 480 Gramm treten kaum Ermüdungserscheinungen auf. Praktisch: Um auch bei schlechten Lichtverhältnissen den Durchblick zu behalten ist die Gaming-Tastatur mit einer LED-Tastenbeleuchtung ausgestattet.

Hochwertige Materialien und Premium-Verarbeitung

Trotz des kompakten Formats spart Corsair aber nicht an hochwertigen Materialien und einer sauberen Verarbeitung. So befindet sich auf der Oberseite der Gaming-Tastatur eine Metallplatte aus gebürstetem Aluminium, um dem Kunststoff-Gehäuse die nötige Eleganz zu verleihen. Und auch kleine Details wie das metallene Lautstärkerad und der gummierte Joystick tragen zum schicken Gesamtbild bei. Definitiv ein Hingucker in jedem Wohnzimmer!

Einsatz im Spiel: Eher für gemächliche Games

Auch wenn sich dank der Joystick-Steuerung quasi jedes Spiel spielen lässt, kann es bei rasanten Games durchaus schwierig sein, die Kontrolle zu behalten. Deshalb empfiehlt es sich eher ruhigere Spiele zu spielen oder sie gar nur zum Surfen auf dem Wohnzimmer-PC zu nutzen. Die beiden Extra-Tasten an der Ecke und Unterseite gehen schnell in Gewohnheit über – sehr schön! Neben dem Anschluss am PC können Sie dieCorsair K83 Wireless auch mit Amazon Fire TV, Nvidia Shield TV und weiteren Smart-TVs verbinden.

Herausragende Computer-Pioniere: 15 Unix-Entwickler

Ohne Unix sähe unsere IT-Welt heute ganz anders aus. Wir stellen die 15 größten Unix-Pioniere vor und zeigen Ihnen was diese geleistet haben und wo sie derzeit tätig sind.

Unix, das Mehrbenutzer-Betriebssystem, wurde 1969 im Bell-Entwicklungszentrum von AT&T-Mitarbeitern entwickelt. Unix-Abkömmlinge und -Klone sind beispielsweise Berkeley Unix, Minix, Linux, AIX, A/UX, HP-UX und Solaris. Apples Mac OS X basiert auf der Berkeley Software Distribution (BSD) Unix. Diesr Artikel stellt die frühen Unix-Pioniere und ihre Errungenschaften vor.

Ken Thompson

Ken Thompson war der Co-Entwickler von Unix. Er arbeitete im Bell-Entwicklungszentrum von 1966 bis er im Dezember 2000 in den Ruhestand ging. Thompson schrieb die B-Programmiersprache, welche der Vorreiter der C-Sprache war, schrieb Unix in C neu und programmierte einige Zeit später Teile von Unix abermals neu, um Doug McIlroys Verkettungszeichen zu implementieren.

Dennis Ritchie (9. Sept. 1941 bis 12. Okt. 2011)

Dennis Ritchie war Mitentwickler des Unix-Betriebssystems und Schöpfer der C-Programmiersprache. Er arbeitete bei Bell von 1967 bis 2007, als er in den Ruhestand ging. Er schrieb unter anderem die Buch-Klassiker „Unix Programmer’s Manual“ (1971) und „The C Programming Language“ (1978) mit Brian Kernighan.

Joe Ossana (10. Dez. 1928 bis 28. Nov. 1977)

Joe Ossana arbeitete bei Bell von der Mitte der 1950er Jahre bis zu seinem Tod im Jahre 1977. Er war Teil des Teams, das Multics entwickelte, das erste Timesharing-Betriebssystem von Bell und MIT. Dann arbeitete er zusammen mit Thompson, Ritchie und Rudd Canaday an der Programmierung von Unics, das später zu Unix wurde. Er wurde berühmt dafür, eine Version von nroff (welche troff hieß) geschrieben zu haben, die das neue Grafiksystem CAT Phototypesetter verwaltete. 1973 schrieb er das erste Unix-troff in der PDP-11 Assemblersprache und schrieb es 2 Jahre später in C neu.

Douglas McIlroy

Douglas McIlroy arbeitete von 1958 bis zu seinem Ruhestand im Jahr 1997 bei Bell. Er ist bekannt für die Entwicklung von Pipes/Pipelines und entwickelte auch zahlreiche Unix-Tools. Er hat viele Bücher und und Artikel in Fachzeitschriften geschrieben und herausgegeben und erhielt zahlreiche Auszeichnungen für seine Arbeit in der Computerindustrie. Derzeit hat Mcllroy eine Assistenzprofessur für Computer-Wissenschaften am Dartmouth College inne.

Peter Neumann

Peter Neumann arbeitete von 1960 bis 1970 im Bell-Entwicklungszentrum. Von 1965 bis 1969 arbeitete er im Multics Team. Er ist verantwortlich für die Planung des Dateisystems und arbeitete am Multics Input-Output-Design zusammen mit Thompson, Ossanna und Stan Dunten. Er publizierte zahlreiche Artikel und Arbeiten, darunter sein Buch „Computer Related Risks.“ Zusätzlich ist er der Moderator von RISKS Digest und der Gründungsverleger von ACM Software Engineering Notes. Neumann ist der Hauptwissenschaftler bei SRI seit 1971. Er gilt als ein Experte auf dem Gebiet der Computersicherheit und verfasste die Abhandlung „A Provably Operating System (PSOS).“

Rudd Canaday

Rudd Canaday arbeitete von 1964 bis 1989 bei Bell und ist als dritter Co-Entwickler von Unix aufgeführt. Seine Leistungen beinhalten viele Neu-Entwicklungen wie zum Beispiel den ersten Datenbankserver, die erste firmenweite Anwendung von Unix, die erste internationale Anwendung von Unix (unter AT&T), das erste automatische Prüfsystem, das erste automatische Assistenzprogramm für Dateiverzeichnisse und eines der ersten dreidimensionalen Dateisysteme. Canaday ist Mitgründer und derzeit Verwaltungsmitglied bei RHC Software.

Brian Kernighan

Brian Kernighan arbeitete bei Bell in dem Team, das Unix entwickelte zusammen mit Thompson, Ritchie und den anderen hier erwähnten Technikern. Er schrieb ein halbes Dutzend Bücher, darunter das erste Buch über die C-Programmiersprache zusammen mit Dennis Ritchie und er prägte den Begriff WYSIWYG. Kernighan ist Professor der Computer-Wissenschaften an der Princeton University.

Michael Lesk

Michael Lesk arbeitete bei Bell von 1970 bis 1984 im Unix-Entwicklungsteam. Seine Beiträge beinhalten die Tools für Textverarbeitung und auch die für Programmumwandlung und den Netzwerkbetrieb. Zusätzlich schrieb er die Portable I/O Library und war Teil des Teams, das die Programmiersprache C entwickelte. Er verließ Bell, um die Forschungsgruppe bei Bellcore zu leiten. Heute ist Lesk Professor der Bibliotheks- und und Informationswissenschaften an der Rutgers University.

Bill Joy

Im Jahre 1986 erhielt Bill Joy den Grace Murray Hopper-Award von der „Association for Computing Machinery“ (ACM) für seine Mitentwicklung am Berkeley-Unix-Betriebssystem (bekannt als BSD oder Berkeley Software Distribution Unix). Joys BSD Unix beinhaltete zudem die C-Konsole, den vi-Editor und eine Unterstützung für virtuellen Arbeitsspeicher, der es Programmen erlaubte über den physischen Arbeitsspeicher hinaus zu funktionieren. Joy wurde der Mitbegründer von Sun im Jahr 1982 und ist derzeit Partner der Wagniskapitalgesellschaft Kleiner, Perkins, Caufield und Byers.

David Korn

David Korn fing 1976 an bei Bell zu arbeiten. Er entwickelte die „Korn-Shell“ als Alternative zur C- und Bourne-Shell war. Außerdem entwickelte er UWIN, eine X/Open Library für Win32-Systeme. Er schrieb zwei Bücher und dutzende Arbeiten über Unix und dessen Fortentwicklung. Korn arbeitet noch immer bei AT&T.

Rob Pike

Rob Pike arbeitete von 1980 bis 2002 bei Bell als Mitglied des Unix-Teams. Zusätzlich zu seinen Beiträgen zu Plan 9, dem Inferno-Betriebssystem, und der Limbo-Programmiersprache schrieb Pike das erste Bitmap-Fenstersystem für Unix im Jahr 1981 und später entwickelte er mit an dem Blit-Grafikterminal für Unix. Des weiteren schrieb er Text-Editoren wie Sam und Acme und wirkte an dem Buch „The Practice of Programming and The Unix Programming Environment“ von Brian Kernighan mit. Pike ist derzeit Ingenieur bei Google.

Andrew Tanenbaum

Andrew Tanenbaum arbeitete zwischen 1979 und 1982 bei Bell. Er schrieb 1987 einen Unix-Klon, den er Minix nannte, um diesen auf einem IBM-PC zu nutzen. Minix (oder Mini-Unix) wurde ein weltweites Phänomen. Tanenbaum erhielt über zwei Dutzend Auszeichnungen und Ehrendoktorwürden, außerdem publizierte er rund ein halbes Dutzend Fachbücher. Tanenbaum ist derzeit Professor für Computerwissenschaften an der Vrije Universität in Amsterdam.

Rick Rashid

1979 wurde Rick Rashid Professor für Computerwissenschaften an der Carnegie Mellon University. Sein Beitrag für Unix war die erste Version des Mach-Kernel, ein Ersatz für den „Micro Kernel“ für BSD Unix. Mach war die erste 64-Bit Version von Unix und wurde zusammen mit BSD die Basis für das Betriebssystem OS der „Open SoftwareFoundation“(OSF/1), welche später der Betriebssystems-Ursprung für DEC/Compaq/HP, NeXTstep und Apple Mac OS X wurde. Heute ist Rashid Forschungsleiter bei Microsoft.

Gordon Bell

Gordon Bell war nicht bei Bell angestellt, arbeitete aber dennoch mit Thompson und Ritchie zusammen. Er arbeitete für 24 Jahre in der R&D bei der Digital Equipment Corp. Einer seiner größten Erfolge war seine Entwicklung des VAX-Minicomputers, welcher als Bester seiner Klasse galt. Er war die treibende Kraft hinter der Einführung und der Verbreitung von Unix in der wissenschaftlichen Gemeinschaft für Supercomputer und in der Defense Advanced Research Projects Agency (DARPA). Er gründete die Computerwissenschaften- und Ingenieurs-Abteilung des Nationalfonds, den er auch leitete. Derzeit arbeitet Bell für Microsoft.

Linus Torvalds

Im August 1991 veröffentlichte Linus Torvald im Usenet sein Linux-Betriebssystem, das auf Unix basierte. Er entwickelte den Linux Systemkern für einen 80386-Prozessor-PC, auf welchem das Minix-Betriebssystem und ein GNU C-Compiler lief. Die anderen für ein Betriebssystem nötigen Komponenten wie die Konsole, Compiler, Bibliotheken, Tools, etc. wurden von dem GNU-Projekt entwickelt und 1992 herausgegeben. Sobald alle Komponenten integriert wurden, war Linux offiziell geboren. Das Pinguin-Logo wurde 1996 hinzugefügt.

Dieser Artikel stammt von unserer Schwesterpublikation Infoworld.