Die besten Dual-SIM-Handys 2019: Marktübersicht

Welche Smartphones haben eine Dual-SIM-Funktion und woran erkenne ich sie? Die Antworten und die besten Dual-SIM-Handys finden Sie in dieser Übersicht.

Ein Dual-SIM-Smartphone hat Platz für zwei SIM-Karten, die Sie gleichzeitig oder auch abwechselnd nutzen können. Mittlerweile bietet fast jedes neues Handy eine Dual-SIM-Funktion. Die meisten aktuellen Android-Handys bieten einen sogenannten Hybrid-Slot, bei dem ein Steckplatz für eine SIM-Karte und ein weiterer Slot entweder für eine Speicherkarte oder wahlweise für eine zweite SIM-Karte dienen kann. Tatsächlich gibt es aber auch Smartphone-Modelle, die zwei richtige SIM-Karten-Slots und teils zusätzlich einen Speicherkarten-Steckplatz haben – so beispielsweise das Samsung Galaxy A50 (im Preisvergleich) . Auch Apple ermöglicht Nutzern seit dem iPhone XS (im Preisvergleich) eine Dual-SIM-Funktion – neben einer physischen SIM-Karte ist eine eSIM fest im iPhone integriert . Google macht es bei seinen Modellen seit dem Pixel 3 (XL) auch so – entsprechend hat das Pixel 4 (im Preisvergleich) ebenfalls eine eSIM.

Top Dual-SIM-Smartphones:

Natürlich sind in der Bilderstrecke nicht alle Smartphones mit Dual-SIM-Funktion, die es auf dem Markt gibt. Wir haben vorrangig Geräte aufgelistet, die in unserem Test am besten abgeschnitten haben sowie Handys, die preislich attraktiv oder zu den meist verkauftesten Smartphones gehören. So ist aus jeder Preiskategorie etwas dabei.

Spannende Smartphones mit Dual-SIM:

Samsung Galaxy M30s

Das Galaxy M30s ist aktuell der Bestseller Nummer 1 auf Amazon, basierend auf Bestellungen. Das Handy wird exklusiv auf Amazon für 249 Euro verkauft. Das Mittelklasse-Smartphone bietet ein 6,4 Zoll großes Super-AMOLED-Display mit 2340 x 1080 Pixeln. Unter der Haube arbeiten ein Achtkern-Prozessor und 4 GB RAM für eine ordentliche Performance. Besonders stark ist, das Samsung einen riesigen 6000-mAh-Akku verbaut und eine Schnellladefunktion mit 15 Watt integriert. Zur weiteren Ausstattung gehören eine Triple-Kamera mit maximal 48 Megapixel, Bluetooth 5.0, WLAN-ac und ein 64 GB großer Speicher, der bei Bedarf per Micro-SD-Karte um bis zu 512 GB erweitert werden kann. Zusätzlich gibt es zwei SIM-Steckplätze.

Xiaomi Mi 9T Pro

Das Xiaomi Mi 9T Pro bietet einen AMOLED-Bildschirm im 6,39-Zoll-Format und einer Auflösung von 2.340 x 1.080 Pixeln. Das Display ist nahezu randlos und wird nicht von einer Notch unterbrochen. Die Front-Kamera mit einer Auflösung von 20 Megapixeln ist stattdessen in einem ausfahrbaren Pop-Up-Mechanismus untergebracht. Im Gehäuse werkeln ein Snapdragon 855 mit speziellem Kühlsystem, sechs Gigabyte Arbeitsspeicher und 128 Gigabyte Flash-Speicher. Ebenfalls an Bord sind ein Fingerabdruck-Sensor, der direkt unter dem Display-Glas sitzt, ein 3,5-mm-Kopfhörer-Anschluss und ein Akku mit 4.000 mAh sowie Schnellladefunktion. Die Rückseiten-Kamera verfügt über drei Linsen, die mit 48, 13 und 8 Megapixeln auflösen und Videos in 4K mit 60 Bildern pro Sekunde aufnehmen können. Sie bieten Weitwinkel-, Ultraweitwinkel- und Tele-Brennweiten. Das Mi 9T Pro hat eine Dual-SIM-Funktion, eine Speichererweiterung gibt es nicht.

Huawei P30 Pro

Auch wenn es das P30 Pro in einer Single-SIM-Variante gibt, wird das Handy in Deutschland fast ausschließlich in der Dual-SIM-Variante geführt. Dabei handelt es sich um einen Hybrid-Slot, der wahlweise Platz für zwei SIM-Karten oder eine SIM und eine Speicherkarte hat.

Im Fokus des Huawei P30 Pro steht aber ganz klar die Quad-Kamera von Leica. Es ist beeindruckend, wie viel Licht die Kamera selbst in einem völlig dunklen Raum einfängt, um noch gute Fotos unter dieser besonderen Bedingung zu machen. In Summe hat Huawei eines der besten Kamerapakete, da die Fotoqualität in den meisten Situationen sehr stark ist und die Kamera durch ihre verschiedenen Objektive vielseitig einsetzbar ist. Auch optisch begeistert das Handy mit seinem eleganten Design und den coolen Farben. Um die Akkulaufzeit müssen Sie sich – wie von Huawei gewohnt – aufgrund der langen Laufzeit keine Gedanken machen. Schade ist nur, dass es keine Klinkenbuchse wie im P30 gibt – oder zumindest einen Adapter von USB-C auf Klinke. Über die „niedrige“ Auflösung von FullHD+ kann man hinweg sehen.

iPhone 11 (Pro)

Seit der letzten iPhone-Generation iPhone XR, XS und XS Max haben auch die Apple-Geräte eine Dual-Funktion. Allerdings anders, als die oben genannten Geräte. Denn die iPhones – so auch iPhone 11 und iPhone 11 Pro – besitzen nur einen SIM-Steckplatz und eine eSIM – eine fest eingebaute SIM. Das Problem: für die eSIM bieten bislang nur die großen Provider O2 , Telekom , Vodafone und auch Truphone Tarife an. Dass Apple aber zwei echte SIM-Steckplätze verbauen kann, zeigt die iPhone-Variante für den chinesischen Markt. Denn dort können Sie zwei SIM-Karten einstecken.

Dual-SIM – Diese Techniken gibt es

Es gibt unterschiedliche Arten der Dual-SIM-Funktion. Smartphones mit Dual-SIM Active (Active Dual) besitzen zwei unabhängige Sende-Empfangseinheiten. Hierbei sind beide SIM-Karten gleichzeitig sende- und empfangsfähig. Heißt: Sie sind parallel mit beiden Rufnummern erreichbar. Allerdings funktionieren keine Telefonkonferenzen über beide SIM-Karten zur gleichen Zeit.

Bei der Dual-Standby-Technik sind bei SIM-Karten zeitgleich im Mobilfunknetz aktiv. Allerdings ist das Smartphone in diesem Fall nur mit einer Sende-Empfangseinheit ausgestattet. Während Sie also über die eine SIM-Karte telefonieren, sind Sie währenddessen nicht über die zweite SIM-Karte erreichbar. Auch kann über diese zeitgleich keine Datenverbindung aufgebaut werden, da die aktive SIM-Karte sozusagen die Leitung belegt. In der Regel ist es aber möglich, eine Rufumleitung bei Nichterreichbarkeit einzurichten – so klopft der Anrufer an. Je nach Tarif kann die Weiterleitung Kosten verursachen. Aktuell ist dies die am häufigsten genutzte Technik in Smartphones.

Achten Sie beim Kauf auch darauf, ob beide SIM-Steckplätze für LTE ausgelegt sind. Sonst surfen Sie mit der zweiten SIM nur im 3G-Netz – und das macht keinen Spaß! Wobei das mittlerweile auch die Ausnahme ist.

So erkennen Sie Smartphones mit Dual-SIM

Rein optisch können Sie ein normales Handy von einem Smartphone mit Dual-SIM nicht unterscheiden. Meistens erst dann, wenn Sie den Karten-Schacht öffnen, finden Sie zwei oder mehr Steckplätze für zwei SIM-Karten + Speicherkarte oder einen SIM- sowie einen Hybrid-Slot vor. Teilweise verrät auch der Produktname die Funktion, Samsung beispielsweise hängt an viele seiner Geräte den Zusatz „Duos“ an den Namen dran. Aber auch die Smartphone-Verpackung gibt einen Hinweis auf die Dual-SIM-Funktion, in dem zwei IMEI-Nummern aufgedruckt sind.

PC erkennt Handy nicht – das können Sie tun

Wenn Ihr PC das Smartphone per USB nicht erkennt, kann das mehrere Ursachen haben. So lösen Sie die (typischen) Probleme.

Mit unseren Tipps können Sie typische Fehler und Probleme selbst beheben. Zeigt Ihr Handy mögliche USB-Verbindungsarten an, wählen Sie „Massenspeicher“ oder „Datenübertragung“ aus. Dadurch erhalten Sie Zugang auf den internen Speicher des Handys. Wenn das nicht klappt, fahren Sie mit den nachfolgenden Tipps fort.

Tipp 1: Handy neustarten

Ein Reboot hat schon so manches Problem beseitigt, wieso nicht auch in diesem Fall? Trennen Sie die USB-Verbindung zum PC und starten Sie das Handy neu. Ein Neustart ist immer der erste Ansatz zur Behebung diverser Fehler. Sollte der PC das Handy noch immer nicht erkennen, wechseln Sie im nächsten Schritt das USB-Kabel.

Tipp 2: USB-Kabel tauschen oder Port wechseln

Jahrelange Nutzung und kleine Beschädigungen durch Knicken können die Ursache dafür sein, dass das USB-Kabel Daten nicht mehr richtig überträgt. Ein neues Kabel gibt es bereits für wenige Euro zum Beispiel bei Amazon.

Liegt kein Defekt vor – sprich: auch ein neues USB-Kabel funktioniert nicht – probieren Sie einen anderen USB-Port des Computers aus. Hilft auch das nicht, versuchen Sie je nach Möglichkeit, das Smartphone an einem anderen PC anzustecken. So schließen Sie aus, dass es an Ihrem Rechner liegt.

Tipp 3: Handy-Treiber neu installieren

Wird Ihr Handy weiterhin vom PC nicht erkannt – oder er identifiziert zwar das Smartphone, zeigt aber keine Inhalte an – dann könnten gewisse Treiber fehlen, veraltet sein oder einfach nicht mehr funktionieren. Löschen Sie daher die vom PC gespeicherten USB-Einträge angeschlossener Geräte.

Dazu setzen Sie bei Windows unter Start -> Systemsteuerung -> Geräte-Manager -> Ansicht den Haken bei Ausgeblendete Geräte anzeigen . Tippen Sie dann auf USB-Controller , suchen den USB-Eintrag Ihres Smartphones und deinstallieren diesen – der Treiber wird oft bereits mit dem Hersteller-Namen wie „Samsung“ oder als „Android-Device“ angezeigt. Starten Sie den Computer neu und schließen Sie das Handy wieder per USB an den PC an. Das System sucht dann automatisch nach dem aktuellen Treiber und installiert die neueste Version.

Tipp 4: Handy zurücksetzen

Besteht das Problem „PC erkennt Handy nicht“ noch immer, kann auch ein Reset helfen. Davor sollten Sie allerdings Ihre Daten mit einem Backup sichern . Durch das Zurücksetzen auf den Werkszustand werden oft Software-Fehler beseitigt und das Handy könnten Sie anschließend wie gewohnt mit dem PC verbinden.

Tipp 5: Wenn nichts mehr geht – Reparatur

Sollte Ihr Smartphone auch nach dem Reset nicht vom PC erkannt werden, setzen Sie sich mit dem Hersteller in Verbindung. Die Wahrscheinlichkeit ist hoch, dass der USB-Anschluss Ihres Smartphones defekt ist. Um das Problem zu beheben, bedarf es einer Reparatur.

Geniale Computer-Tipps für die Ewigkeit

Schon vor 20 Jahren gab es Tipps für den Umgang mit Computern. Wir haben die besten und immer noch aktuellen Computer-Weisheiten zusammengestellt.

Technologie ist ständig in Bewegung. Hardware wird schneller und Betriebssysteme erhalten neue Funktionen und werden effektiver. Das bedeutet aber keineswegs, dass bestimmte Methoden und Computer-Weisheiten jemals aus der Mode kommen werden. Hier finden Sie zeitlose Tipps, die immer aktuell sind.

System neu starten

Wenn etwas auf Ihrem PC nicht funktioniert, sollten Sie nicht verzweifeln, sondern Ihren Computer einfach neu starten. Diese einfache Methode behebt oftmals viele Probleme. Wenn Ihr Rechner neu startet, werden alle temporären Dateien im Arbeitsspeicher gelöscht und das Betriebssystem neu geladen. Dateien, die Fehler verursachen, werden so entfernt. Falls Sie temporäre Dateien ohne einen Neustart löschen möchten, klicken Sie auf Start, anschließend auf Ausführen und geben %temp% in die Befehlszeile ein und löschen dann die temporären Dateien. Das kann einige Zeit dauern.

Leerer Akku

Murphys Gesetz: Der Akku Ihres Notebooks oder Tablet-PC ist immer dann leer, wenn Sie Ihr mobiles Gerät benötigen. Halten Sie deshalb immer einen Zweit-Akku bereit. Und nutzen Sie jede Gelegenheit zum Aufladen. Nur mit dem Aufladen über Nacht sollten Sie vorsichtig sein.

Problembehandlung mittels „Schwarm-Intelligenz“

Die Chancen stehen gut, dass, falls Sie auf der Website des Herstellers Ihres Gerätes keine Lösung zu Ihrem Problem finden können, eine passende Lösung mittels Google finden. Geben Sie Ihr Problem also ein eine Internetsuchmaschine ein. In der Regel sollten Sie dann Foreneinträge oder Artikel finden, die eine Lösung Ihres Problems liefern.

Sicherungskopien anfertigen

Fertigen Sie immer eine Sicherungskopie an und sichern Sie diese noch einmal, so dass Sie immer zwei Kopien besitzen. Das Backup sollten Sie sowohl auf einem externen Laufwerk als auch auf einem Cloud-Speicher ablegen. Des Weiteren ist es eine gute Idee täglich ein System- und Datenpartition-Backup anzufertigen. Die Systempartition sollten Sie darüber hinaus mindestens einmal vierteljährlich komplett sichern, dazu gehört Windows und die installierten Programme.

Verwenden Sie USB-Sticks und -Laufwerke

Schnell haben Sie den Überblick über die Wiederherstellungs-Discs verloren, besser ist ein USB-Laufwerk mit Recovery-Software. Dieses bewahren Sie an einem sicheren und leicht zu merkenden Ort auf. Am gleichen Ort heben Sie zudem sowohl die elektronischen als auch gedruckten Kopien aller Software-Lizenz-Schlüssel/Produkt-Keys auf.

Es muss nicht immer das neuste Modell sein

In der Regel benötigen Sie nicht die neueste am Markt befindliche Technologie, in Form von Prozessoren, Grafikkarten oder I/O-Technologien. Preisgünstiger und oft auch zuverlässiger sind ausgereifte Vorgänger-Modelle.

Erweiterte Garantie ist unnötig

Händler bieten meist erweiterte Garantien an. Sie zahlen sich aber fast nie aus. Verzichten Sie also darauf.

Lesen Sie das Handbuch

So lernen Sie die Features und Funktionen des Geräts oder der Anwendung kennen und der Nutzwert erhöht sich.

Kosten von Verbrauchsmaterial beachten

Sie sollten genau auf die Kosten und die Effizienz von Verbrauchsmaterial achten. Diese können ein Gerät, das bei der Anschaffung sehr günstig war, teuer machen. Das gilt besonders für Tintenstrahldrucker – hier ist die Tinte der Hauptkostentreiber. Bei Laserdruckern sollte Sie wiederum auf die Tonerkosten achten.

Dem Drang widerstehen

Falls Sie unbedingt ein neues technisches Gerät kaufen wollen, recherchieren Sie bereits im Vorfeld die Funktionen und Preise und lassen sich nicht von Verkäufern blenden. Auch sollten Sie immer Ihr Smartphone mit dabei haben, um mit Hilfe einer schnellen Internetrecherche zu prüfen, ob es sich beim genannten Preis um den günstigsten handelt.

Verwenden Sie Tastenkombinationen

Mittels Tastenkombinationen oder Shortcuts arbeiten Sie effektiver. Programme, Dienste und Betriebssysteme bedienen Sie mit dessen Hilfe schneller. Auf PCWelt.de finden Sie zahlreiche Ratgeber, die Tastenkombinationen zu vielen gängigen Anwendungen erläutern.

Stellen Sie Ihren eigenen PC zusammen

In bestimmten Fällen kann es günstiger sein einen eigenen PC zusammenzustellen als ein Fertigsystem zu kaufen. Nur so stellen Sie sicher, dass die Konfiguration genau auf Ihre Bedürfnisse passt..

Halten Sie Ihre Software aktuell

Obwohl Hinweis-Fenster auf eine aktuelle Version nerven können, sollten Sie auf den „Jetzt aktualisieren“-Button klicken. Wichtige Sicherheits-Patches werden so eingespielt und Ihr System wird vor Software-Abstürzen und Datenverlust geschützt.

Verwenden Sie eine ergonomische Tastatur und Maus

Sie wissen nicht genau, wie viel Zeit Sie an Ihrem Schreibtisch verbringen. Stundenlanges Tippen und die Bedienung der Maus können zu gesundheitlichen Schäden wie Krämpfe und dem Karpaltunnelsyndrom führen. Um dies und Schmerzen zu vermeiden, sollten Sie sich eine ergonomische Tastatur und eine entsprechende Maus zulegen.

Sensible Daten sollten Sie verschlüsseln, egal ob Dokumente oder E-Mails. Mit dem PC-Welt Datensafe können Sie unter anderem ein Laufwerk verschlüsseln, auf dem Sie sensible Daten speichern.

Beschriften Sie die Stromkabel

Unterm Schreibtisch und hinter dem Computer sammeln sich eine Menge an Netzteilen an. Schnell geht der Überblick verloren, welches Netzteil zu welchem Gerät gehört. Deshalb sollten Sie die Netzteile entsprechend dauerhaft beschriften.

Kabel ordentlich verlegen

Das Durcheinander von Kabeln und Leitungen unterm Schreibtisch nervt. Hin und wieder verheddern Sie sich im Kabelwirrwarr. Verlegen Sie deshalb die Kabel ordentlich. Dies geht einfach, indem Sie die Kabel mit Kabelbindern zusammenbinden. Es gibt auch die Möglichkeit die Kabel mittels speziellen Schläuchen oder Boxen zu verstecken.

Ethernet statt WLAN verwenden

Ethernet wird immer schneller und arbeitet zuverlässiger als drahtlose Netzwerke. Wenn Sie regelmäßig auf eine konstante Internetverbindung angewiesen sind, sollten Sie Ethernet verwenden. Es ist schneller. Bei WLAN gibt es zudem viele Faktoren, die eine drahtlose Verbindung stören können wie dicke Wände.

Platzieren Sie Ihren WLAN-Router mittig

Den WLAN-Router sollten Sie so mittig wie möglich platzieren. Hierdurch können alle drahtlosen Geräte im Haushalt sich in der Reichweite des Access Point befinden. Das Signal vom Router erreicht zudem eher das Ziel, wenn die Antenne etwas erhöht angebracht wird.

Verwenden Sie Diebstahlsicherungs-Software

Auf Notebooks, Tablet-PCs und Smartphone werden viele wichtige Informationen gespeichert. Diese schützen Sie am besten vor Diebe, indem Sie ein GPS-fähiges Diebstahlsicherungsprogramm verwenden. Wenn Ihr Gerät verloren geht, sperrt die Software das Betriebssystem und zeigt Ihnen via GPS die Position des Geräts an. In einigen Fällen erstellt die Software sogar Fotos vom Dieb.

Aktualisieren Sie Ihre Treiber

Überprüfen Sie, ob Sie die neuesten Treiber für Ihre Grafikkarte und Sound-Hardware installiert haben. Nur mit aktuellen Treibern arbeitet Ihre Hardware optimal und besitzt die volle Leistungsfähigkeit.

Verwenden Sie die Zwei-Wege-Authentifizierung

Zwei-Wege-Authentifizierung bedeutet, dass die Anmeldung bei einem bestimmten Dienst zwei getrennte Formen der Authentifizierung erfordert, beispielsweise ein Passwort und ein Smartphone. Gmail verwendet die Zwei-Wege-Authentifizierung. Der Code wird Ihnen per SMS zugeschickt. Hackern wird es damit deutlich erschwert Ihr Konto zu knacken.

Ändern Sie die Standard-SSID Ihres Routers

Die Sicherheit Ihres drahtlosen Netzwerks verbessern Sie einfach, indem Sie das Login und das Passwort für Ihren Router so ändern, dass nur Sie den Wert kennen. Standard-Benutzernamen und die entsprechenden Kennwörter für fast jeden Router auf dem Markt lassen sich kinderleicht online recherchieren. Standard-Vorgaben Ihres Routers erlauben jedem den Zugriff auf Ihr drahtloses Netzwerk, daher sollten Sie auch die SSID Ihres Routers ändern.

Free Public WiFi ausschalten

Schalten Sie das Free Public WiFi-Netzwerk aus. Es stellt zwar keine unmittelbare Gefahr dar, kann aber zum Ausspionieren und zum Diebstahl von wertvollen Informationen verwendet werden.

Lehnen Sie Cookies ab

Obwohl Cookies an sich ungefährlich sind, können diese lästig sein. Lehnen Sie Cookies ab, wenn Sie vermeiden wollen, dass Informationen zu Ihrem Surfverhalten gesammelt werden. Allerdings verlieren Sie ohne Cookies einiges an Surfkomfort.

Der beste Tipp: Machen Sie eine Pause

Schauen Sie eine Zeit lang auf keinen Bildschirm. Das tut Ihren Augen gut und verringert das Risiko an Burnout zu erkranken. Des Weiteren hilft es Ihnen vielleicht geduldiger mit Problemen umzugehen.

Dieser Artikel basiert auf einem Beitrag unserer Schwesterpublikation PCWorld.com. Übersetzt von Steve Julius Furthmüller.

Cooler Master MK850: Drucksensitive Gaming-Tastatur im Test

Die MK850 ist auf bestimmten Tasten mit der sogenannten Aimpad-Technologie ausgestattet: Ähnlich wie bei einem Controller-Analogstick oder Joystick lassen sich, je nachdem wie stark die Taste gedrückt wird, leichte bis starke Anpassungen, beispielsweise beim Fahren oder Fliegen, vornehmen.

Die Cooler Master MK850 hält eine kleine Innovation bereit: Zwar setzt sie auf bekannte Cherry-MX-RGB-Red-Schalter, doch die Tasten WASD und QWERF sind zusätzlich mit der Aimpad-Technologie ausgestattet. Aber funktioniert das auch in der Praxis?

TEST-FAZIT: Cooler Master MK850

Die Cooler Master MK850 kostet aktuell stolze 180 Euro. Wer es sich also leisten kann, der darf bedenkenlos zugreifen, da die MK850 richtig viel Ausstattung und Leistung fürs Geld bietet. Nur sind die Makro-Tasten auf der linken Seite etwas zu eng an die regulären Tasten platziert. Da kommt man in der Hitze des Gefechts schon gerne mal auf die falsche Taste. Und wer sowieso nichts zockt, wofür eine analoge Eingabe nötig wäre, wie zum Beispiel beim Beschleunigen der Fahrzeuge in Rennsimulationen oder beim Schubgeben von Raumschiffen, der kann sich auch deutlich günstigere Modelle zulegen.

Pro:

+ hochwertige Verarbeitung

+ zwei Präzisionsräder aus Aluminium

+ analoge Eingabe dank Aimpad-Technik

+ bewährte RGB-Schalter von Cherry MX

Contra:

– hoher Preis

Ausstattung und Technik der Cooler Master MK850

Die Cooler Master MK850 macht dank eines Aluminium-Gehäuses einen hochwertigen und robusten Eindruck, der sich in der Praxis auch bestätigt. Bei den Tastenschaltern setzt der Hersteller auf die Cherry MX Red, die mit einer linearen Schaltcharakteristik ohne hörbaren Klick aufwarten. Aufgrund der eher leichtgängigen Betätigungskraft von nur 45 Gramm und einem Vorlaufweg von lediglich zwei Millimetern lösen die Tasten recht flott aus, weshalb sie vor allem bei Gamern sehr beliebt sind.

Cooler Master verbaut außerdem zwei Präzisionsräder aus geriffeltem Aluminium an der Oberseite. Damit lässt sich nicht nur die Lautstärke regeln, sondern auch andere Dinge wie die Beleuchtung, DPI und noch einige andere Sachen, die sich im Treiber einstellen lassen.

USB-Typ-C und praller Lieferumfang

Im Lieferumfang der Cooler Master MK850 enthalten ist auch eine abnehmbare, weich gepolsterte Handgelenkauflage, einige Wechsel-Tastenkappen und ein kleines Werkzeug, um die Keycaps zu entfernen. Außerdem gibt es gleich zwei USB-3.0-Anschlüsse – wenn überhaupt setzen andere Modelle noch auf lahmeres USB 2.0. Das USB-Anschlusskabel nutzt nicht nur den zeitgemäßen USB-Typ-C-Standard, sondern lässt sich auch komplett abnehmen. Im Falle eines Kabeldefekts lässt sich also einfach nur das Kabel anstelle der gesamten Tastatur tauschen. Auch für den Transport ist ein abnehmbares Kabel von Vorteil.

Aimpad-Technik in der Praxis

Die Aimpad-Technik gibt es nur für die Tasten WASD und QWERF. In der Praxis reagieren sie gut auf verschiedene Druckstärken. Am Anfang ist die Technik noch etwas ungewohnt, aber wir haben uns recht schnell dran gewöhnt. Vor allem bei Flug- oder Fahrzeugsteuerungen ist so eine sehr intuitive Steuerung möglich. Im Alltag stört Aimpad übrigens nicht – alle Tasten lösen beim normalen Schreiben wie gewohnt aus.

Festplatten & SSDs: Tipps zum Umgang unter Linux

Festplatten und SSDs erfüllen ihre Aufgaben im Optimalfall still im Hintergrund. Bei Auffälligkeiten prüfen Sie die Konfiguration oder planen den Umzug auf ein neues Laufwerk.

Festplatten, SSDs und auch externe USB-Laufwerke arbeiten unter Linux wie unter allen anderen Betriebssystemen. Besonderheiten sind weder bei einer Linux-Neuinstallation noch im Betrieb zu beachten. Es ist jedoch ratsam zu kontrollieren, ob Linux die Festplatte optimal eingerichtet hat und ob das Laufwerk Fehler aufweist, die zu einem baldigen Ausfall führen können. Der Umzug auf eine SSD oder eine andere Festplatte ist unter Linux ohne großen Aufwand möglich. Dafür benötigt man allerdings ein unabhängiges Zweitsystem, damit sich die Dateien ohne Zugriffskonflikt kopieren lassen.

Bios-Einstellungen prüfen

Die meisten Einstellungen im Bios- beziehungsweise Uefi-Setup wirken sich nicht auf die Leistung des Linux-Systems aus – abgesehen von den Übertaktungsoptionen. Eine Ausnahme ist die Konfiguration des SATA-Adapters. Rufen Sie das Bios/ Firmwaresetup auf und kontrollieren Sie, ob der AHCI-Modus (Advanced Host Controller Interface) für den SATA-Adapter aktiv ist. Alternativ ist auch die Einstellung „RAID“ möglich.

Sie finden die Option meist in Menüs wie „Advanced –› Integrated Peripherals“, „SATA Configuration“ oder „PCH Storage Configuration“. Bei älteren Hauptplatinen gibt es neben „AHCI“ die Option „IDE“. Damit lassen sich Funktionen, die den Datendurchsatz der Festplatten erhöhen, nicht nutzen. Wird nur „IDE“ angeboten, müssen Sie bei diesem PC auf die SATA-Optimierung verzichten.

Auf einer Übersichtseite („System Status“ oder ähnlich) finden Sie meist Informationen, an welchen SATA-Port die Festplatten angeschlossen sind. Auf neueren Hauptplatinen gibt es nur SATA-Ports mit schnellen sechs GBit/s (SATA III) und Sie können jeden Port verwenden. Ältere Modelle sind auch mit langsameren Ports ausgestattet (SATA I, SATA II), an denen die Systemfestplatte besser nicht hängen sollte. Im Handbuch der Hauptplatine können Sie nachlesen, welche Anschlüsse SATA III bieten.

SSDs mit fstrim optimieren

SSDs verwenden gelöschte Speicherbereiche nicht erneut, solange der Dateisystemtreiber den SSD-Controller nicht über die Löschung informiert hat. Das ist nicht optimal, weil sich dadurch der verfügbare Speicherplatz nach und nach reduziert. Unter Linux informiert das Tool fstrim den Controller über unbenutzte Blöcke. Aktuelle Linux-Systeme richten es so ein, dass Trim regelmäßig automatisch startet. Bei Ubuntu 18.04 beispielsweise startet ein Dienst fstrim einmal in der Woche. Mit der Befehlszeile

systemctl status fstrim.timer

können Sie sich davon überzeugen, dass der Dienst läuft. Wer möchte, kann fstrim auch manuell ausführen:

sudo fstrim -v -a

In der Ausgabe sehen Sie, wie viele Bytes freigegeben wurden. Es sollte sich nur um einen geringen Wert handeln, wenn das Tool erst vor kurzer Zeit automatisch ausgeführt wurde.

Geschwindigkeit eines Laufwerks messen

Ob die Festplatte oder SSD ordnungsgemäß arbeitet, erkennen Sie auch an der erreichbaren Datentransferrate. Die Messung führen Sie im Terminal durch. Sollten mehrere Festplatten vorhanden und in das Dateisystem eingehängt sein, wechseln Sie mit cd in ein Verzeichnis, das auf der Festplatte liegt, die Sie prüfen wollen. Verwenden Sie dort diese drei Befehlszeilen:

dd if=/dev/zero of=tempfile bs=1M count=1024 conv=fdatasync,notrunc

echo 3 | sudo tee /proc/sys/vm/drop_ caches

dd if=tempfile of=/dev/null bs=1M count=1024

Die erste Zeile erzeugt eine Datei mit einer Größe von 1,1 GB und gibt die Schreibgeschwindigkeit aus. Danach wird der Cache gelöscht, um dann die Lesegeschwindigkeit zu ermitteln. Durchschnittliche Festplatten (SATA III) lesen und schreiben mit circa 100 MB pro Sekunde. SSDs bringen es auf ungefähr 500 MB/s beim Lesen, während die Transferrate beim Schreiben meistens 50 bis 100 MB/s niedriger liegt. Sollten die Werte bei Ihnen deutlich niedriger ausfallen, hängt das Laufwerk entweder nicht an einem SATA-III-Port oder das SATA-Kabel ist von minderer Qualität oder defekt.

Festplatte prüfen und abschalten

SMART ist die Abkürzung für Self-Monitoring, Analysis and Reporting Technology. Die SMART-Werte geben Auskunft über den Zustand einer Festplatte oder SSD. Starten Sie das Tool gnome-disks, indem Sie bei Ubuntu (Dash-Übersicht) oder bei Linux Mint (Startmenü) nach „Laufwerke“ suchen. Klicken Sie das gewünschte Laufwerk auf der linken Seite des Fensters an und drücken Sie die S-Taste.

Das Fenster gibt Auskunft über die Betriebsstunden sowie Temperatur des Laufwerks. Die Tabelle unter „SMART-Attribute“ zeigt Ihnen die einzelnen Werte an. Hinter „Allgemeine Einschätzung“ sollte „Das Laufwerk ist in Ordnung“ stehen. Wenn nicht, ist es Zeit, an einen Austausch zu denken. Bei SSDs steht hinter „wear-leveling-count“ in der Spalte „Normalisiert“ ein aussagekräftiger Wert. Neue SSDs starten bei „100“ und der Wert reduziert sich mit der Zeit. Sobald er gegen „0“ geht, sollten Sie das Laufwerk ersetzen.

Interne Festplatten lassen sich auch in den Standby-Modus schicken. Das ist aber nur bei Laufwerken mit Benutzerdaten sinnvoll, auf die Sie nicht ständig zugreifen, denn dauerndes Aus- und Einschalten führt zu vorzeitigem Verschleiß. Drücken Sie in gnome- disks nach der Laufwerksauswahl die E-Taste. Auf der Registerkarte „Bereitschaft“ setzen Sie „Einstellungen für Bereitschaft-Wartezeit anwenden“ auf „An“. Darunter stellen Sie die Zeit ein, nach der die Festplatte in Bereitschaft gehen soll. Bei einigen Festplattenmodellen können Sie alternativ die Einstellungen auf der Registerkarte „APM“ (Advanced Power Management) aktivieren und den Regler in Richtung „Energie sparen“ (schnelleres Standby) oder „Leistung verbessern“ schieben.

Bei einigen Festplatten, vor allem bei den „Green“-Modellen von Western Digital, zeigen die Einstellungen unter „Bereitschaft“ keine Wirkung und APM wird nicht unterstützt. In diesem Fall hilft das Tool hd-idle weiter.

Für USB-Festplatten zeigt gnome-disks keine SMART-Werte an und eine Bereitschafts-Wartezeit lässt sich auch nicht konfigurieren. Informationen zum Laufwerk erhalten Sie im Terminalfenster nach der Installation des Pakets „smartmontools“ über den Befehl

smartctl -A -d sat /dev/sd[X]

Den Platzhalter „[X]“ ersetzen Sie durch den Buchstaben des USB-Laufwerks. Den Laufwerkspfad sehen Sie in gnome-disks hinter „Gerät“. Nach welcher Zeit sich das Laufwerk abschaltet, können Sie über hd-idle festlegen.

Temperatur der Laufwerke kontrollieren

Der Luftstrom durch den PC oder das Notebook sollte auch an heißen Tagen für eine ausreichende Wärmeabfuhr sorgen. Es lohnt sich, die Temperatur regelmäßig zu kontrollieren, damit Sie beispielsweise eine Reduzierung der Kühlleistung rechtzeitig bemerken. Für die Temperaturkontrolle installieren Sie unter Ubuntu oder Linux Mint das Paket „psensor“. Nach dem Start sehen Sie die aktuellen, minimalen und maximalen Temperaturwerte. Klicken Sie mit der rechten Maustaste eine Festplatte in der Liste an und wählen Sie im Kontextmenü „Einstellungen“. Auf der Registerkarte „Alarm“ aktivieren Sie die Benachrichtigungen und legen Grenzwerte fest. Welcher Maximalwert gilt, erfahren Sie im Datenblatt der Festplatte oder SSD. Wird der eingestellte Wert überschritten, erhalten Sie eine Nachricht auf dem Desktop.

Ordner in eine Ramdisk verlagern

Die Lebensdauer einer SSD lässt sich erhöhen, indem Sie übermäßige Schreibzugriffe vermeiden. Bei einem Office-PC sind keine Maßnahmen erforderlich, weil das Schreibvolumen in der Regel unterhalb der 20 bis 40 GB pro Tag bleibt, die SSD-Hersteller als Maximum angeben. Auf Server-PCs, die Tag und Nacht laufen, kann das Maximum jedoch überschritten werden. Hier empfiehlt es sich, Verzeichnisse, in denen häufig Dateien gelöscht und neu erstellt werden, in eine Ramdisk oder auf eine Festplatte zu verlagern. Um beispielsweise für das Verzeichnis „/tmp“ eine Ramdisk zu verwenden, führen Sie diese Zeile in einem Terminal aus:

sudo nano /etc/fstab

Fügen Sie am Ende diese Zeile an:

tmpfs /tmp tmpfs defaults,size=15%,mode=1777 0 0

Verlassen Sie den Editor mit Strg-X, der J-Taste und der Eingabetaste. Starten Sie Linux neu. Mit

df -h /tmp

beobachten Sie in regelmäßigen Abständen den Füllstand des Ordners. Sollte der Platz knapp werden, erhöhen Sie den Wert hinter „size=“. Er gibt an, wie viel Prozent des Hauptspeichers die Ramdisk verwenden darf.

Als Alternative bietet sich – wenn vorhanden – eine Festplatte an, auf die Sie Ordner mit vielen Schreibzugriffen auslagern. Hier finden Sie einen Artikel, in dem die nötigen Schritte für das Home-Verzeichnis beschrieben sind. Mit der gleichen Methode lässt sich beispielsweise auch der komplette Ordner „/var“ verlagern.

Linux auf ein anderes Laufwerk umziehen

Bei einem Ubuntu/Mint-Umzug kopieren Sie alle Dateien vom alten auf das neue Laufwerk, passen die Konfiguration an und richten die Bootumgebung neu ein. Das funktioniert jedoch nur, solange sich noch alle Dateien lesen lassen. Handeln Sie daher rechtzeitig, wenn der Datenträger SMART-Fehler meldet (siehe Kasten).

Schritt 1: Räumen Sie Ihre Festplatte auf. Löschen Sie alle unnötigen Dateien und verlagern Sie selten benutzte und besonders große Dateien auf eine externe Festplatte. Ist die Zielfestplatte kleiner als bisher, etwa beim Wechsel auf eine SSD, darf nur so viel Platz belegt sein, wie das neue Laufwerk aufnehmen kann.

Schritt 2: Schließen Sie die neue Festplatte oder SSD per SATA-Kabel oder SATA-USBAdapter an den PC oder das Notebook an.

Schritt 3: Booten Sie ein externes Linux – etwa ein Ubuntu-Live- und Installationssystem oder ein Rettungssystem. Wir gehen hier davon aus, dass Sie die LinuxWelt-Rettungs-DVD verwenden.

Schritt 4: Starten Sie das Tool Gparted und sehen Sie sich die Partitionen der bisherigen Festplatte an. Erstellen Sie auf dem neuen Laufwerk die gleichen Partitionen, je nach verfügbarem Platz jedoch proportional kleiner oder größer.

Schritt 5: Wir gehen in unserem einfachen Beispiel davon aus, dass sich auf dem alten und neuen Laufwerk jetzt jeweils eine Systempartition („sda1“, „sdb1“) und eine Swappartition („sda2“, „sdb2“) befinden. Erstellen Sie die erforderlichen Verzeichnisse und binden Sie die Partitionen ein:

mkdir /mnt/neu /mnt/alt

mount /dev/sda1 /mnt/alt

mount /dev/sdb1 /mnt/neu

Danach kopieren Sie alle Dateien von der alten auf die neue Festplatte:

rsync –stats –progress –numericids -axAhHSP /mnt/alt/ /mnt/neu

Beachten Sie unbedingt die Groß-Klein-Schreibung und den abschließenden Schrägstrich bei „/mnt/alt/“.

Schritt 6: Über das Tool

blkid

ermitteln Sie die IDs aller Partitionen. Öffnen Sie die Datei „fstab“ der neuen Festplatte in einem Editor

nano /mnt/neu/etc/fstab

und ändern Sie die Werte hinter „UUID=“ für die neue Festplatte entsprechend der Ausgabe von blkid.

Schritt 7: Nun brauchen Sie noch den Bootloader Grub auf der neuen Festplatte, „Bootmanager Grub reparieren“ beschrieben. Passen Sie die Pfade für unser Beispiel an („/mnt/neu/ dev“, „/mnt/neu/sys“ und so weiter). Der Zielpfad für grub-install ist die neue Festplatte„/ dev/sdb“.

Schritt 8: Starten Sie den PC neu und stellen Sie die neue Festplatte als Bootlaufwerk ein, entweder über das Bios-Setup oder im Bootmenü des Bios. Prüfen Sie, ob alles korrekt funktioniert. Anschließend bauen Sie die alte Festplatte aus oder formatieren Sie neu, um sie künftig als Datenspeicher zu nutzen.

Tipp: Bei einer komplexeren Aufteilung der Partitionen oder bei mehreren Betriebssystemen auf der Festplatte verwenden Sie das Tool Clonezilla der LinuxWelt Rettungs-DVD , das auch mit Windows-Partitionen umgehen kann.

Informationen zu Clonezilla und Gparted finden Sie dort über das Desktopicon „Anleitungen“.

Daten auf der SSD komplett und sicher löschen

Die Controller-Logik einer SSD steuert alle Schreibvorgänge, um Speicherzellen möglichst gleichmäßig zu nutzen. Ein Nebeneffekt: Herkömmliche Programme können SSDs nicht sicher und komplett löschen. Nur direkte ATA-Befehle erlauben ein zuverlässigen Zurücksetzen jeder einzelnen Speicherzelle. Der Ratgeber zeigt, welche Werkzeuge dafür zur Verfügung stehen und wie ein komplettes Zurücksetzen der SSD funktioniert.

In den üblichen SSDs kommt als Speichermedium Flash-Speicher zum Einsatz, der nur eine begrenzte Anzahl an Schreibvorgängen verkraftet. Denn mit der Zeit verlieren die Zellen die Fähigkeit, Ladung zu speichern. Danach wird die Speicherzelle “vergesslich” und kann keine neuen Daten mehr speichern, bleibt allerdings lesbar. Aktuelle Speicherzellen vom Typ MLC (multi-level cell) vertragen zwischen 3.000 und 5000 Schreibvorgänge und speichern in der Regel zwei Bits pro Zelle. Noch günstiger sind SSDs mit TLC-Speicher (triple-level cell), die drei Bit pro Zelle sichern und für etwa 1000 Schreibzyklen ausgelegt sind.

Hersteller setzen deshalb auf einen Trick, um eine frühen Ausfall von Speicherzellen zu vermeiden:Ein interner Controller verteilt Schreibbefehle gleichmäßig auf alle Speicherzellen der SSD. Jeder Schreibbefehl, den das Betriebssystem an die SSD sendet, wird also von der Firmware optimiert und auf verschiedene Speicherzellen verteilt. Die SSD entscheiden selbst, wohin sie welche Daten schreibt.

Der Nebeneffekt: Ein zuverlässiges Löschen und Überschreiben von Daten ist damit auf herkömmlichen Weg nicht möglich. Auch das mehrfache Überschreiben von Dateien oder gleich der gesamten SSD bietet keine Sicherheit, dass die zuvor gespeicherten Daten tatsächlich komplett weg sind. Einem Forscherteam an der University of California um Michael Wei ist es beispielsweise gelungen, mit einem eigens entwickelten Controllerbaustein vermeintlich gelöschte Daten von SSDs zu lesen ( Bericht ).

Hintergrund: Wie Löschen auf Dateisystem-Ebene funktioniert

Generell entfernt einfaches Löschen auch bei magnetischen Speichermedien die Daten nicht komplett von der Platte. Wenn Sie eine Datei unter Windows, Linux oder einem anderen Betriebssystem löschen, werden dabei die zuvor belegten Sektoren auf Dateisystemebene als frei und beschreibbar markiert. Die Daten selbst bleiben aber physikalisch erhalten, bis eventuell zu einem späteren Zeitpunkt neu hinzugekommenen Dateien die gleichen Sektoren neu beschreiben. Der Grund für diese Vorgehensweise ist naheliegend:

Der Speicherbereich einer Datei ist so ganz schnell wieder als frei markiert und nutzbar, auch wenn diese mehrere Gigabyte groß ist. Ein komplettes physikalischen Überschreiben aller Sektoren wäre dagegen eine kaum akzeptable Systembremse und der Nutzen wäre gering. Denn dem Betriebssystem ist es egal, ob ein Sektor überschrieben ist oder nur als leer markiert ist. Dies machen sich übrigens die üblichen Werkzeuge zur Datenrettung wie Recuva und Photorec zu Nutze. Diese Programme analysieren den freien Bereich einer Festplatte Sektor für Sektor und setzen die gefundenen Daten wieder zu kompletten Dateien zusammen.

Wer auf Nummer sicher gehen will oder muss, verlässt sich deshalb nicht auf die Löschfunktionen des Betriebssystems. Zusatzprogramme helfen dabei, eine Datei nach dem Löschen gezielt zu überschreiben und damit unwiederbringlich zu entfernen. Für Windows eignet sich dazu beispielsweise der Secure Eraser und zum Löschen ganzer Festplatten das bootfähige, Betriebssystem-unabhängige Dban . Es reicht übrigens aus, Daten auf Festplatten nur einmal zu überschreiben. Ein mehrfaches Überschreiben, auch Gutmann-Methode genannt, ist überflüssig. Denn bei der dichten Speicherstruktur von Festplatten ab 15 GB ist auch eine Analyse mit einem Magnetkraft-Mikroskop nicht ausreichend, um danach noch einzelne Bits zu rekonstruieren.

Warum bei SSDs herkömmliche Methoden versagen

Ein Überschreiben ist bei Magnetspeichern also völlig ausreichend, um Daten gründlich zu löschen. Dies gilt aber nicht für SSDs, denn diese verhalten sich bei der Organisation von Daten und freiem Speicherplatz völlig anders als Festplatten. Dies hat mehrere Gründe:

Für interne Aufteilung des Flash-Speicher sorgt ein Flash Translation Layer (FTL), der dem physikalischen Speicher Adressen zuordnet. Ein direkter Zugriff auf eine bestimmte Adresse wie bei einer Festplatte ist damit unmöglich. Außerdem übernimmt die Controller-Logik jeden Schreib- und Löschbefehl, um sowohl für Geschwindigkeit als auch für die gleichmäßige Belegung aller Speicherzellen zu sorgen ( Wear Leveling ).

Gelöschten Speicherplatz gibt der interne Controller einer SSD auch nicht sofort wieder frei. Wenn ein Block bereits teilweise belegt ist, geht es bei Flash-Speicher schneller, zunächst in einen freien Block zu schreiben. Für das Zusammenfassen freier Speicherbereiche zu kompletten, wieder-beschreibbaren Blöcken sorgt später eine interne Aufräumfunktion der SSD ( Garbage Collection ).

Neu geschriebene Daten landen auf einer SSD also nicht dort, wo gerade Speicherplatz frei wurde. Dies betrifft auch die Überschreibmethoden von Löschprogrammen. Die üblichen Lösch-Werkzeuge wie Secure Eraser, Dban und Co. haben keinen direkten Einfluss auf die Belegung des Flash-Speichers. Der Einsatz dieser Programme ist also nicht nur sinnlos – sondern bei mehrfachen Überschreiben auch schädlich, da die SSD unnötig mit Schreibvorgängen strapaziert wird.

Sicheres Löschen: ATA Secure Erase

Eine SSDs präsentiert Datenreste nicht auf dem Silbertablett und Software allein reicht zum Auslesen nicht aus. Stattdessen ist es nötig, den Flash Translation Layer (FTL) zu umgehen und jede Speicherzelle einzeln auszulesen. Möglich ist dies aber alle mal, zumindest unter Laborbedingungen. Die Forschergruppe um Michael Wei an der University of California haben dazu einen Adapter gebaut, um direkt auf die SSD zu schauen.

Um die Datensicherheit auf gelöschten Laufwerken zu gewährleisten, bietet die ATA-Spezifikation ein spezielles Löschkommando: ATA Secure Erase. Dieser Befehl ist bei allen ATA/SATA-Laufwerken ab dem Jahr 2001 enthalten, um den strengen Vorgaben des National Institute of Standards and Technology ( NIST ) zum sicheren Löschen gerecht zu werden. Wichtig ist sicheres Löschen in allen Bereichen, in welchen es auf konsequente Datensicherheit ankommt.

ATA Secure Erase überschreibt dazu wie bei einem Format-Befehl den gesamten Datenträger. Inklusive jener Bereiche für Sector Reallocation reserviert sind und im normalen Betrieb nicht zugänglich sind, da es sich dabei um Ersatz-Sektoren für die interne Fehlerbehebung handelt. Der Befehl ATA Secure Erase ist eine Erweiterung der Firmware und im Befehlssatz des Laufwerks untergebracht. Auf SSDs hat der Befehl den zusätzlichen Nutzen, dass ATA Secure Erase den Datenträger in den Werkszustand zurücksetzt und die SSD damit wieder so schnell macht, wie am ersten Tag.

Es bleibt aber das Problem, an den Befehl heran zu kommen. Denn ein normales Formatierungskommando von Windows oder Linux reicht dazu nicht. Stattdessen ist spezielle Software nötig, um ATA Secure Erase auf einem Laufwerk anzustoßen.

Einige Hersteller liefern zu ihren SSDs passende Dienstprogramme mit aus, entweder auf einer CD im Lieferumfang, oder per Download im Support-Bereich der Webseite. Viele der Dienstprogramme bieten auch ein „Secure Erase“ an, um die SSD zurück zu setzen, beispielsweise die Tool-Pakete Crucial Storage Executive , Intel Solid-State Drive Toolbox und Samsung SSD Magician .

Dieser Weg über diese herstellerspezifischen Windows-Programme ist in jedem Fall der einfachste, da ATA Secure Erase hier einfach über einen entsprechenden Menüpunkt aufgerufen wird. Allerdings gibt es nicht von jedem Hersteller passende Dienstprogramme und auf fremden SSDs lassen sie sich auch nicht ausführen.

ATA Secure Erase mit Parted Magic durchführen

Parted Magic ist ein das bootfähige Live-System auf Linux-Basis, das neben dem bewährten Partitionierer Gparted auch eine Reihe von Festplatten-Tools mitbringt – unter anderem auch den Befehl ATA Secure Erase.

Hinweis: Der Einsatz von Parted Magic eignet sich eher für fortgeschrittene Anwender und erfolgt natürlich auf eigene Gefahr. Sie dürfen mit dem enthaltenen Lösch-Werkzeug für ATA Secure Erase nur auf direkt über SATA angeschlossene Laufwerke zugreifen. Keinesfalls aber auf Datenträger, die per USB und eSATA mit dem Rechner verbunden sind. In diesem Fall scheitert nicht nur ATA Secure Erase – schlimmstenfalls ist das Laufwerk anschließend sogar defekt und nur noch ein teurer Briefbeschwerer.

Um den PC oder das Notebook mit Parted Magic zu booten, brennen Sie die ISO-Datei des Livesystems auf eine CD oder transferieren Sie das Image mit Hilfe von Unetbootin auf einen leeren USB-Stick, um diesen bootfähig zu machen. Im BIOS des PCs muss dazu der Zugriffsmodus für die ATA-Schnittstelle nicht auf „IDE“ oder „Legacy“ umgestellt werden, der Modus „AHCI“ ist beim Einsatz von Parted Magic völlig in Ordnung. Nach dem Start präsentiert Parted Magic einen englischsprachigen Desktop mit einem Windows-ähnlichen Anwendungsmenü. Hier gehen Sie auf „System Tools -> Erase Disk“ und wählen dann die Option „Internal: Secure Erase command writes zeroes to entire data area“, die für ATA Secure Erase verantwortlich ist. Im nächsten Schritt wählen Sie das gewünschte Laufwerk aus, das zurückgesetzt werden soll. Vorsicht bei der Auswahl, denn die Daten auf dem Laufwerk gehen unwiederbringlich verloren. In einigen Fällen sind abhängig von BIOS und SSD noch zwei weitere Schritte nötig:

1.) Wenn Sie eine Meldung darüber informiert, dass sich die SSD im Zustand „frozen“ befindet („Unfortunately, the selcted drive’s security state is set to frozen“), dann klicken Sie zunächst auf die Schaltfläche „Sleep“, um den PC oder das Notebook in den Ruhezustand zu versetzen. Nach dem Aufwecken des Rechners starten Sie das Tool über „System Tools -> Erase Disk“ erneut.

2.) Viele SSDs erlauben es, ATA Secure Erase mit einem Passwort zu schützen, damit sich der Befehl nur noch nach der Eingabe des richtigen Passworts aufhalten lässt. Sollte Sie Parted Magic nach einem (optionalen) Passwort dazu fragen, können Sie einfach den eingetragenen Wert „NULL“ mit einem Klick auf „OK“ übernehmen.

Anschließend ist nur noch eine allgemeine Bestätigung für den Löschbefehl mit „OK“ nötig. Im Hintergrund startet Parted Magic nun das Kommandozeilentool „hdparm“, um auf dem ausgewählten Laufwerk ATA Secure Erase in Gang zu setzen. Der Vorgang dauert auf SSDs nur wenige Sekunden und ein Hinweisfenster informiert Sie, wenn der Befehl abgeschlossen ist. Wenn alles geklappt hat, ist die SSD nun komplett zurück gesetzt und enthält keinerlei Datenreste mehr. Da der SSD-Controller nun wieder mit einem leeren Flash-Speicher arbeiten kann, kann sich das Zurücksetzen bei einigen SSDs auch vorteilhaft auf die Schreibgeschwindigkeit auswirken.

Probleme beim Zurücksetzen von SSDs

Bei einigen Hauptplatinen gibt das BIOS die SSD für ATA Secure Erase nicht frei. Das Laufwerk verbleibt im Status „Frozen“ und auch der aktivierte Ruhezustand ändert daran nichts. In diesem Fall ist das Zurücksetzen der SSD kein Spaziergang: Es empfiehlt sich, die SSD stattdessen in einem anderen Rechner mit einem anderen BIOS einzubauen, und dort alle Schritte nochmal auszuführen.

Sollte das auch nicht helfen, bleibt nur ein riskanter Trick: Starten Sie den PC mit offenem Gehäuse und abgesteckter SSD, wobei das Stromkabel aber unbedingt am Laufwerk bleiben muss. Im BIOS des Rechners muss der Zugriffsmodus („ATA/IDE Mode“) auf „AHCI“ gesetzt sein. Starten Sie dann den Rechner und erst wenn Parted Magic läuft, schließen Sie die SSD an den SATA-Port an. Gehen Sie in Parted Magic wieder auf „System Tools -> Erase Disk“.

Das SSD-Laufwerk sollte nun nicht mehr im Status „frozen“ festgefroren sein. Das nachträgliche Anstecken funktioniert nur dann, wenn das BIOS Hot-Plugging unterstützt. Diese abenteuerliche Methode eignet sich deshalb für experimentierfreudige Anwender und ist sicher, wenn nur das SATA-Controllerkabel nachträglich angesteckt wird, nicht aber das Stromkabel.

Hinweis: Es kommt zwar selten vor, aber das nachträgliche Anschließen der Stromversorgung an die SSD kann das Laufwerk beschädigen.

Festplatte und SSD korrekt einrichten

Der Einbau und die Inbetriebnahme einer neuen Festplatte oder SSD ist unter Windows schnell erledigt, wenn man weiß wie.

Es braucht kein handwerkliches Geschick, um Festplatten oder SSDs in Desktop-PCs oder Notebooks einzubauen. Achten Sie unbedingt auf den Formfaktor und die Gehäusegröße. In älteren Desktop-PCs stecken normalerweise 3,5-Zoll-Festplatten mit einem circa 10 cm breiten Gehäuse und 2,5-Zoll-SSDs messen in der Breite etwa 6,8 cm, in Notebooks finden sich HDDs und SSD im 2,5-Zoll-Format. Der gängige Anschluss ist SATA. Bei neueren Rechnern können auch schon SSDs im Steckkartenformat M.2 oder als PCI-Express-Karte verbaut sein, entweder über SATA oder PCI-Express mit dem Hauptplatine verbunden.

Das Vorgehen beim Einbau ist einfach: PC-Gehäuse öffnen, Festplatte oder SSD in einen dafür vorgesehenen Laufwerksschacht oder Steckplatz einsetzen und festschrauben, bei SATA-Geräten das Strom- sowie SATA-Anschusskabel anbringen und das Gehäuse wieder schließen. Die neue Festplatte beziehungsweise SSD wird vom PC-Bios automatisch erkannt, weitere Einstellungen sind nicht notwendig – es sein denn, Sie möchten die zusätzliche Festplatte als Boot-Laufwerk nutzen und Windows darauf installieren. Ändern Sie dazu die entsprechenden Einstellungen im Bios, weitere Hilfestellung gibt das Handbuch zum Mainboard des PCs.

1. Windows 10 auf eine neue Festplatte installieren

Bei der benutzerdefinierten Windows-Installation klicken Sie auf der Seite „Wo möchten Sie Windows installieren?“ auf die gewünschte Partition („Nicht zugewiesener Speicherplatz“) und folgen Sie anschließend den weiteren Anweisungen. Möchten Sie die Festplatte nicht vollständig für eine Partition nutzen, dann klicken Sie auf „Neu“ und richten mehrere Partitionen in den gewünschten Größen ein. Schließen Sie die Installation von Windows 10 ab.

Zusätzliche Festplatte: Haben Sie eine weitere HDD oder SSD eingebaut, wird Sie von Windows zwar erkannt, betriebsbereit ist sie aber noch nicht. Das Hauptwerkzeug für die meisten Festplattenoperationen ist die Datenträgerverwaltung. Tippen Sie in die EIngabeaufforderung von Windows 10 „diskmgmt.msc“ ein, und bestätigen Sie mit der Eingabetaste, um die „Datenträgerverwaltung“ zu starten. Im oberen Teil der Bedienoberfläche erkennen Sie bereits vorhandene Festplattenpartitionen mit den zugewiesenen Laufwerksbuchstaben in Klammern. Die wichtigsten Informationen sind das Dateisystem, die Gesamtkapazität und der freie Speicher. Der untere Teil informiert Sie über die physisch vorhandenen Laufwerksgeräte. Die Datenträgerverwaltung von Windows ist so aufgebaut, dass ein Rechtsklick auf eine Partition oder auf einen nicht zugeordneten Bereich ein Kontextmenü aufruft. Je nachdem erscheinen andere Befehle darin.

Neue Partition einrichten: Per Rechtsklick auf den nicht zugeordneten Bereich in der Datenträgerverwaltung wählen Sie „Neues einfaches Volume“ und klicken auf „Weiter“. Windows schlägt die maximal mögliche Größe vor. Übernehmen Sie sie, falls die Platte nicht weiter unterteilt werden soll. Klicken Sie auf „Weiter“, wählen Sie einen Laufwerksbuchstaben und danach „NTFS“ als Dateisystem aus. Geben Sie auch eine Volumebezeichnung ein. Bestätigen Sie die Eingaben und schließen Sie die Datenträgerverwaltung.

2. Storage Spaces unter Windows 10 verwenden

Die Funktion „Speicherplätze“ für Home-Desktops ist eine praktisch Möglichkeit, die Sie unter Windows 10 haben, um beliebig viele physische Festplatten auch unterschiedlicher Größe unter einem virtuellen Laufwerk zusammenzufassen.

Speicherplatz erstellen: Wechseln Sie zur Taskleiste, geben Sie im Suchfeld Speicherplätze ein und wählen Sie dann in der Liste mit den Suchergebnissen Speicherplätze aus. Wählen Sie „Neuen Pool“ und „Speicherplatz erstellen“ aus. Wählen Sie die Laufwerke aus, die Sie dem neuen Speicherplatz hinzufügen möchten, und wählen Sie dann „Pool erstellen“ aus.

Beim Initialisieren eines neuen Pools erhalten die Datenträger eine spezielle Formatierung – dabei gehen alle bisherigen Daten verloren. Sie sollten also Daten von der Festplatte unbedingt auf eine andere Festplatte sichern, auf DVD brennen oder auf einen Cloud-Speicher auslagern.

Nach der Formatierung der Festplatten geht es an die Eigenschaften des „Speicherplatzes“: Name und Laufwerksbuchstabe sind frei wählbar. Wichtig ist die Entscheidung über die Fehlertoleranz. Bei unserem Beispiel mit zwei Festplatten ist die Option „Zwei-Wege-Spiegelung“ voreingestellt. Beim Ausfall einer Platte ist jede Datei auf dem zweiten Datenträger verfügbar. Möchten Sie keine Redundanz, sondern ein Datenarchiv um weitere Kapazität erweitern, dann ist die Einstellung „Einfach“ Ihre Wahl.

3. Besonderheiten bei Raid-Konfigurationen beachten

Mittlerweile ist es weit verbreitet, anstatt einer Festplatte mehrere HDDs oder SSDs zu einem logischen Laufwerk zusammenzuschließen. Dieser Verbund ist ein sogenannter Raid (Redundant Array of Independent Disks) und bringt nicht nur Geschwindigkeitsvorteile mit sich, sondern auch eine gesteigerte Datensicherheit, weil ein Raid die Inhalte der Festplatten spiegelt.

Besonderheiten bei SSDs: SSDs basieren auf elektrischen Zellen und verfügen daher nicht über mechanische Schreib- und Leseköpfe, die Daten von Magnetplatten holen. Dadurch ergibt sich eine geringere Zugriffszeit als bei herkömmlichen HDDs. Der schnellere Zugriff verliert aber an Geschwindigkeit, wenn Sie die SSD in einen Raid-Verbund bündeln. Zusätzlich sind SSDs auf eine spezielle Organisation der Daten mittels sogenannter Trim-Befehle angewiesen, die es im Raid nicht gibt.

SSDs im Raid-Verbund: In einem Raid kann das System Daten nur auslesen, wenn Schreib- und Lesezugriffe auf allen Datenträgern im Verbund gleichzeitig erfolgen. Dabei richtet sich die Wartezeit beim Zugriff immer nach der langsamsten Platte – der Geschwindigkeitsvorteil der SSDs kann daher unter Umständen verlorengehen. Außerdem profitieren SSDs im Raid nicht mehr von den bereits erwähnten Trim-Befehlen: Das Betriebssystem kann dem Laufwerk nicht mehr mitteilen, welche Blöcke im Flash-Speicher belegt sind und von der SSD nicht weiter bereitgehalten werden müssen. Auf diese Weise verringert sich die allgemeine Arbeitsgeschwindigkeit und Lebensdauer der eigentlich flotten SSD, weshalb wir auch von einem Raid im Privatbereich dringend abraten.

WLAN-Probleme? So lösen Sie typische Ärgernisse

WLAN ist ein Rundum-sorglos-Zugang zum Internet. Allerdings können die Konfigurationshürden höher sein als bei anderen Netzwerktechniken. Das tun Sie bei langsamen Verbindungen und nicht erreichbaren Netzen.

In der Werbung sieht das immer so schön aus: Menschen, die mit ihrem Notebook ka-bellos im Garten arbeiten oder mit dem Smartphone auf dem Sofa durch Facebook scrollen. Möglich wird diese neue Bequemlichkeit durch ein WLAN, mit dem man überall Netzzugang hat, ohne sich um lästige Dinge wie etwa Log-ins, Kabelanschlüsse oder gar Konfigurationen Gedanken machen zu müssen.

Tatsächlich kann WLAN so einfach sein. In der Praxis stellt man dann allerdings schnell fest, dass die Geschwindigkeit starken Schwankungen unterworfen ist, Seiten bisweilen nur quälend langsam geladen werden und teilweise überhaupt keine Verbindung zustande kommen will. Einige dieser Probleme sind bedingt durch die Technik und grundsätzlicher Natur. Sie können also höchstens versuchen, ihnen auszuweichen, eine echte Lösung hingegen gibt es dafür nicht. Bei anderen Schwierigkeiten wiederum ist es durchaus möglich, mit Tricks und Tools Abhilfe zu schaffen.

WLAN ist nicht sichtbar

Sie wollen gerne von einem kabelgebundenen Netzwerk auf WLAN umsteigen oder ein neues Notebook ins Netz bringen, doch das WLAN wird nicht angezeigt? Hierfür kommen gleich mehrere Ursachen infrage. Ganz banal muss das Funknetz natürlich eingeschaltet sein, damit Sie darauf zugreifen können. Die Fritzbox, aber auch andere Router, bieten Ihnen an, die WLAN-Funktionalität zu deaktivieren, um den Stromverbrauch zu senken. Überprüfen Sie im ersten Schritt diese Einstellung, bei der Fritzbox unter „WLAN -> Funknetz“.

Zweite Möglichkeit: Die SSID ist versteckt. Mit der SSID (Service Set Identifier) ist der Name des WLANs gemeint. Nahezu jeder Router beziehungsweise Access Point bietet an, diesen Namen zu verbergen, damit lediglich Eingeweihte wissen, dass überhaupt ein Funknetz aktiv ist, und Sie sich damit verbinden können. Hacker können über diese Sicherheitsfunktion nur lachen, während sie normalen Anwendern das Leben schwer macht. Lassen Sie Ihren Router also ruhig die SSID aussenden. In der Fritzbox heißt diese Einstellung „Name des WLAN-Funknetzes sichtbar“, sie befindet sich unter „WLAN -> Funknetz“.

Falls Sie die SSID nicht sichtbar machen wollen, müssen Sie in den Netzwerkeinstellungen Ihres Geräts die genaue Bezeichnung angeben. Unter Windows rufen Sie das Netzwerk-und Freigabecenter auf und gehen im Anschluss daran auf „Neue Verbindung oder neues Netzwerk einrichten -> Manuell mit einem Drahtlosnetzwerk verbinden“.

Dritte Möglichkeit: Das Netzwerkgerät unterstützt den Frequenzbereich des WLANs nicht. Funknetze arbeiten auf zwei Frequenzbändern, im 2,4-wie auch im 5-GHz-Band. Das 2,4-GHz-Band wird von praktisch allen Routern und Netzwerkgeräten unterstützt, deshalb ist es in vielen Umgebungen stark überlastet. Insbesondere in Großstädten und Mehrfamilienhäusern konkurrieren oft mehrere Netzwerke um die zugehörigen Kanäle. Im 5-GHz-Band ist dagegen meist noch viel Platz, allerdings wird es von zahlreichen Geräten nicht unterstützt. Besonders Unterhaltungselektronik wie etwa Smart-TVs, jedoch auch viele Notebooks und ältere USB-WLAN-Adapter können mit diesen Frequenzen nichts anfangen und zeigen auch die Funknetze in diesem Band nicht an.

Sofern Ihr Router das zulässt, empfiehlt es sich, das WLAN immer auf beiden Frequenzbändern zu aktivieren. Falls Sie sich entscheiden müssen, wählen Sie das 2,4-GHz-Band, weil diese Technik weiter verbreitet ist. Auf jeden Fall sollten Sie diese Einstellung bei Ihrem Router/Access Point überprüfen.

Vierte Möglichkeit: Der eingestellte Kanal wird nicht unterstützt. Im 2,4-GHz-Band sind 14 Kanäle definiert, auf denen Ihr WLAN arbeiten kann. Kanal 14 wird allerdings nur in Japan verwendet, die allermeisten Router, wie zum Beispiel die Fritzbox, bieten ihn gar nicht an. Die Kanäle 12 und 13 dürfen lediglich in Europa sowie Japan verwendet werden, aber beispielsweise nicht in den USA. WLAN-Hardware von US-amerikanischen Herstellern unterstützt diese Kanäle häufig nicht, das betrifft etwa die USB-Adapter von Netgear. Für den Fall, dass Sie Ihren Router auf Kanal 12, 13 oder 14 eingestellt haben, ist das WLAN für diese Geräte weder erreichbar noch sichtbar. Abhilfe: Stellen Sie einen WLAN-Kanal zwischen 1 und 11 ein. Damit die Fritzbox diese Kanäle nicht automatisch konfiguriert, sollten Sie unter „WLAN -> Funkkanal -> Weitere Einstellungen“ die Option „WLAN-Autokanal inklusive Kanal 12/13 (2,4-GHz-Frequenzband)“ deaktivieren.

Aber auch im 5-GHz-Band gibt es Einschränkungen bei den Kanälen. Dort beherrschen ältere Adapter oft nur Verbindungen über die Kanäle 36 bis 48, die Fritzbox 7490 dagegen kann auch die Kanäle 52 bis 128 verwenden. Diese Kanäle werden allerdings nur von dem neueren WLAN-Standard 802.11ac genutzt. Falls eines oder mehrere Ihrer WLAN-Geräte diese Kanäle nicht unterstützen, stellen Sie den Kanal im Router entsprechend um.

Keine Verbindung zum WLAN

Falls das WLAN zwar in der Übersicht von Windows und anderen netzwerkfähigen Geräten auftaucht, Sie aber keine Verbindung zustande bringen, kann auch das unterschiedliche Gründe haben. Am häufigsten dürften Fehleingaben beim Kennwort sein. WLAN-Passwörter sollten mindestens zwölf Zeichen lang sein. Deshalb ist es nicht ungewöhnlich, wenn Sie sich mal vertippen und Groß-und Kleinschreibung verwechseln. Aber selbst dann kann es zu Verbindungsproblemen kommen. Grund ist die Zeichenkodierung einiger Betriebssysteme, die von der im Router abweichen kann. Sie sollten daher im WLAN-Passwort nur Groß-und Kleinbuchstaben und Ziffern verwenden, allerdings keine Umlaute wie ä, ö und ü und auch keine Sonderzeichen. Überprüfen Sie das WLAN-Passwort und ändern Sie es gegebenenfalls.

Eine weitere Fehlerquelle ist die Verschlüsselungsmethode. Ein WLAN, auch wenn es privat ist und Sie nichts dagegen haben, dass es auch von anderen Personen verwendet wird, sollte immer verschlüsselt sein und durch ein Passwort geschützt werden. Router bieten normalerweise die Methoden WEP, WPA sowie WPA2 an. WEP ist schon seit Jahren gehackt und sollte nicht mehr genutzt werden. Falls Ihre WLAN-Hardware keine andere Verschlüsselungsmethode unterstützt, sollten Sie diese entsorgen und sich ein neueres Gerät kaufen. WPA sowie WPA2 wurden bislang nicht geknackt, empfohlen wird die Verwendung von WPA2. „WPA + WPA2“ ist zwar ebenfalls sicher und wird von mehr Geräten unterstützt, aufgrund des eingesetzten Verschlüsselungsalgorithmus ist es jedoch in der Geschwindigkeit begrenzt.

Zu Problemen kommt es oft bei Geräten, welche die Verschlüsselungsmethode eines WLAN nicht selbstständig erkennen. Achten Sie bitte darauf, dass Sie bei allen Netzwerkgeräten den gleichen Verschlüsselungsstandard einstellen wie beim Router. Das „WPA2 (CCMP)“ der Fritzbox entspricht dabei WPA2 mit dem Verschlüsselungsalgorithmus AES, „WPA + WPA2“ arbeitet hingegen mit TKIP.

Auch geänderte WLAN-Einstellungen bereiten oft Kopfzerbrechen. Wenn Sie das Passwort im Router geändert haben, müssen Sie es natürlich auch auf den angeschlossenen Clients bearbeiten. Windows 10 erklärt allerdings nur, dass es die Netzwerkanforderungen prüfe, um danach mit einem lapidaren „Keine Verbindung mit diesem Netzwerk möglich“ den Vorgang zu beenden. Nachfolgend haben Sie nur die Möglichkeit, diesen Dialog zu schließen. Und der Link zu Ihrem WLAN im Netzwerk-und Freigabecenter ist auch verschwunden.

Um nun wieder ins Netz zu kommen, müssen Sie zunächst den in Windows gespeicherten, falschen Schlüssel löschen. Hierzu benötigen Sie die Einstellungen im Startmenü. Gehen Sie dort auf „Netzwerk und Internet“, stellen Sie sicher, dass auf der linken Seite „WLAN“ markiert ist, und klicken Sie als Nächstes auf den Link „Bekannte Netzwerke verwalten“. Markieren Sie das WLAN mit dem falschen Kennwort und klicken Sie dann auf „Nicht speichern“. Das Funknetz wird nunmehr aus der Liste gelöscht. Rufen Sie mit einem Klick auf das WLAN-Symbol rechts unten im Systray wiederum die Liste der Netzwerke auf, markieren Sie daraufhin das gewünschte Funknetz und klicken Sie auf „Verbinden“. Jetzt endlich erscheint eine Eingabezeile für den neuen WLAN-Schlüssel.

Teilweise erscheint beim Netzwerk-Icon im Systray auch ein kleines Ausrufezeichen. Wenn Sie mit der Maus darüberstreichen, erscheint die Meldung „Internetzugang begrenzt“, was bedeutet, dass keine Verbindung mit dem Internet zustande kommt.

Häufig ist der Treiber für den WLAN-Adapter die Ursache. Probieren Sie also zunächst Folgendes: Öffnen Sie über die Systemsteuerung den Geräte-Manager oder drücken Sie die Tastenkombination Windows-X und gehen Sie auf „Geräte-Manager“. Klicken Sie auf den vorangestellten Pfeil vor „Netzwerkadapter“ und anschließend mit der rechten Maustaste auf den Eintrag des WLAN-Adapters. Wählen Sie „Treibersoftware aktualisieren“ sowie im nächsten Fenster „Auf dem Computer nach Treibersoftware suchen“. Weiter geht es mit „Aus einer Liste mit Gerätetreibern auf dem Computer auswählen“. Im folgenden Fenster wählen Sie die aktuellste Softwareversion aus und klicken auf „Weiter“. Eventuell müssen Sie aber auch die Option „Kompatible Hardware anzeigen“ deaktivieren und die Hardware manuell auswählen. Lassen Sie Windows den Treiber installieren und starten Sie den Computer neu.

In manchen Fällen kommt dem WLAN-Adapter aber auch die Energieverwaltung von Windows in die Quere. Falls die Aktualisierung des Treibers nicht geholfen hat, rufen Sie wieder den Geräte-Manager auf, öffnen dann nach einem Rechtsklick auf den Eintrag des WLAN-Adapters seine „Eigenschaften“ und wechseln zum Register „Energieverwaltung“. Deaktivieren Sie dort nun die Option „Computer kann das Gerät ausschalten, um Energie zu sparen“ und bestätigen Sie noch mit „OK“.

WLAN ist langsam

Das dürfte der häufigste Anlass zu Klagen über ein WLAN sein: Das Netzwerk ist zwar stabil, die Daten scheinen jedoch nur Bit für Bit übertragen zu werden. In den allermeisten Fällen liegt das an einigen Beschränkungen der Technik. Manchmal besteht jedoch die Möglichkeit, den Durchsatz durch Konfigurationsänderungen auch zu erhöhen.

Die maximal erreichbare Geschwindigkeit eines Funknetzes hängt von mehreren Faktoren ab, wie zum Beispiel vom verwendeten Standard (802.11b, g, n oder ac), der Sendeleistung des Access Points, der Anzahl sowie der Empfangseigenschaften der Clients, Ausrichtung, Abstand und Art der Antennen, baulichen Gegebenheiten der Umgebung und nicht zuletzt von der Entfernung zwischen Router und angeschlossenem Gerät. Je weiter entfernt ein Client vom Access Point aufgestellt ist, desto geringer ist der Datendurchsatz. Dann sinkt die Datenrate schon nach wenigen Metern drastisch ab, nach zehn bis 15 Metern ist meistens bereits kein vernünftiges Arbeiten mehr möglich.

Das können Sie tun: Da die Clients sich die verfügbare Bandbreite eines WLANs teilen, wird das Netz umso langsamer, je mehr WLAN-Geräte aktiv sind. Sie sollten daher zumindest die Geräte in direkter Nähe Ihres Routers lieber per Ethernet-Kabel in das Netzwerk einbinden, um das WLAN nicht zu stark zu belasten.

Den besten Empfang haben Sie jedoch, wenn zwischen Access Point und Client eine Sichtverbindung besteht. Jede Wand, jede Tür, aber auch Möbelstücke bremsen die Übertragungen aus. Falls Sie in mehreren Zimmern einen Internetanschluss bereitstellen wollen, ist es oft besser, auf PowerLAN-Technik umzusteigen. Geht es darum, mehr als fünfzehn Meter Abstand zwischen WLAN-Gerät und Router zu überbrücken, können Sie sich auch mit einem WLAN-Repeater behelfen. Diese Geräte nehmen das Signal eines WLANs auf, verstärken es und bauen ein eigenes Funknetzwerk auf. Da sie allerdings sowohl zum Access Point als auch in Richtung der Clients Daten übertragen müssen, bieten sie von vornherein lediglich die Hälfte der maximal erreichbaren WLAN-Geschwindigkeit an. In der Praxis hat sich gezeigt, dass Verbindungen über einen Repeater oft recht wacklig sind, da sowohl die Strecke zum Router als auch die zu den Clients Störeinflüssen ausgesetzt sein kann. Einige Modelle bieten einen oder mehrere Ethernet-Anschlüsse an, über die Sie sie per Kabel mit dem Router verbinden können. Der Repeater arbeitet in diesem Fall als LAN-Brücke, was die Datendurchsatzrate etwas stabiler macht.

Die Sache mit den Kanälen

Genau wie der CB-Funk arbeitet auch ein WLAN mit mehreren Kanälen. Der Access Point gibt vor, welcher Kanal verwendet wird, der WLAN-Client passt sich automatisch an. Weil die Zahl der Kanäle stark begrenzt ist (siehe dazu oben), Funknetzwerke aber immer beliebter werden, müssen sich insbesondere in den Großstädten mehrere WLANs die Kanäle teilen. Verschärft wird diese Situation zudem dadurch, dass ein Kanal im 2,4-GHz-Band lediglich 5 MHz breit ist, ein WLAN jedoch mit mindestens 20 MHz arbeitet. Das bedeutet, dass ein Funknetz immer mehrere Kanäle belegt. Gänzlich störungsfrei können im 2,4-GHz-Band deshalb nur drei Funknetze nebeneinander arbeiten, dazu müssen sie auf die Kanäle 1, 6 und 11 eingestellt sein. Der Standard 802.11n hingegen arbeitet bereits mit 40 MHz Bandbreite, damit lassen sich im 2,4-GHz-Band nur zwei Netzwerke auf den Kanälen 3 und 11 störungsfrei betreiben. 802.11n kann allerdings auch das 5-GHz-Band nutzen, wo von vornherein nicht nur 14, sondern 19 Kanäle definiert sind, die darüber hinaus alle eine Bandbreite von 40 MHz aufweisen. Um in dieses Band ausweichen zu können, müssen Sie aber sicherstellen, dass Ihre Geräte diesen Frequenzbereich unterstützen. Router wie etwa die Fritzbox bieten immerhin an, parallel im 2,4-sowie im 5-GHz-Band zu arbeiten, sodass sich zumindest für einige Clients eine schnellere Alternative findet.

Denn das ist die Konsequenz, wenn mehrere Funknetze auf denselben Kanal eingestellt sind: Da sie sich die Bandbreite teilen müssen, geht die Geschwindigkeit bei jedem von ihnen zurück. Das gilt aber lediglich dann, wenn auch Daten übertragen werden. In der Praxis ist der Effekt jedoch durchaus spürbar. Überprüfen Sie also, ob in Ihrer Umgebung weitere WLANs aktiv sind, und auf welchen Kanälen diese arbeiten. Die Fritzbox bietet Ihnen unter „WLAN > Funkkanal“ eine Übersicht. Falls Ihr Router keine solche Funktion enthalten sollte, können Sie zu einem kostenlosen Tool wie Homedale greifen. Rufen Sie dort das Register „Frequenznutzung“ auf. Für die mobile Nutzung auf Android-Devices bietet sich die App Wifi Analyzer an.

Die Fritzbox erledigt die Einstellung des Funkkanals auf Wunsch selbsttätig. Hierzu wählen Sie dann einfach unter „WLAN -> Funkkanal“ bei beiden Frequenzbändern die Option „Autokanal“, scrollen daraufhin ganz nach unten und klicken als Nächstes auf „Autokanal aktualisieren“. Schließen Sie den Vorgang mit einem Klick auf „Übernehmen“ ab.

Antennen optimieren

Ein häufig übersehener Faktor bei der Optimierung eines WLANs sind die Antennen. Die meisten Router besitzen externe Stabantennen, die sich in verschiedene Richtungen drehen lassen. Diese Modelle strahlen ihr Signal im rechten Winkel ab. Den idealen Empfang mit dem Client bekommen Sie, wenn dessen Antenne genauso ausgerichtet ist wie die des Access Points, also im Normalfall senkrecht. Da die Signale allerdings durch Wände und andere Flächen abgelenkt werden, kann es zu Abweichungen von dieser Regel kommen. Da hilft nur Ausprobieren, wie der Empfang am besten ist. Messen lässt sich das mit einer Software wie Homedale oder Wifi Analyzer für Android.

Die WLAN-Standards 802.11b und g verwenden immer nur eine Antenne. Trotzdem bringen entsprechende Router oft zwei mit und nutzen dann immer diejenige, die eine höhere Verbindungsstärke bietet. Sie sollten diese Antennen daher in unterschiedliche Richtungen drehen.

802.11n kann bis zu drei Antennen parallel verwenden, jede davon überträgt maximal 150 MBit/s. Um jedoch auf die maximale, theoretische Geschwindigkeit von 450 MBit/s zu kommen, muss auch das WLAN-Gerät mit drei Antennen ausgestattet sein. Smartphones oder USB-Adapter verfügen wegen ihres Formfaktors normalerweise aber lediglich über eine Antenne, das heißt, sie können also bestenfalls auf 150 MBit/s kommen.

Die neueren Modelle der Fritzbox arbeiten mit internen Antennen, die das WLAN-Signal annähernd kugelförmig abstrahlen. Je nach Aufstellort geht dabei viel Sendeleistung verloren. Wenn der Router in einer Ecke platziert ist, können Sie versuchen, das Signal mithilfe von Metallfolien oder Blechen in die gewünschte Richtung zu lenken. Alternativ dazu gibt es zu Preisen zwischen 20 und 35 Euro von der Firma Frixtender Bausätze mit externen Stabantennen für die verschiedenen Fritzbox-Modelle, die die Signalstärke deutlich erhöhen.

Android-Daten simpel mit dem PC synchronisieren

Ihr stationärer PC und das mobile Smartphone teilen sich viele Aufgaben. Da gilt es, einen reibungslosen Datenaustausch zwischen den Geräten sicherzustellen.

1. Der Dreh- und Angelpunkt beim Datenabgleich zwischen dem Windows-PC und einem Smartphone mit Android-Betriebssystem ist Ihr Google-Konto. Kontakte, Termine, Notizen und Lesezeichen lassen sich darüber auf allen Geräten synchron halten – vorausgesetzt, Sie speichern die entsprechenden Daten auch in Ihrem Konto auf den Servern von Google. In Android ist die Synchronisierung mit dem Onlinekonto bei Google fester Bestandteil und läuft automatisch ab. Unter Windows haben Sie die Möglichkeit, im Browser auf Ihr Google-Konto mit dem Adressbuch, dem Kalender und den Notizen zuzugreifen. Falls Sie andere Programme zur Adress-, Termin- und Notizverwaltung verwenden, müssen Sie darauf achten, dass in den Programmeinstellungen die Synchronisierung mit Ihrem Konto bei Google aktiviert ist.

2. Setzen Sie unter Windows Outlook ein, um Kontakte und Termine zu organisieren, ist der Datenabgleich nicht ganz so einfach. Outlook enthält keine Synchronisierungsfunktion für Google-Konten. Dafür brauchen Sie ein Tool, das alle Daten in Ihrem Google-Konto sowie in Outlook auf dem gleichen Stand hält. Empfehlenswert ist Gsyncit . Es richtet sich als Add-on für Outlook ein. Der Zwei-Wege-Abgleich berücksichtigt Kontakte, Kalender, Aufgaben und Notizen. Das Synchronisieren eines Kalenders ist mit der Testversion kostenlos möglich. Wollen Sie mehrere Kalender übertragen oder mehr als 50 Kontakte, Aufgaben und Notizen abgleichen, benötigen Sie die 20 US-Dollar teure Vollversion.

3. Auch das kostenfreie Outlook CalDAV Synchronizer erlaubt es, Kontakte, Termine und Aufgaben in Outlook mit den Google-Servern abzugleichen. Sie können nach der Installation auswählen, ob alle Daten zwischen Outlook und Ihrem Google-Konto hin und her synchronisiert (Zwei-Wege-Abgleich) oder nur Einträge aus dem Konto bei Google zu Outlook beziehungsweise von Outlook zum Google-Konto übertragen werden sollen. Wie Gsyncit arbeitet Outlook CalDAV Synchronizer als Add-on für Outlook und wird über ein zusätzliches Menüband gesteuert.

Terminal-Tuning: Linux-Tricks für mehr Komfort

Die Bash-Kommandozeile ist extrem anpassungsfähig. So lassen sich Aussehen, Infos, Bedienung und Funktionen perfekt maßschneidern. Wir zeigen, wie’s geht.

Unter Linux kommen Sie ohne Kommandozeile noch weniger aus als unter Windows oder Mac-OS. Daher lohnt es sich auf alle Fälle, gewisse Defizite der Standardkonfiguration zu beseitigen und sich die Bash- Shell individuell einzurichten. Dann geht alles, was Sie dort brauchen, einfacher, schneller – und schicker. Dieser Artikel befasst sich mit Grundlagen- Tuning, nicht mit Shell-Scripting, landet dabei aber schnell bei komplexeren Anpassungen.

Gezieltere History-Bearbeitung

Einige Distributionen haben es voreingestellt, andere aus unerfindlichen Gründen nicht: das gezielte Filtern der Befehls-History. Was hilft es Ihnen, dass das Terminal die letzten 1000 Eingaben speichert, wenn Sie diese mit der Cursortaste (nach oben) einzeln abspulen müssten? Eigentlich kann die Shell die Befehls-History nach der Vorgabe filtern, die Sie bereits eingeben haben – etwa „sudo“. Dann erhalten Sie durch Drücken der Tasten Bild-oben und Bild-unten nur noch die Kommandos angezeigt, die mit „sudo“ beginnen: ein sehr hilfreicher Service, den Sie unbedingt aktivieren sollten. Dazu öffnen Sie die Datei „/etc/inputrc“ mit root-Rechten:

sudo gedit /etc/inputrc

Tragen Sie dort folgende Zeilen ein:

\“e[5~\“: history-search-backward \“e[6~\“: history-search-forward

Eventuell sind die beiden Zeilen bereits vorhanden, und Sie müssen nur das vor angestellte Kommentarzeichen „#“ entfernen, um diesen wichtigen Komfortservice freizuschalten. Sind die beiden Tasten aktuell anders belegt, müssen Sie diese Belegung umgekehrt mit „#“ deaktivieren.

Alias-Befehlskürzel in der bashrc

Häufig benötigte Befehle kürzen Sie am besten durch Aliases ab. Das sind Kommandokürzel in der Form:

alias x=’nautilus $PWD‘

Die Eingabe „x“ im Terminal startet dann den grafischen Dateimanager Nautilus (oder jeden anderen, den Sie bevorzugen) mit dem aktuellen Ordner („$PWD“). Um solche Alias-Definitionen dauerhaft abzulegen, schreiben Sie diese in die Datei „.bashrc „in Ihrem „home“-Verzeichnis. Mehrzeilige Befehle sind kein Hindernis für Aliases – diese trennen Sie jeweils durch Semikolon ab:

alias hi=’echo HiDrive laden…; echo Kennwort | sshfs -o password_ stdin mueller@sftp.hidrive. strato.com:/users/mueller ~/ HiDrive; nautilus ~/HiDrive‘

Solange Sie Ihre „bashrc“ ausbauen, ist auch folgendes Alias sinnvoll:

alias conf=’gedit ~/.bashrc & disown‘

Damit laden Sie die Datei in den Gnome- Editor gedit, und zwar so, dass Sie das Terminal schließen können, ohne damit den Editor zu beenden.

Informativer Super-Prompt

Die Anzeige bei jeder Befehlseingabe, der Prompt, kann mehr oder weniger alle aktuellen Informationen anbieten, die Sie zur Orientierung erwarten. Die Prompt-Anzeige definieren Sie interaktiv zum Testen und dauerhaft in der Datei „.bashrc“ mit „PS1=’…’“. Standardvariablen wie das aktuelle Verzeichnis, Datum oder Uhrzeit werden durch vordefinierte Escape-Zeichenfolgen angefordert, etwa „\w“ für das aktuelle Verzeichnis – also:

PS1=’/w‘

Darüber hinaus können Sie aber auch jede beliebige Umgebungsvariable einfach mit „$[Variable]“ in die PS1-Definition setzen

PS1=’/w [$LOGNAME]‘

Um Infos gegeneinander abzugrenzen, sind ferner Farbdefinitionen vorgesehen, die stets mit der Sequenz „\[\033“ starten. Ein komplexer Prompt wie

PS1=’\n\[\033[47;30m\]\d, \A \ [\033[41;37m\] \u on \H \ [\033[47;30m\] MB free=$freemem \[\033[41;37m\] $CPU \ [\033[40;37m\] [$timediff] \ [\033[42;30m\] \w \[\033[0m\]\n‘

erscheint kryptisch. Wenn Sie den simplen Mechanismus verstanden haben, verliert er aber seinen Schrecken: Es geht Schritt für Schritt von einer Escape- Sequenz zur nächsten – „\n“ bedeutet einen Zeilenumbruch, „\[\033“ schaltet dann die Farben um, „\d“ setzt danach das Datum ein, erläuternder Text oder Zeichen wie Komma oder Blank sind an jeder Stelle möglich, ferner auch Systemvariablen mit „$“. Wichtig ist, Farbdefinitionen am Ende wieder explizit wieder zurückzusetzen („\[\033[0m\]“), andernfalls sind Störungen mit den allgemeinen Terminal- Farbeinstellungen („Bearbeiten fi Einstellungen fi Farben“) zu erwarten.

Die Wirkung des obigen Prompt- Beispiels sehen Sie in der Abbildung auf dieser Seite: Sie können also neben Standardvariablen wie Datum, Uhrzeit, User, Host, Arbeitsverzeichnis im Prinzip jede beliebige Info im Bash- Prompt anfordern. Im Beispiel sehen Sie den freien Arbeitsspeicher, die CPUAuslastung und einen Sekunden-Timer.

Der Prompt_Command

Der Prompt erlaubt den Einbau jeder beliebigen Variablen. Wenn diese allerdings echtzeit-aktuell sein soll wie etwa bei der CPU-Auslastung, muss diese Variable unmittelbar vor der Prompt-Darstellung ermittelt werden. Genau dafür bietet das Linux-Terminal einen speziellen Service: Mit

PROMPT_COMMAND=[script | function]

definieren Sie ein Shell-Script oder eine Function der Datei „.bashrc“, die bei jedem Enter in der Kommandozeile abgerufen wird. Da dies oft geschieht, sollte sich der Rechenaufwand dieses Prompt_Command in Grenzen halten. In unserem Beispiel-Prompt verweist der Prompt_Command auf eine kleine Function „promptcmd“ in der Datei „.bashrc“, welche die RAM-Auslastung, die CPU-Auslastung und die Zeit seit dem letzten Befehl ermittelt.

Unentbehrliche Kommandos

Die Befehle cd, mkdir, rmdir zum Wechseln und Bearbeiten von Verzeichnissen gehören ebenso zum Terminalalltag wie ls, cp, cat, mv, rm zum Auflisten, Kopieren, Lesen, Umbenennen und Löschen von Dateien. Selbst diese einfachen Standardtools bieten zahlreiche Optionen, die eine Recherche mit man [Befehl] lohnen. Man muss sich die geeigneten Parameter nicht dauerhaft merken, wenn man sie als Alias in der „.bashrc“ ablegt – etwa

alias ls=’ls -AlF‘

Viele weitere Terminalkommandos sind unersetzlich oder mit grafischen Alternativen weitaus umständlicher.

lsblk: Den schnellsten und übersichtlichsten Weg, sich alle Datenträgerkennungen anzeigen zu lassen, bietet der Befehl lsblk – mit eindeutiger UUID-Kennziffer durch folgende Parameter:

lsblk -fl

Die richtige Datenträgerkennung ist fundamental und unabdingbar, um etwa eine dd-Kopie oder eine Partitionierung durchzuführen.

df in der Form

df -h

oder auch df -h | grep /dev/sd – um die physischen Laufwerke zu filtern – ist das einschlägige Hilfsmittel für eine schnelle Übersicht zur Festplattenbelegung.

find: Windows-Umsteiger werden schnell feststellen, dass der Befehl ls kein Äquivalent zu dir ist. Für große Dateiaktionen ist das Kommando find einschlägig:

find /home -name „*.png“

find kann allerdings deutlich mehr, als die Dateien nur aufzulisten. Folgendes Kommando löscht im angegebenen Ordner alle Dateien bis auf jene mit der Endung „.png“:

find ~/Bilder -type f ! -iname „*.png“ -delete

Das vorangestellte Ausrufezeichen kehrt den nachfolgenden Suchbegriff um (hier „*.png“).

Für alles, was find nicht selbst erledigen kann, gibt es den Parameter „-exec“ mit nachfolgendem Bash-Befehl. Dann sucht find die passenden Dateien und gibt sie mit „-exec“ weiter an das gewünschte Kommando.

xprop zeigt zahlreiche Eigenschaften grafischer Programme an. Das einfachste und häufigste Motiv, xprop zu verwenden, ist die Frage nach dem Programmnamen eines Fensters. Also etwa die Frage: Wie lautet der Name des Dateimanagers, den ich gerade benutze? Nach diesem Befehl

xprop | grep CLASS

verwandelt sich der Mauszeiger in ein Kreuz, mit dem Sie auf das gewünschte Fenster klicken. Im Terminal erscheint dann der zughörige Programmname.

pkill: Vor allem Prozesse, die in mehreren Instanzen laufen, wie etwa Browser, sind mit grafischen Hilfsmitteln wie der Systemüberwachung schlecht zu zähmen. Um alles zu beenden, was etwa zu Chrome oder Chromium gehört, hilft pkill:

pkill chrom

Die Eigenschaft von pkill, auch Teilstrings von Programmnamen zu akzeptieren, macht die Sache einfach, allerdings auch riskanter. Achten Sie darauf, dass der String eindeutig bleibt.

dd: Das Werkzeug dd (Diskdump) erledigt bitgenaue Kopien von einem Gerät auf das andere. Unentbehrlich ist es unter anderem für das Schreiben bootfähiger ISO-Images:

sudo dd if=[name].iso of=/dev/sd[x]

„if=“ steht für „Input File“, „of=“ für „Output File“, wobei aber typischerweise als „of=“ die Laufwerksangabe etwa einer DVD oder eines USB-Sticks anzugeben ist.

rsync ist ein Sicherungstool mit zahlreichen Spezialoptionen, aber oft genügt der Sammelschalter „-a“:

rsync -a /Quellpfad /Zielpfad

Dies berücksichtigt alle Unterverzeichnisse des Quellpfads. Für periodische Sicherungen nützlich ist Schalter „u“, also insgesamt rsync -au […]. Der Updateschalter spart viel Zeit, indem er bereits bestehende Dateien überspringt.

lshw zeigt nach

sudo lshw –short

unter anderem für die Klasse „memory“ die belegten und die nicht belegten RAM-Slots sowie die Kapazität der einzelnen Speichermodule. Weitere spezialisierte Tools lspci und lsusb liefern sämtliche PCI-und USB-Geräte, wobei Sie die Gesprächigkeit der Ausgabe durch die Parameter „-v“ und „-vv“ erhöhen können.

dmidecode kann weitgehend die komplette übrige Hardware analysieren, wobei Sie die gesuchte Komponente mit dem Schalter „-t“ angeben:

sudo dmidecode -t bios

Mögliche Parameter nach „-t“ sind „bios“, „system“, „baseboard“, „chassis“, „processor“, „memory“, „cache“, „connector“ und „slot“.

ifconfig informiert nicht nur über Netzwerkschnittstellen, sondern veranlasst auch Eingriffe. Bei purer Eingabe ifconfig erhalten Sie unter anderem die physikalische MAC-Adresse, die lokale IP-Adresse (ipv4 und ipv6) und Anzahl und Datenmenge der empfangenen (RX) und der gesendeten (TX) Datenpakete seit dem letzten Systemstart. Der Ethernet-Adapter erscheint als „eth0“, der WLAN-Adapter als „wlan0“. Die angezeigte „lo“-Schnittstelle mit der IP-Adresse 127.0.0.1 existiert nicht physisch, weshalb ifconfig hier auch keine Hardwareadresse anzeigt. Mit „down“ und „up“ wie

sudo ifconfig eth0 down

schalten Sie einen Adapter aus oder wieder ein, in diesem Fall mit „eth0“ den Ethernet-Anschluss.