Datenaustausch zwischen Linux und Windows – so geht’s

Installation und Einrichtung von Linux-Systemen fallen auch Windows-Umsteigern leicht. Doch wie ist es danach um die vorhandenen Benutzerdaten und Medien, um die Softwareausstattung und den Datenaustausch bestellt?

Dieser Grundlagenbeitrag dreht sich um die beiden Aspekte des „Wie“ und „Was“ beim Datentransfer zwischen Linux und Windows. Wie tauschen Sie Dateien problemlos zwischen beiden Betriebssystemen? Welche Formate und Formatinterpreter (Programme) eignen sich für plattformübergreifendes Arbeiten? 

Dabei konzentrieren wir uns in diesem Beitrag auf verbreitete Standardaufgaben, die allenfalls Planung und Detailkorrekturen fordern. Wenn Sie unter Linux proprietäre Windows-Formate bearbeiten müssen, empfehlen wir den Einsatz von Wine oder Virtualisierungssoftware.

Netzwerkgespräche zwischen Linux und Windows

Für den heimischen Datenaustausch zwischen Linux und Windows ist das Netzwerk der eleganteste Weg. Jedes Linux mit installiertem Samba -Client (Standard) kann die Freigaben von Windows-Rechnern nutzen. Umgekehrt greift Windows umstandslos auf die Samba-Freigaben eines Linux-Rechners zu (Samba-Server). In beiden Richtungen gelten die üblichen Regeln, dass ein zugreifender Benutzer sowohl die nötige Netzwerkerlaubnis als auch die nötigen lokalen Dateirechte besitzen muss.

Samba (SMB/CIFS) ist aber nicht der einzige Kommunikationsweg: Auf den meisten Linux-Rechnern läuft ein SSH -Server (oder ist mit 

apt install openssh-server 

schnell eingerichtet) und somit das Transferprotokoll SFTP. Dies lässt sich mit dem plattformübergreifenden Filezilla auch unter Windows nutzen. Sie können dort einen Linux-Rechner mit IP, SSH-Authentifizierungsdaten („Verbindungsart: Normal“) und SFTP-Protokoll in den Servermanager eintragen, sich verbinden und Dateien übertragen.

Eine bequeme Transfermethode – ebenfalls über SSH – eröffnet ferner die „Bash on Ubuntu on Windows“ (BUW). Das optionale BUW kann in Windows unter „Systemsteuerung –› Programme und Features“ nachgerüstet werden („Windows Subsystem für Linux“) und stellt ein vollwertiges Terminal-Ubuntu bereit.

Mit einem wiederum hier nachinstallierten Midnight Commander ( sudo apt-get install mc ) ist die bekannte „Shell-Verbindung“ (SSH) möglich, und Sie haben die Dateisysteme des Linux-Rechners und des Windows-Systems vor sich (Windows unter „/mnt/c“).

Wer es sich beim Datenaustausch besonders einfach machen will, kann unter Linux ( apt install nitroshare ) und Windows das Peer-to-Peer-Tool Nitroshare einrichten. Wo immer dieses läuft, kann es mit „Send Files“ und „Send Folder“ Daten zu einem beliebigen Empfänger im lokalen Netzwerk schicken, wo Nitroshare ebenfalls läuft.

Datenträger für Linux & Windows 

Sollen physische Datenträger, also interne Festplatten (bei Multiboot) oder mobile USB-Datenträger, für den Datenaustausch zwischen Linux und Windows genutzt werden, gibt es etliche Einschränkungen, die sich aber durch Planung vermeiden lassen: Linux-Dateisysteme (meist Ext4) sind für Windows nicht lesbar. Trotz mancher Linux-Umarmung zeigt Microsoft bis dato kein Interesse, Linux-Datenträger unter Windows zu unterstützen. Dass das technisch kein Problem wäre, zeigt die externe Software Ext FS for Windows , die man aber längst nicht überall voraussetzen kann.

• Für interne oder externe Laufwerke, die für den unkomplizierten Datenaustausch dienen sollen, eignet sich im einfachsten Fall eine Formatierung mit dem alten FAT32, das alle Systeme ohne Hilfsmittel beherrschen und auch selbst formatieren kann.

• Wer ISO-Images und Filme austauschen will, sollte die maximale Dateigröße von nur vier GB unter FAT32 bedenken. In diesem Fall kommt das Microsoft-Dateisystem exFAT in Betracht. Linux beherrscht exFAT zwar nicht standardmäßig, aber die Nachinstallation des kleinen exFAT-Treibers ist mittels des Kommandos 

sudo apt install exfat-fuse exfat-utils

im Handumdrehen erledigt. Danach können Sie exFAT-Datenträger sofort mit Linux-Dateimanagern nutzen und mit Werkzeugen wie Gnome-Disks („Laufwerke“) auch mit exFAT formatieren („Partition formatieren –› Andere –› exFAT“). Gparted hat exFAT zwar in seiner Dateisystemliste, will aber bislang nicht mit exFAT formatieren (inaktiv).

• Sind nur Linux- und Windows-Rechner im Spiel, ist das Microsoft-Standarddateisystem NTFS erste Wahl. Linux wie Windows haben dort Lese- und Schreibzugriff, Linux wie Windows können mit NTFS formatieren. Mac-OS X kann darauf standardmäßig nur lesen.

Kontinuität beim Mailprogramm

Wer seine Mails im Browser liest und schreibt (Webmailer), muss sich nicht umstellen. Nicht viel anders liegt der Fall, wenn Sie zwar ein lokales Mailprogramm, dort aber statt POP3 das IMAP-Protokoll verwenden. Dann liegen alle Mails auf dem Server und es genügt im jeweiligen Betriebssystem das Einrichten des IMAP-Kontos.

Besonders einfach gestaltet sich ein Umzug oder Parallelbetrieb, wenn Sie unter Windows das Mailprogramm Thunderbird nutzen. Thunderbird trennt zwischen Programm- und Benutzerdaten. Letztere befinden sich unter Windows im Ordner „%appdata%\Thunderbird\Profiles\[xxxxx xxx].default“, wobei das achtstellige „xxxxx xxx“ für eine zufällig generierte Zeichenkombination steht. Wenn Sie alle Daten dieses Ordners kopieren und unter Linux im Pfad „~/.thunderbird/[xxxxxxxx].default/“ einfügen, können Sie sofort wie gewohnt mit allen Mails und Einstellungen weiterarbeiten. Vor der Aktion muss Thunderbird unter Linux installiert werden und mindestens einmal gelaufen sein, damit der Ordner „~/.thunderbird/[xxxxxxxx]. default/“ existiert. Löschen Sie dort vor der Kopieraktion alle Dateien, die Thunderbird automatisch erstellt hat.

Thunderbird kann auch aushelfen, um die Daten zunächst aus Microsoft Outlook zu importieren. Diese Möglichkeit bietet das Mailprogramm während des Setups automatisch an. Danach können Sie das Thunderbird-Profil – wie oben beschrieben – nach Linux transportieren.

Uneingeschränkte Kontinuität im Browser

Die unter Windows wie Linux populären Browser Chrome/Chromium und Firefox sind praktisch funktionsgleich. Außerdem machen sie es dem Nutzer einfach, Browsereinstellungen, Webkennwörter, Themes und Lesezeichen automatisch von Windows nach Linux zu übernehmen. Voraussetzung ist nur, dass Sie zunächst unter Windows die Browsersynchronisierung aktivieren und dies dann unter Linux mit demselben Browser wiederholen:

Für Google Chrome / Chromium brauchen Sie nur ein Google-Konto. Über das Menü „Einstellungen“ oder die Adresse „chrome:// settings/“ können Sie sich „In Chrome anmelden“ und dann den Umfang der Synchronisierung bestimmen. Alles zu synchronisieren ist am bequemsten. Danach erhält jeder Browser Chrome/Chromium, den Sie unter Windows oder Linux auf diese Weise einstellen, dieselben Lesezeichen, Erweiterungen, Designs.

Firefox bietet die Synchronisierung unter „Firefox –› Einstellungen –› Sync“. Sie benötigen ein Konto auf dem Mozilla-Server und wählen daher „Firefox-Sync einrichten“, anschließend „Neues Benutzerkonto anlegen“. Bei Firefox am Linux-Rechner wählen Sie unter „Einstellungen –› Sync –› Firefox-Sync einrichten“ die Optionen „Ich habe ein Benutzerkonto“ und „Ich habe das Gerät nicht bei mir“. Dann geben Sie die Firefox- Sync-Kontodaten ein.

Word, Excel und Libre Office 

Das auf größeren Distributionen standardmäßig installierte Libre Office (Paketname „libreoffice“) lädt und bearbeitet mit Ausnahme von Access-Datenbanken im Prinzip alle Dateien, die mit altem und neuem Microsoft Office erstellt wurden (97 bis 2019). Wo diese Suite noch nicht vorliegt, sollte das mittels

sudo apt install libreoffice libreoffice-l10n-de libreoffice-help-de 

auf jedem Desktop-Linux unbedingt korrigiert werden (im Beispiel gleich mit deutscher Oberfläche und Hilfe). Hundertprozentige Kompatibilität mit Microsoft Office ist aber nicht erreichbar. Word, Excel und Powerpoint bieten etliche Formate, mathematische Funktionen, Diagrammtypen oder Übergangseffekte, die Libre Office nicht kennt. Korrigierbare kleinere Probleme gibt es bei Tabellen und Bildern, ferner bei Inhaltsverzeichnissen in der Textverarbeitung. Pivot-Tabellen in der Tabellenkalkulation und neuere Videofunktionen von Powerpoint sind ebenfalls nicht voll kompatibel. Bei nur lesender Nutzung sind diese kleinen Inkompatibilitäten kein Problem, bei der Weiterbearbeitung müssen Sie aber gegebenenfalls nachbessern.

Einige generelle Maßnahmen können den Korrekturaufwand verringern: Libre Office kommt mit den älteren Binärformaten (DOC, XLS, PPT) besser zurecht als mit dem jüngeren Office Open XML (OOXML) von Microsoft Office ab Version 2007.

Daher ist es klug, Austauschdateien in Microsoft Office im älteren „97-2003“-Format zu speichern und so an Libre Office weiterzugeben. Um die Kompatibilität zwischen den Office-Suiten zu erhöhen, gibt es in Libre Office unter „Extras –› Optionen“ eine Reihe von Einstellungen: Standardmäßig sollten alle Optionen unter „Laden/Speichern –› Microsoft Office“ aktiviert sein. Dasselbe gilt für alle Optionen unter „Laden/ Speichern –› VBA-Eigenschaften“: VBA-Makros sind zwar nicht kompatibel, aber diese Einstellungen bewahren immerhin eventuelle Makros in MS-Office-Dokumenten. Ferner finden Sie noch den Punkt „LibreOffice Writer –› Kompatibilität“: Die hier angebotenen Optionen eignen sich zum Experimentieren, wenn der Austausch von Textdokumenten Probleme verursacht. Jüngeres Microsoft Word, Excel und Powerpoint liest und bearbeitet seinerseits die von Libre Office erstellten Formate ODT, ODS, ODP praktisch klaglos. Es ist also durchaus praktikabel, diese Linux-Formate ohne Konvertierung direkt an Windows-Nutzer weiterzugeben.

Multimedia-Dateien unter Linux 

Populäre Bildformate, Musikformate und Videos sind plattformunabhängig und verursachen keine Probleme beim Austausch zwischen Windows und Linux.

Bildformate: Pixelgrafiken wie JPG- oder PNG-Fotos sind generell problemlos. Vorinstallierte Bildviewer wie eog (Eye of Gnome, „Bildbetrachter“) oder gthumb kennen alle gängigen Formate.

Diese reinen Viewer genügen für Alltagsansprüche mit Thumbnailübersicht, Diashow und einfachsten Darstellungsfunktionen wie Drehen der Bilder. Zusätzliche Bearbeitungsfunktionen und eine Datenbank zur Bildverwaltung bietet Shotwell (so auch der Paketname), das unter Ubuntu zum Standard gehört.

Das SVG-Format, das insbesondere für Diagramme genutzt wird, können die Programme Libre Office Draw , Inkscape und Gimp öffnen und bearbeiten. Bei proprietären Formaten von Adobe Photoshop, Adobe Illustrator, Corel Draw ist hingegen unter Linux mit Gimp und Inkscape mit gelegentlichen Detailfehlern zu rechnen. Gimp – mit gleichlautendem Paketnamen – ist bei einigen Desktopdistributionen Standard. Die anspruchsvolle Bildbearbeitung beherrscht sämtliche verbreiteten Bildformate, auch PSD-Photoshop oder Postscript (PS und EPS).

Wenn Sie bearbeitete Gimp-Bilder nicht im eigenen XCF-Format, sondern etwa im Photoshop-Format weitergeben möchten, müssen Sie in Gimp das Menü „Datei –› Exportieren“ verwenden.

Eine Ergänzungssoftware ist der Bildviewer Xnview MP , der auch exotische Bildformate (insgesamt 500) beherrscht und unter WinAuf dows wie unter Linux zu Hause ist. Das deb-Installationspaket für Debian-basierte Systeme (Ubuntu, Mint & Co.) muss über die Herstellerseite heruntergeladen und dann installiert werden.

Musikformate: Ob MP3, WMA, FLAC, AAC, WAV oder OGG – die Standardplayer der einzelnen Linux-Distributionen spielen alles ab. Die Frage ist daher eher, ob der Umfang des Standardplayers genügt: Ein Multitalent ist Banshee (gleichnamiger Paketname), der alle Audioformate abspielt und eine Medienverwaltung mitbringt. Wer gleichzeitig Windows nutzt, kann den plattformübergreifenden Player auch dort verwenden. Dasselbe gilt auch für den multifunktionalen VLC , der neben Video und Film auch alle gängigen Musikformate abspielt.

Midi-Dateien sind praktisch nur für Musikproduzierende relevant. Zum Abspielen bestehender Midi-Daten genügt das Tool Timidity (mit gleichnamigem Paketnamen); für die Midi-Erzeugung sind unter Linux die Programme Musescore und Rosegarden erste Wahl (mit gleichnamigen Paketnamen).

Videos und DVDs: Wo immer Videos und Filme genutzt werden und die Allzweckwaffe VLC nicht vorinstalliert ist, sollten Sie dies mit 

sudo apt install vlc 

nachholen. Kein anderer Player besitzt die Fehlertoleranz und den Funktionsumfang des plattformübergreifenden VLC. Mit aktiviertem libdvd spielt der VLC-Player auch DVDs ab. Die DVD-Komponente laden Sie mit

sudo apt install libdvd-pkg 

nach und erledigen die eigentliche Installation mit diesem Befehl 

sudo dpkg-reconfigure libdvd-pkg

unter Debian-basierten Systemen wie Ubuntu und Linux Mint.

Umstieg auf Linux: Distributionen im Vergleich

PDF, RTF, Text, Epub und Packerarchive 

Für PDF-Dateien ist in vielen Distributionen ein standardmäßig installierter „Dokument- Betrachter“ wie Evince (Gnome) oder Okular (KDE) zuständig. Die pure PDF-Anzeige beherrscht heute außerdem jeder Browser wie Firefox oder Chrome.

Beachten Sie, dass PDF-Dateien mit Libre Office Draw auch bearbeitet werden können. Dessen Möglichkeiten sind zwar weit entfernt vom kostenpflichtigen Windows-Programm Adobe Acrobat, genügen aber für Textkorrekturen. Außerdem können alle Libre-Office-Komponenten standardkonforme PDFs exportieren („Datei –› Exportieren als –› Als PDF…“).

Während für das RTF-Format Libre Office (Writer) zuständig ist, lesen und bearbeiten Sie puren Text, Codedateien oder HTML mit dem jeweiligen Editor der Linux-Distribution ( Gedit, Xed, Leafpad und anderen).

Für das elektronische Buchformat Epub, das unter Windows standardmäßig der Browser Edge wiedergibt, ist unter Linux in der Regel kein Standardprogramm installiert. Hier hilft als große Lösung die Nachinstallation des Programms Calibre (mit gleichnamigen Paketnamen); für gelegentliches Lesen eines Epub-Textes reicht aber auch die Browsererweiterung „ ePubReader “ (Sevina), die für Firefox und Chrome/ Chromium identisch vorliegt.

ZIP, RAR, CAB: Für gepackte Archive aller Art gibt es die „Archivverwaltung“ – unter Gnome-affinen Desktops den „File-Roller“, unter KDE das Tool „ Ark “. Diese Tools beherrschen die Linux-typischen Archive wie TAR und GZ ebenso wie die unter Windows verbreiteten Formate ZIP und RAR, können darüber hinaus auch ISO-Images und Windows-CAB-Dateien verarbeiten. Das ebenfalls populäre Packerformat 7-Zip ist allerdings nicht standardmäßig an Bord, obwohl es für Imagedateien und den Archivaustausch mit Windows eine wichtige Rolle spielt. Mit dem Befehl

sudo apt install p7zip-full 

rüsten Sie die Komponente schnell nach. Der Packer wird bei der Installation automatisch in die grafische Archivverwaltung integriert. 

Gross-/Kleinschreibung und Sonderzeichen

Unter Windows spielt die Schreibung weder bei Dateinamen noch bei Befehlen eine Rolle. „DIR“ ist dasselbe wie „dir“ oder „diR“. Unter Linux ist genaue Schreibung zwingend: Den Befehl „LSBLK“ gibt es nicht und ein Schalter „-X“ bedeutet etwas anderes als „-x“. Folgerichtig können in einem Ordner auf einem Linux-Dateisystem Dateiobjekte wie „Musik“, „musik“ und „MUSIK“ nebeneinander existieren. Windows wird in solchen Fällen nur ein inhaltliches Ziel finden, egal, welches der drei Objekte Sie anklicken. Das Problem kann nur bei einem Samba-Server auftreten, weil auf einem Austauschdatenträger mit FAT32, exFAT oder NTFS das Dateisystem solche Namensgleichheit verbietet – auch für Linux. 

Weitere Unterschiede betreffen Sonderzeichen im Dateinamen: Windows-Umsteiger, die Dateien via Samba zwischen Linux und Windows austauschen wollen, werden früher oder später auf „Fehler beim Kopieren“ treffen. Das kann ein Rechteproblem sein, kann aber auch die viel trivialere Ursache haben, dass der Dateiname nicht Windowskonform ist. Doppelpunkt (:), Längsstrich (|) Anführungszeichen („), Fragezeichen (?) und Backslash (\) sind in Dateinamen unter Linux erlaubt, unter Windows nicht – und führen zu besagten Fehlern. Einfach die Datei unter Linux umbenennen und das Problem ist gelöst.

eGPU in der Praxis: Externe Grafikkarten am Mac Mini 2018

Der erste Teil drehte sich um die Hardware und einfache Benchmarks. Hier geht es darum, wie gut sich die externen Grafikkarten bei der täglichen Arbeit schlagen.

Wieder mit dabei sind die fertig konfigurierten externen Grafikkarten Sonnet eGFX Breakaway Puck 570 und Blackmagic Design Blackmagic eGPU 580. In einem externen Gehäuse von Sonnet haben wir die AMD Radeon Pro WX8200, Sapphire Nitro+ Radeon RX 590, Sapphire Pulse Radeon RX Vega56 8G und die Sapphire Nitro+ Radeon RX Vega64, mit von der Partie.

eGPUs mit typischen Aufgaben in der Praxis

Entscheidend ist, was rauskommt! Also was bringen die verschiedenen eGPUs bei den beliebtesten Bildbearbeitungs- und Videoschnittprogrammen?

Wir haben uns für typische Aufgaben Tests ausgedacht und ich habe die Zeit gemessen, die die Programme hierfür benötigten. Bei den Bildbearbeitungsprogrammen sind es so Aufgaben, wie RAW-Konvertierung, Skalieren, Filter und als JPEG exportieren. Bei den Videoschnittprogrammen geht es um das Abspielen von komplexen Videoschnitten und das Exportieren in verschiedenen Formaten.

Bildbearbeitung und eGPU

Für unseren Testlauf mit Bildbearbeitungsprogrammen habe ich mir neben dem Platzhirsch Adobe Photoshop CC 2019, auch die Spezialisten für Bildoptimierung Adobe Lightroom Classic, Skylum Luminar 3 und Phase One Capture One 12 näher angesehen. Ein wenig abseits der normalen Bildbearbeitung soll das HDR-Programm Skylum Aurora HDR 2019 zeigen, wie eine eGPU die Arbeit beim Verrechnen von Belichtungsreihen beschleunigen kann.

Das Ausgangsmaterial sind RAW-Aufnahmen von einer Fujifilm X-H1.

Adobe Photoshop CC 2019

Photoshop ist der Platzhirsch unter den Bildbearbeitungsprogrammen. Leistungsstark – und bei großen Projekten benötigt es natürlich auch viel Leistung. Was liegt also näher zu schauen, ob man mit einer Grafikkarte hier dem Programm auf die Sprünge helfen kann?

Um das zu testen, habe ich mir eine Aktion angelegt und auf eine Stapelverarbeitung von 60 Bilder angewendet. In der Aktion wird als Erstes eine Einstellungsebene mit einer Color Lookup erstellt, dann das Bild auf 67 Prozent skaliert und die Farben in sRGB konvertiert.

Bei der Stapelverarbeitung nutzt Photoshop die Grafikkarte maximal 25 Prozent, dafür die CPU zu rund 75 Prozent. Interessanterweise geht die Ausnutzung der Grafikkarte mit Ihrer Leistungsfähigkeit zurück. So ist beim Einsatz einer Vega kein Ausschlag feststellbar.

Am Ende bleibt ein ernüchterndes Bild: Egal welche Grafikkarte zum Einsatz kommt, Photoshop wird nicht schneller.

Adobe Lightroom Classic

Für meinen ersten Test mit Lightroom Classic setze ich die Version 8.3.1 ein. Für den Export weise ich allen 60 Bildern die Vorgabe „Leuchtend“ zu und exportiere sie als 4000 Pixel breite und geschärfte JPEGs.

Der Exportvorgang läuft ausschließlich über die CPU mit 100 Prozent Auslastung, trotz erkannter Grafikkarte ist keinerlei Nutzung erkennbar. Auch bei der Arbeit in Lightroom selbst merkt man nur einen geringeren Einfluss. Mit eGPU läuft der Bildschirmaufbau minimal flüssiger, mehr aber nicht.

Die neuere Version 8.4.1 zeichnet sich durch ihre bessere Unterstützung der Grafikkarte aus. Also wiederhole ich den Test und komme auf die gleichen Werte. Der Grund ist einfach, Berechnungen erledigt ausschließlich die CPU, die Grafikkarte hat hier nichts zu tun.

Ich wollte aber wissen, wie sich das Update mit und ohne eGPU auf die üblichen Aufgaben in Lightroom auswirkt. Also habe ich einen Katalog mit 2299 Objekten angelegt. Das meiste sind Bilder, aber auch ein paar Videos sind mit dabei. Ebenso sind JPEGs und RAWs im Katalog enthalten.

Bei Aufgaben wie dem Import, das Erzeugen von 1:1-Vorschauen, Panoramas und HDRs berechnen gab es keine Verbesserung mit einer eGPU. Auch nicht beim Blättern in der Lupenansicht und der Rasteransicht oder dem Öffnen eines Kataloges.

Auswirkungen hatte die eGPU erst beim Blättern im Entwickeln-Modul und den Bildbearbeitungswerkzeugen wie dem Bereichspinsel. Das läuft jetzt schneller und flüssiger mit einer eGPU. Mir ist aber noch etwas aufgefallen beim Einsatz der eGPUs: Es ist unerheblich, wie schnell der Grafikprozessor ist. Ich habe unsere Tests mit einer Einsteigerkarte Radeon RX 590 und einer Profikarte Radeon Pro WX8200 gemacht. Es gab keine nennenswerten Unterschiede.

Was bringt jetzt das Update abseits der eGPU-Frage? Auch das konnte ich messen. Der Import erfolgte minimal schneller und der Katalog wird schneller geöffnet. Ansonsten sind die Unterschiede unerheblich.

Das Update auf die Version 8.4.1 ist also gerade für die Bildbearbeitung ein großer Schritt, den jeder zu schätzen weiß, der vorher an der Reaktionsgeschwindigkeit des Pinsels mit automatischer Maske verzweifelt ist.

Phase One Capture One 12

Capture One ist „der“ RAW Konverter schlechthin. Also darf er auch nicht bei mir im Test fehlen. Einen ganzen Stapel an Bildern zu konvertieren beherrscht Capture One ebenso, wie das Zuweisen einer Vorgabe für den besonderen Look. Damit die Aufgabe realistisch ist, habe ich 60 RAW-Bildern die Vorgabe Landscape zugewiesen und sie als JPEG exportiert. Dabei werden die Bilder auf die längste Kante von 4000 Pixel skaliert und für den Druck geschärft.

Beim Konvertieren konnte man sehr gut sehen, wie Capture One die eGPU zwischen 50 und 100 Prozent ausnutzt. Aber nicht nur das, auch der Prozessor wird mit rund 50 Prozent belastet.

Auch hier beobachte ich, dass eine Vega nur zu rund 40 Prozent ausgelastet wird.

Aber nicht nur beim Export wird die eGPU eingesetzt. Trapezkorrektur, Beschneiden, Bildretusche, in der Aktivitätsanzeige kann man sehr schön sehen, das Capture One von einer eGPU profitiert.

Skylum Luminar 3

Luminar 3 von Skylum ist ein einfach zu handhabendes Bildbearbeitungsprogramm, das konsequent auf Ebenen für die Bildbearbeitung setzt. Eine Stapelverarbeitung und Voreinstellungen für einen besonderen Bildlook nutze ich für unseren Geschwindigkeitstest.

Auch hier verwende ich die gleichen 60 RAW-Bilder aus einer Fujifilm X-H1 wie bei Capture One und konvertiere diese als JPEG. Als Vorgabe für den Bildlook nehme ich AI Landscape und als Bildgröße ebenso 4000 Pixel an der langen Kante.

Luminar 3 macht nur teilweise Gebrauch von der Grafikkarte. Zu Beginn der Konvertierung kommt die Grafikkarte gar nicht zum Einsatz und erst nach einigen Bildern steigt die Auslastung auf maximal 50 Prozent, bei den Vegas unter 5 Prozent. Die Arbeit verrichtet hauptsächlich die CPU mit maximal 60 Prozent Auslastung.

Skylum Aurora HDR 2019

Eine unterschätze Funktion in Aurora HDR 2019 ist die Stapelverarbeitung. Fotografiert man beispielsweise professionell Räume oder Landschaften, können viele Belichtungsreihen anfallen. Für einen schnellen Überblick über die möglichen Ergebnisse bietet sich hier die Stapelverarbeitung an. Auf einen Schwung erstellt man mit einer Voreinstellung ein JPEG als Vorschau und kann so schauen, wo es sich lohnt, Arbeit in die Ausarbeitung zu investieren.

Für meinen Test nehme ich 20 Belichtungsreihen von Landschaften einer Motorradreise am Pacific Coast Highway. Ausgangsmaterial sind je drei RAW-Aufnahmen mit einer Fujifilm X-H1. Als Voreinstellung – auch Look genannt – wird Realistic Landscape ausgewählt, die Endergebnisse auf eine lange Kante von 4000 Pixel skaliert und als JPEG abgespeichert. Zusätzliche Einstellungen sind niedriges Schärfen, eine Farbrauschunterdrückung, die automatische Ausrichtung und das Entfernen von Chromatischen Aberrationen.

Bei Aurora HDR zeigt sich ein ähnliches Bild, wie bei Luminar. Die ersten Belichtungsreihen kommt die Grafikkarte gar nicht zum Einsatz und steigt dann auf maximal 20 Prozent, bei den Vegas unter 5 Prozent. Dafür wird die CPU bis zu 100 Prozent ausgelastet.

Adobe InDesign CC

Indesign ist keine Bildbearbeitung, trotzdem wird mit Bildern in einem Layout gearbeitet. Jeder, der das Programm kennt, weiß wie lange es dauern kann, bis man in der Voransicht durch ein Dokument gescrollt hat.

Wie wirkt sich eine Grafikkarte auf diese Funktion aus?

Getestet habe ich ausschließlich mit einer Vega 64. Der Anfang machte die Version 2019, hier wird standardmäßig die Grafikkarte für den Zoom aktiviert. Scrollt man durch ein aufwändiges Layout mit Bildern merkt man zwar einen Unterschied zwischen der Intel-Grafik und der Vega 64, dieser ist aber nicht so groß. Das lässt sich auch deutlich an der Aktivitätsanzeige beobachten, egal was man in InDesign macht, die Vega 64 wird nur minimal gefordert.

Das Gleiche habe ich dann mit der neuen Version 2020 und keinen Unterschied festgestellt. Auch hier ist jede Grafikkarte besser als der integrierte Intel-Chip, aber die Beschleunigung wirkt generell geringer als man annehmen könnte.

Videobearbeitung und eGPU

Der Mac ist bei Videofilmern beliebt, das merkt man an der Auswahl professioneller Videoschnittprogrammen. So schaue ich mir natürlich nicht nur an, wie sich Apples Final Cut Pro X schlägt, sondern auch Adobe Premiere Pro CC 2019 und Blackmagics Davinci Resolve 15. Als Spezialisten schaue ich dann noch auf GoPros Fusion Studio 1.4 und von RED Redcine-X Pro 50.5.

Ich stelle den Programmen folgende Aufgaben:

Konvertieren von Videoaufnahmen aus einer RED-Kamera in den ProRes 422 HQ Codec

Konvertieren von Videoaufnahmen aus einer 360 Grad Kamera GoPro Fusion nach H.264 und ProRes

Videoschnitt eines 3:40 Minütigen Familienvideos in 4K/H.264, aufgenommen mit einer Fujifilm X-T2

Videoschnitt eines einminütigen Videos in 4K/ProRes mit Material unterschiedlicher Auflösung aus RED Kameras

Beim Videoschnitttest geht es nicht nur um die Arbeit in dem Schnittprogramm, sondern auch um den Export. Hierbei werden alle zwei Videoprojekte in den Codecs ProRes 422 HQ, HEVC und H.264 exportiert. Zusätzlich werden die Videos in drei verschiedene Auflösungen exportiert, um den Einfluss des Skalierens zu messen.

Diesen Einfluss merkt man auch bei dem zweiten Videoclip aus Red-Material, das Videos mit unterschiedlichen Auflösungen von 4K bis 8K zu einem 4K Projekt kombiniert.

RED Redcine-X Pro 50.5

Redcine-X ist ein Programm zur Bearbeitung und Konvertierung von Videoaufnahmen aus einer RED-Kamera. RED nutzt einen eigenen Codec, sodass man das Videomaterial nicht direkt in Videoschnittprogrammen einsetzen kann. Derzeit unterstützt nur Davinci Resolve RED-Videomaterial direkt. Für Final Cut Pro X gibt es ein kostenloses Plug-in.

Für unseren Test nutze ich Redcine-X zum Abspielen und Konvertieren in den ProRes 422 HQ Codec. Als Quellmaterial habe ich mich auf der Homepage von RED aus der großen Auswahl an Beispielvideos bedient. Videos mit Auflösungen von 4K bis 8K dienen mir als Testmaterial zum Abspielen, Konvertieren und in den Videoschnittprogrammen zum Schneiden.

Da man mit sich mit Redcine-X Pro Videos auch ansehen kann, ist das mein erster Test. Wie wirkt sich also eine eGPU auf die Abspielgeschwindigkeit aus? Bei Redcine-X Pro kann man beispielsweise einstellen, ob man das Video in voller, halber oder viertel Auflösung abspielen möchte. Keine der eingesetzten Grafikkarten war in der Lage, 5K-Videos in voller Auflösung abzuspielen. Erst mit halber Auflösung war eine ruckelfreie Wiedergabe möglich.

Ein kurzer Test mit einer brandneuen RX5700XT brachte auch keine Verbesserung.

Beim Konvertieren nutzt RED Redcine-X Pro den Mac Mini voll aus, sowohl alle sechs Kerne als auch die eGPU bis zu maximal 50 Prozent. Auch hier ist zu beobachten, dass eine schnellere Grafikkarte wie eine Vega 64 keine höhere Geschwindigkeit bringt. Somit liegen alle Grafikkarten gleichauf, sind aber meilenweit schneller als nur der Intel-Chip.

Man kann also ganz klar sagen, dass sich eine eGPU hier rentiert.

GoPro Fusion Studio 1.4

Für Nutzer der 360-Grad-Kameras von GoPro ist Fusion Studio unerlässlich, vor allem beim Videos aussuchen und in ein für Videoschnitt lesbares Format wandeln. Fusion Studio muss dabei enormes leisten, nämlich die zwei 180 Grad Videos der beiden Kameras zu einem 360 Grad Video zu verrechnen. Das benötigt viel Rechenpower, daher war ich sehr gespannt, ob eine eGPU hier deutliche Vorteile bringt.

Typische Aufgaben sind das Öffnen des Ordners mit dem Erzeugen der Vorschaubilder. Das kann schon quälend lange dauern. Auf meinem Motorradtrip in den USA sind 794 Bilder und Videos zusammengekommen. Das dauert dann schon mal gerne drei Minuten.

Dass die Beschleunigung nicht stärker ausfällt, erkennt man am GPU-Verlauf der Aktivitätsanzeige. Hier gibt es kaum Ausschläge bei der Grafikkarte.

Für unseren Test habe ich dann aber nur die Ausbeute von einem kleinen Mountainbike-Trip mit zwei Bilder und fünf Videos genommen.

Beim Erzeugen der Vorschaubilder wird die Grafikkarte kaum genutzt, anders beim Konvertieren. Ich habe einen Clip in 3K-Auflösung von einer Minute Länge genommen und diesen in vier Varianten exportiert. Als 360 Grad Video in H.264 und ProRes, sowie als FullHD Video in H.264 und ProRes.

In der Aktivitätsanzeige kann man wieder sehr schön erkennen, wie unterschiedlich die Grafikkarten ausgenutzt werden. Bei den Vegas und der WX8200 sind es bei H.264 rund 80 Prozent und bei ProRes zwischen 80 und 90 Prozent. Bei den kleineren Grafikkarten ist die Ausnutzung nahezu 100 Prozent. Alle CPU-Kerne werden mit bis zu 100 Prozent ausgenutzt. Das ist ein sehr erfreuliches Bild und zeigt, wie man das aufwändige Konvertieren der 360-Grad-Filme deutlich beschleunigen kann.

Damit ist klar: Der Einsatz einer eGPU bei Fusion Studio rentiert sich.

Adobe Premiere Pro CC / Adobe Media Encoder

Der Klassiker unter den Videoschnittprogrammen ist Adobe Premiere Pro CC. Die Ergebnisse sind etwas ernüchternd, während man beim Arbeiten mit Premiere eine Arbeitsverbesserung mit einer eGPU bemerkt, sieht das beim Export sehr unterschiedlich aus.

Beim Export im Format ProRes 422 HQ wird die eGPU voll ausgenutzt und auch die CPU und die interne GPU stark eingebunden. Somit ist eine Leistungsverbesserung deutlich zu sehen. Beim zweiten Videoprojekt wo Premiere auch das RED-Material mit unterschiedlichen Auflösungen verarbeiten muss stärker als bei reinem 4K-Material.

Bei HEVC gibt es nur minimale Unterschiede, hier spielt die eGPU keine große Rolle. Und bei H.264 gibt es eine leichte Verbesserung mit einer eGPU, wenn ich das Video in der gleichen Auflösung exportiere. Anders beim Export in einer kleineren Auflösung, hier legt die Exportgeschwindigkeit mit einer eGPU deutlich zu.

Auffällig ist, dass fast alle Grafikkarten nahe beieinander liegen. Geht es darum Material zu Skalieren oder skaliertes Material zu verarbeiten, haben die leistungsstärkeren Vegas und die WX8200 die Nase vorn. Unerklärlich ist das Verhalten der Vega 64, die mal langsamer und mal schneller ist.

Somit kann sich auch bei der Arbeit mit Premiere eine eGPU bezahlt machen.

Apple Final Cut Pro X

Das sehr beliebte Videoschnittprogramm von Apple zeigt sich beim Videoschnitt sehr dankbar über eine eGPU. Die Arbeit läuft flüssiger und das Abspielen ruckelfrei.

Beim Exportieren kann man auch sehr schön sehen, wie eine Grafikkarte die Arbeit beschleunigt. Speziell mit dem Codec ProRes 422 HQ wird der Export deutlich schneller und wenn Material skaliert werden muss, macht es sich nochmal deutlich positiv bemerkbar. In der Aktivitätsanzeige kann man auch sehr schön sehen, wie sich Grafikkarte und CPU die Aufgabe teilen.

Beim Export im HEVC konnte ich wieder feststellen, dass eine Grafikkarte unter Umständen keinen Einfluss auf die Geschwindigkeit hat. Das betrifft aber nur das Quellmaterial mit dem Codec ProRes 422 HQ. Mein erstes Video, welches im H.264 aufgenommen wurde, zeigt in der Tat eine Beschleunigung beim Export.

Beim Export in H.264 sieht es wieder ähnlich aus, die Grafikkarte hat hier keinen großen Einfluss, außer es wird beim Export skaliert.

Etwas irritiert war ich von einigen Ausreißern mit Final Cut Pro X. Mal war eine Vega 64 langsamer, mal war sie schneller. Auch ist es komisch, dass der Export im H.264 mit der Radeon Pro 580 deutlich langsamer gegenüber der internen GPU ist. Das ließ sich nicht nachvollziehen.

Ein kurzer Test mit der ersten Version von Catalina und der neuen schnellen Grafikkarte RX 5700XT zeigt übrigens, dass die Anpassung noch nicht optimal ist. Die Zeiten sind meist langsamer als die der Vega 56/64.

Davinci Resolve 15

Davinci Resolve ist wegen seiner sehr guten Implementierung von Grafikkarten bekannt und so war es spannend zu sehen, wie es abschneidet.

Egal bei welchem Codec und mit welchem Ausgangsmaterial – eine eGPU bringt immer eine deutliche Beschleunigung. Alle Grafikkarten sind auf einem ähnlichen Niveau. Wenn skaliert werden muss, können sich die Vegas/WX8200 leicht absetzen. Manchmal ist aber auch die Vega 64 ein negativer Ausreißer.

Auch hier kann man in der Aktivitätsanzeige deutlich sehen, eine schnelle Grafikkarte bringt nicht unbedingt eine Beschleunigung, weil der Grafikprozessor einfach weniger ausgelastet wird.

Die CPU wird auch bei allen Aufgaben deutlich gefordert, so arbeiteten CPU und GPU Hand in Hand.

Fazit

Sehr ernüchternd ist das Ergebnis bei den Programmen von Adobe. Ob Photoshop oder Lightroom, die GPU findet kaum Verwendung. Inwieweit sich das mit den ganz neuen Versionen 2020 verändert hat, muss ich noch klären. Allerdings zeigen erste Tests, das Adobe seine Versprechen noch nicht eingelöst hat. Da sollte man noch auf ein paar Updates warten. Da hier aber auch Apple mit seiner Implementierung der externen Grafikkarten einen großen Einfluss hat, merkt man mit jedem Update. Selbst ein Sicherheitsupdate kann einen Einfluss haben.

Zum Beispiel hat nach dem letzten Sicherheitsupdate von macOS Mojave, da hat die Grafikkarte mit der Radeon RX590 nicht mehr funktioniert. Eine Begrüßung mit weißem Bildschirm war die Folge.

Ein anderer Punkt ist die erste Version von Catalina, hier machen eGPUs generell noch Probleme und das die Geschwindigkeit beim Export in Final Cut Pro niedriger wurde, ist nur einer der Punkte. Daher würden wir auf einem Produktions-Mac erst einmal abraten.

Ein wenig überrascht war ich über die Auswertung der GPU-Auslastung. Beispielsweise bei Photoshop und Luminar konnte man sehr schön sehen, dass eine schnellere Grafikkarte nicht mehr Geschwindigkeit bringt. Wenn eine Radeon Pro 580 mit rund 50 Prozent ausgelastet wurde, waren es bei einer Vega 56 vielleicht nur rund 10 Prozent. Das spiegelt sich auch in den Zeiten für die Stapelverarbeitung wieder. Und noch etwas anderes war auffällig, bei einer schnelleren Grafikkarte, ging die CPU-Auslastung ein wenig zurück.

Ein ähnliches Bild, was die Auslastung der schnellen Grafikkarten betrifft, konnte ich auch bei den Videoschnittprogrammen feststellen. Ob und wie die externe Grafikkarte genutzt wird, ist von mehreren Faktoren abhängig. Dem Codec, ob das Material skaliert werden muss und dem Grafikkartenprozessor. Auch hier bringt eine schnellere Grafikkarte kaum mehr Leistung. Ganz im Gegenteil, da kann eine Vega 64 durchaus mal zur Bremse werden. Das sich das aber mit jedem Update ändern kann, hat dieser Langzeittest auch gezeigt.

Also bringt eine externe Grafikkarte mehr Leistung am Mac Mini 2018?

Eindeutig ja, den nicht nur die Geschwindigkeit beim Export kann sich erhöhen auch die gefühlte Geschwindigkeit beim Bildaufbau verbessert sich mit einer externen Grafikkarte.

Doch welche kaufen?

Eine Vega- oder WX8200-Grafikkarte wird sich für die meisten Anwender nicht rentieren. Und die gute Nachricht ist, Grafikkarten mit einem Radeon RX-Chip reichen vollkommen aus. Da kann man ganz nach eigenem Geschmack zwischen einem Sonnet Breakaway Puck 570 , einer Blackmagic eGPU 580 und einem externen Gehäuse mit einer Radeon RX590 wählen.

Noch ein Hinweis zum Sonnet Puck, ich konnte die überarbeitete Version nachtesten. Das Netzteil ist jetzt nicht nur kleiner geworden, auch die Geräuschentwicklung hat sich leicht verbessert.

Antivirus-Software für Windows 10 im Test

Das AV-Test Institut hat 19 Antivirusprogramme für private Anwender unter Windows 10 getestet. Drei Produkte haben die maximale Punktzahl erreicht, Windows Defender hat dieses Ziel nur knapp verfehlt.

Das Magdeburger AV-Test Institut hat 18 Antivirusprogramme geprüft, die ihre Hersteller zur Zertifizierung eingereicht hatten. Zum Vergleich ist auch wieder der bei Windows 10 serienmäßige Microsoft Windows Defender dabei. Die ausführlichen Tests haben im September und Oktober unter Windows 10 (64 Bit) stattgefunden. Der vorherige Testbericht unter Windows 10 ist Anfang August erschienen. Demgegenüber fehlen diesmal Comodo und F-Secure, dafür ist Protected.net Total AV mit dabei. Ansonsten ist das Testfeld bis auf einige Versionsänderungen gleich geblieben.

So wird getestet

Geprüft wird wie üblich in den drei Kategorien Schutzwirkung, Geschwindigkeit und Benutzbarkeit. Die Schutzprogramme müssen knapp 26.000 Schädlinge erkennen und abwehren, die nicht älter als vier Wochen sind. Zudem werden sie im so genannten Real-World-Test mit 335 tagesaktuellen Schädlingen konfrontiert (0-Day-Malware). Die Tester prüfen, wie sehr die Antivirusprogramme gängige Alltagsabläufe ausbremsen, etwa den Aufruf von Web-Seiten, Downloads, das Kopieren von Dateien oder die Installation und Benutzung legitimer Software. Die Bewertung der Benutzbarkeit ergibt sich aus Fehlalarmen, die bei solchen Vorgängen auftreten.

In jeder Kategorie gibt es maximal sechs Punkte, in der Summe also höchstens 18. Diejenigen Produkte, die insgesamt mindestens zehn Punkte und in jeder Kategorie wenigstens einen Punkt erreichen, erhalten ein Zertifikat. Zusätzlich vergibt AV-Test das Prädikat „Top Product“ für Lösungen, die in allen Testkriterien hervorragend abschneiden und insgesamt 17,5 Punkte oder mehr erzielen.

Die Testergebnisse
Die Mindestanforderungen für ein AV-Test-Zertifikat haben alle Kandidaten mühelos erfüllt. Die vollen 18 Punkte haben diesmal Bitdefender, Kaspersky Lab und Norton/Symantec erreicht. Knapp dahinter folgen acht Produkte, darunter Windows Defender, denen nur ein halber Punkt fehlt. Diese 11 Schutzlösungen erhalten das AV-Test-Prädikat „Top Product“. An der Spitze geht es also weiterhin recht eng zu.

Außer den Top 3 haben sechs weitere Antiviruslösungen die vollen sechs Punkte für die Schutzwirkung erzielt. Die meisten Produkte in diesem Test bieten eine gute bis sehr gute Malware-Erkennung. Erst zum Ende der Ergebnisstabelle hin fällt die Schädlingserkennung deutlich ab. Beim Schlusslicht Total AV ist die Schutzwirkung zumindest im Real-World-Test indiskutabel: unter 80 Prozent Malware-Erkennung im September und sogar unter 60 Prozent im Oktober.

Ausgebremst
AV-Test hat die Bremswirkung der Schutzprogramme auf einem Standard- und einem High-End PC geprüft. Dabei haben sich auch diesmal nur wenige auffallende Resultate gezeigt. Unterschiede zwischen beiden Rechnern sind zwar messbar, in der Praxis meist jedoch kaum zu spüren. Die Geschwister Avast und AVG bremsen beim Aufruf populärer Websites am stärksten, wenn auch auf niedrigem Niveau (um 20 Prozent). Bei der Installation gängiger Software machen sich fast alle Kandidaten am deutlichsten bemerkbar. PC Pitstop bleibt unter zehn Prozent, Kaspersky knapp darüber. Vor allem Malwarebytes Premium, Check Point ZoneAlarm und Total AV treten hierbei weitaus kräftiger auf die Bremse, BullGuard liegt ebenfalls über dem Durchschnitt. Malwarebytes verlangsamt auch den Start gängiger Anwendungen merklich. Das Kopieren von Dateien wird nur durch Avira und Bullguard ein wenig abgebremst (um 20 Prozent). Bei Downloads halten sich alle Produkte unauffällig im Hintergrund.

Falscher Alarm
Bei der Zahl der Fehlalarme (Kategorie Benutzbarkeit) fällt vor allem ein Testkandidat zum wiederholten Mal aus dem Rahmen: PC Pitstop mit 55 Fehldiagnosen. Die sieben Falschdiagnosen bei K7 nehmen sich dagegen beinahe harmlos aus. Avira, Check Point ZoneAlarm, Kaspersky, McAfee und Vipre haben hingegen alle Tests absolviert, ohne auch nur einmal falschen Alarm auszulösen. Während beim Surfen im Web auch diesmal wieder kein einziges Programm Fehlalarme produziert hat, haben bei System-Scans (vollständige Prüfung eines sauberen Systems) viele Kandidaten mindestens einmal fälschlich Alarm geschlagen. Abgesehen von PC Pitstop liegt die Fehlerquote aller Produkte an der Grenze des Erträglichen oder darunter – gemessen daran, dass beim System-Scan fast 1,4 Millionen virenfreie Dateien zu überprüfen waren.

Die Ergebnistabelle ist nach der letzten Spalte sortiert. Darin haben wir mehr Gewicht auf die Schutzwirkung gelegt (60 Prozent), während AV-Test alle drei Kategorien gleichrangig wertet (vorletzte Spalte). In diesem Test ergibt sich daraus der eine oder andere Platztausch im Mittelfeld. Check Point ZoneAlarm klettert drei Plätze nach oben, weil bei gleicher Punktzahl die bessere Schutzwirkung entscheidet.

Asus VivoBook 17 F705QA-BX140T für 379,99 Euro

Das VivoBook 17 von Asus mit Vierkern-Prozessor von AMD und Radeon R7 kostet aktuell bei Otto 40 Euro weniger.

Wer auf der Suche nach einem neuen Notebook ist, kommt mit dem Angebot des Online-Versandhändlers Otto auf seine Kosten. Das normalerweise für 419 Euro angebotene Asus VivoBook 17 F705QA-BX140T kostet aktuell nur 379,99 Euro. Im Lieferumfang befindet sich wahlweise auch eine Lizenz für Microsoft Office 365 Personal für einen Nutzer, die sonst knapp 70 Euro kostet, hier aber kostenlos beiliegt. Das VivoBook von Asus bietet einen 17,3 Zoll großen Bildschirm mit einer Auflösung von 1.600 x 900 Pixeln. Als Prozessor kommt der Vierkern-Prozessor A12-9720P mit bis zu 3,6 GHz von AMD zum Einsatz. Diesem stehen 8 GB schneller DDR4-Speicher zur Seite. Als Massenspeicher ist eine SSD mit 256 GB verbaut. Für die Grafikanzeige sorgt eine AMD Radeon R7.

Laut Asus spiegelt der Bildschirm des VivoBook nicht. Das graue Notebook bietet darüber hinaus Anschlüsse für LAN, 2x USB 2.0, 1x USB 3.1 Typ A, 1x USB 3.1 Typ C, einen Card Reader, einen HDMI-Ausgang sowie eine Kopfhörer-Buchse. Mit dem Netzwerk kann sich das Notebook zudem drahtlos per WLAN-ac verbinden. Bluetooth in Version 4.1 wird ebenfalls unterstützt. Auf dem VivoBook 17 ist Windows 10 vorinstalliert. Der Akku mit 42 Wh soll je nach Anwendung lange Laufzeiten garantieren. Wie lange der Preis von Otto noch gilt, bleibt offen. Laut Anbieter soll das Notebook schon zwei bis drei Tage nach der Bestellung an den Kunden ausgeliefert werden.

WLAN: So erhöhen Sie die Router-Reichweite

Der Weg zum besten WLAN kann lang sein – aber er lohnt sich. Mit den passenden Tools und den richtigen Handgriffen beziehungsweise günstiger Hardware lassen sich sowohl Tempo und Reichweite als auch Stabilität steigern.

Viele kleine Schritte bringen Sie manchmal schneller zum Ziel als ein großer Sprung. Das gilt zum Beispiel beim Aufrüsten des PCs, den Sie mit zusätzlichem Arbeitsspeicher oder einer SSD so schnell machen können wie einen neuen Rechner. Genauso sollten Sie beim WLAN vorgehen: Statt bei Tempo- und Reichweitenproblemen gleich einen neuen Router zu kaufen oder in ein teures Mesh-System zu investieren, sollten Sie zunächst die vorhandenen WLAN-Geräte verbessern. Wir zeigen Ihnen, wie Sie Schritt für Schritt Schwächen im Funknetz aufdecken und beheben und wie Sie gratis oder mit einer geringen Investition mehr Geschwindigkeit und eine größere Abdeckung erzielen. Am besten prüfen Sie nach jedem Schritt, ob Sie Verbesserungen bei WLAN-Tempo oder -Reichweite erzielt haben. Die passenden Tools dafür stellen wir in den Kästen unten vor.

Schritt 1: Einen besseren Platz für den Router finden

Der Router ist die Basisstation fürs WLAN im Heimnetz. Deshalb sollten alle Geräte, die per Funknetz übertragen, eine möglichst gute Verbindung zu ihm haben. In den meisten Fällen dient der WLAN-Router aber auch als DSL-Modem: Daher steht er oft in der Nähe des Telefonanschlusses, also eher unten und in einer Ecke der Wohnung. Das wiederum ist der schlechteste Ort für gutes WLAN. Damit sich Funkwellen möglichst ungehindert ausbreiten, sollte der Router erhöht – zum Beispiel auf einem Regal – und in der Mitte des Bereichs stehen, den sein WLAN abdecken soll. Denn fast alle Router nutzen Rundstrahlantennen, die das WLAN-Signal fast kugelförmig in alle Richtungen abgeben.

Für die optimale Platzierung sollten Sie den DSL-Router also von der Telefondose entfernen. Am einfachsten erledigen Sie das mit einem längeren DSL-Kabel zwischen TAE-Dose und dem WAN-Anschluss des Routers. Bis zu 20 Meter Kabellänge sollten kein Problem sein, auch eine größere Entfernung ist drin: Wie weit Sie die DSL-Leitung zu Hause verlängern können, hängt davon ab, wie weit Ihr DSL-Anschluss von der Vermittlungsstelle des DSL-Anbieters entfernt ist, denn je länger diese „last mile“ ist, desto mehr leidet die Datenrate unter der Signaldämpfung. Fertige 20-Meter-Kabel kosten rund 20 Euro. Günstiger sind selbst konfektionierte Kabel.

Wollen Sie kein langes Kabel durch die Wohnung legen, muss die Telefondose näher zum optimalen Routerstandort: Das ist teuer oder aufwendig. Das Verlegen der Telefondose kostet bei der Telekom 100 Euro inklusive zehn Meter Installationskabel. Sie können eine zusätzliche Telefondose auch selbst setzen und per Telefonkabel mit der ersten TAE-Dose verbinden. Aber auch hier müssen Sie die Kabel möglichst unauffällig verlegen.

Das gleiche Problem haben Sie, wenn nicht der Router, sondern ein DSL- oder Kabel-Modem für den Internetzugang sorgt: Dann können Sie zwar ein Standard-Ethernet-Kabel zur Verbindung nutzen und so bis zu 100 Meter überbrücken. Doch auch hier sollte das Kabel so verlegt sein, dass es nicht zur Stolperfalle wird. Können Sie den Router nicht versetzen, erreichen Sie vielleicht eine bessere WLAN-Verbindung, wenn Sie ihn vertikal statt horizontal aufstellen oder etwas drehen: Dadurch nehmen die Funkwellen einen anderen Weg, über den sie dann WLAN-Clients wie den PC oder den Fernseher ungestörter erreichen. Wo Sie den Router am besten hinstellen und ob ein neuer Standort tatsächlich das Funknetz verbessert, prüfen Sie mit dem Gratis-Tool Heatmapper .

Möglicherweise stört eine USB-3.0-Festplatte oder ein Stick am Router die WLAN-Übertragung über 2,4 GHz: Das kann bei schlecht geschirmten USB-Anschlüssen vorkommen. Wenn Sie den Massenspeicher am Router trotzdem als NAS nutzen wollen, suchen Sie im Routermenü nach einer Option, die die USB-Übertragung auf 2.0-Tempo reduziert, um Interferenzen mit dem WLAN auszuschließen.

Schritt 2: WLAN-Leistung der Fritzbox verbessern

Lässt sich der Router nicht optimal platzieren, versuchen Sie stattdessen, seine WLAN-Leistung per Software-Einstellungen zu steigern. Prüfen Sie dafür, ob er mit der maximalen Sendeleistung arbeitet: Haben Sie eine Fritzbox, finden Sie die entsprechende Einstellung im Menü unter „WLAN –› Funkkanal –› Funkkanal-Einstellungen“. Markieren Sie „Funkkanal-Einstellungen anpassen“ und klicken Sie auf „Weitere Einstellungen“. Der Wert bei „Maximale Sendeleistung“ sollte auf „100%“ stehen.

Grundsätzlich lohnt sich auch immer ein Firmware-Update beim Router: Neben neuen Funktionen und Sicherheits-Updates kann es auch Verbesserungen beim WLAN bringen. Fritzbox-Modelle profitieren etwa durch Updates von einer effizienteren Suche nach einem optimalen Funkkanal und verteilen die WLAN-Clients per Bandsteering sinnvoller auf die Funkfrequenzen.

Sie können den Router auch manuell veranlassen, nach einem anderen Funkkanal zu suchen. In der Fritzbox erledigen Sie das zum Beispiel über „WLAN –› Funkkanal –› Autokanal aktualisieren“. Das ist vor allem dann sinnvoll, wenn Sie gerade jetzt ein schnelles und stabiles WLAN benötigen, denn die Störeinflüsse auf Ihr Funknetz können sich jederzeit verändern.

Der Router ermittelt den optimalen Kanal anhand der Signalinformationen an seinem Standort. Für die Übertragung zu einem entfernten Client muss dieser nicht die beste Wahl sein. Benötigen Sie für einen bestimmten Client ein schnelles WLAN, zum Beispiel für den PC, auf dem Sie Online-Videos schauen, müssen Sie die Störeinflüsse dort messen. Dazu nutzen Sie am besten Inssider Lite und stellen im Router den Kanal ein, der optimal für diese Verbindung ist.

Aktuelle Router bieten viele Funktionen, mit denen sie den Datenverkehr im WLAN ordnen, um das Tempo im gesamten Netz zu verbessern: zum Beispiel Bandsteering, mit denen Clients auf das bessere Frequenzband umgeleitet werden; die Nutzung breiterer Funkkanäle wie 40 MHz über 2,4 GHz und 160 MHz über 5 GHz; Beamforming, damit der Router seine Antennenleistung in Richtung eines bestimmten Clients verbessert; und Multi-User-Mimo, wodurch der Router mehrere Clients gleichzeitig statt hintereinander bedienen kann. Aktivieren Sie diese Funktionen. Allerdings müssen auch die Clients diese Funktionen unterstützen, damit das Funknetz schneller wird (siehe Schritt 4).

Wenn die Software-Optimierung nicht ausreicht, können Sie den Router auch hardwareseitig aufrüsten mit besseren Antennen. Prüfen Sie, ob sich bei Ihrem Router die Antennen austauschen lassen und ob es passende Ersatzantennen gibt. Da die maximale Sendeleistung des Routers gesetzlich vorgegeben ist, können neue Antennen nur dadurch eine verbesserte WLAN-Verbindung erzielen, dass sie die Signale stärker in eine bestimmte Richtung bündeln, statt sie gleichmäßig in alle Richtungen abzustrahlen. Sie erhöhen damit die Reichweite des Routers auf Kosten der räumlichen Abdeckung, was vor allem Vorteile bringt, wenn Sie das WLAN-Tempo für weiter entfernte Clients – etwa in einem anderen Stockwerk – erhöhen wollen.

Generelle Voraussetzung für den Einsatz einer alternativen Antenne ist aber, dass die Geräte mit einem RP-SMA-Schraubanschluss ausgestattet sind, sodass sich die vorhandene Antenne austauschen lässt. Eine Fritzbox mit einem RP-SMA-Schraubanschluss ist ganz einfach am goldenen Stecker zu erkennen – wenn Sie nicht sicher sind, sehen Sie im Handbuch des Routers nach. Im Internetversandhandel bekommen Sie zu Preisen zwischen 10 und 100 Euro eine gut sortierte Auswahl an WLAN-Antennen, die einen Leistungsgewinn von 3 bis 25 dBi (Dezibel isotrop) versprechen. Die werkseitig montierten Stummelantennen an der Fritzbox strahlen das Funksignal rundum im 360-Grad-Winkel ab. Sie erzielen damit zwar nur eine relativ geringe Reichweite, aber einen großen Radius, der theoretisch in alle Richtungen die gleiche Feldstärke aufweist und deshalb mit 0 dBi Leistungsgewinn angegeben ist. Für viele Fritzboxen ohne RP-SMA-Schraubanschluss wie die Modelle 7590 beziehungsweise 7490 gibt es spezielle Antennensets von Frixtender .

So finden Sie den optimalen Router-Standort

Den Router platzieren Sie dort, wo sein Funksignal den Wohnbereich am besten abdeckt oder bestimmte Clients mit guter Signalqualität erreicht. Wo dieser Standort ist, finden Sie mit Heatmapper heraus. Installieren Sie das englischsprachige Tool auf einem Notebook, das mit dem Router verbunden ist. Nach dem Start hinterlegen Sie einen Grundriss der Wohnung (Option: „I have a map image“) oder beginnen mit einem karierten Arbeitsblatt (Option: „I don’t have a map image“). Markieren Sie zum Start der Messung per Klick auf den Grundriss Ihren Standort. Nun gehen Sie mit dem Notebook durch die Wohnräume und klicken an wichtigen Positionen in die Grundriss-Karte. Bei jedem Klick registriert Heatmapper die Signalstärke aller WLANs, die das Notebook an diesem Standort empfängt. Sind Sie mit der Messung durch, beenden Sie sie per Rechtsklick. Nun färbt Heatmapper die Karte entsprechend der gemessenen Signalstärke: Grüne Bereiche stehen für sehr guten WLAN-Empfang, Gelb signalisiert eingeschränkte WLAN-Versorgung, und in orangefarbenen Regionen bestehen Funklöcher. Wenn Sie zu wenig Grün sehen oder nur in den falschen Bereichen, versetzen Sie den Router und messen erneut.

Schritt 3: Besseres WLAN mit Repeater und Powerline

Lässt sich am Router das Funknetz nicht verbessern, müssen Sie in zusätzliche WLAN-Geräte investieren, um das Routersignal in besserer Qualität zum Client und wieder zurück zu transportieren.

Am einfachsten und meist auch am günstigsten lässt sich das mit einem WLAN-Repeater erreichen. Sie setzen den WLAN-Verstärker auf halbem Weg zwischen Router und dem Bereich, den Sie mit stärkerem WLAN erreichen wollen, in eine Steckdose. Bei der Auswahl für ein Gerät achten Sie darauf, dass der Repeater den gleichen WLAN-Standard wie der Router nutzt sowie die gleiche maximale Datenrate übertragen kann, damit er das WLAN-Tempo des Routers nicht begrenzt. Zumindest sollte er nicht langsamer arbeiten als der schnellste Client, den er anbinden soll. Sind Router und Clients im Funknetz dualband-fähig, sollte das auch der Repeater sein.

Eine höhere Datenrate erzielen Sie meist mit einem Access Point : Er verkürzt die Strecke, die WLAN-Signale überbrücken müssen, weil ein Teil des Datentransfers störungsfrei per LAN-Kabel erfolgt. Meist verbinden Sie auf diese Weise Router und Access Point. Den stellen Sie dann dort auf, wo Sie ein gutes WLAN-Signal benötigen. Die meisten Access Points lassen sich auch als WLAN-Brücke beziehungsweise im Client-Modus betreiben: So bringen Sie einen Client, der nur über einen LAN-Anschluss verfügt, ins WLAN. Viele Repeater mit einem LAN-Anschluss lassen sich auch als Access Point einsetzen. Dann gibt es im Browsermenü eine entsprechende Option, mit der Sie zwischen den beiden Funktionen wechseln können.

Beim Kauf des Access Points (AP) sollten Sie auf jeden Fall berücksichtigen, dass sein LAN-Tempo dem des Gerätes anspricht, mit dem Sie ihn per Kabel verbinden: Beim Anschluss an einen aktuellen Router sollte also auch der AP über einen Gigabit-LAN-Port verfügen. Der Nachteil eines APs: Sie müssen im Gegensatz zum Repeater auf jeden Fall ein Kabel in der Wohnung verlegen.

Dieses Problem umgehen Sie mit einem WLAN-Powerline-Adapter . Er arbeitet wie ein Access Point, nutzt aber statt des LAN-Kabels die Stromleitung, um die Datenpakete zum WLAN zu transportieren. Dort, wo Sie das WLAN benötigen, stecken Sie ihn in eine Steckdose. Ein zweiter Powerline-Adapter in der Nähe des Routers ist die Gegenstelle für das Stromnetzwerk: Ihn verbinden Sie mit einem kurzen LAN-Kabel mit einem Ethernet-Anschluss des Routers. Wie bei WLAN und anders als beim LAN-Kabel ist die Datenübertragung per Stromleitung störenden Einflüssen unterworfen. Die bessere Reichweite bezahlen Sie also eventuell mit einer geringeren Transferrate. Außerdem benötigen Sie für die Powerline-Verbindung mindestens zwei Adapter, können aber einen zusätzlichen WLAN-Powerline-Adapter in ein Powerline-Netz einbinden.

Die meisten Repeater, Access Points und WLAN-Powerline-Adapter lassen sich im Menü so einstellen, dass sie die WLAN-Infos wie SSID und Passwort direkt vom Router übernehmen, damit sich alle WLAN-Geräte mit der Funkstation verbinden können, die an ihrem derzeitigen Standpunkt das beste Signal liefert.

Schritt 4: WLAN in den verbundenen Clients verbessern

Zu einer WLAN-Verbindung gehören immer zwei Geräte – Sender und Empfänger. Deshalb bringt es wenig, wenn Sie nur Ihren Router optimieren, aber in den WLAN-Clients wie PC, Notebook oder Smartphone veraltete Funk-Hardware arbeitet. Am besten rüsten Sie diese auf, damit sie beim WLAN-Standard dem Router entspricht. Clients, bei denen Sie möglichst hohe WLAN-Datenraten erreichen wollen, sollten darüber hinaus auch bei der Anzahl der Mimo-Streams und der maximalen Kanalbandbreite möglichst nahe bei den Werten des Routers liegen, also zum Beispiel bei 4×4-Mimo-Streams und 160 MHz Kanalbandbreite für eine Fritzbox 7590 . Damit der Router das WLAN effizient verwalten kann, sollten außerdem so viele WLAN-Clients wie möglich Dualband-Funk beherrschen und MU-Mimo unterstützen.

Bei Geräten, deren WLAN-Hardware sich nicht oder nur mit sehr großem Aufwand nachrüsten lässt, etwa bei Smartphones und Tablets, sollte die WLAN-Ausstattung Einfluss auf die Kaufentscheidung haben. Notebook und PC können Sie dagegen meist problemlos mit einem zusätzlichen WLAN-Adapter ausrüsten wie einer externen Lösung für USB oder einer Steckkarte zum Einbau in einen PCI-Express-, Mini- PCI- oder M.2-Steckplatz: Beim Notebook muss diese zur Anzahl der eingebauten Antennen passen.

Als Gratis-Lösung bietet sich an, Geräte per LAN-Kabel mit dem Router zu verbinden, die bislang per WLAN ins Heimnetz eingebunden sind – zum Beispiel ein Notebook, das nur stationär eingesetzt wird, oder der Fernseher. Auf diese Weise machen Sie Übertragungskapazitäten für die verbleibenden WLAN-Clients frei.

Schritt 5: Flächendeckende WLAN-Mesh-System einsetzen

Haben die vorangegangenen Schritte nichts geholfen, und Sie wünschen sich immer noch mehr WLAN-Tempo und eine bessere Reichweite? Dann kommt ein WLAN-Mesh-System in Frage. Das sind Sets aus zwei oder drei WLAN-Stationen: Sie lassen sich für eine optimale Abdeckung in der Wohnung oder auf verschiedenen Stockwerken platzieren. Dabei stehen sie miteinander per WLAN in Kontakt und bilden so ein großflächiges Funknetz mit einer SSID und einem Passwort.

Das lässt sich zwar auch bei einer Kombination aus Router und Repeater einrichten, doch die WLAN-Systeme sind meist besser aufeinander abgestimmt, was den Clients den Wechsel zwischen den verschiedenen Stationen erleichtert. Schließlich verwalten Sie das gesamte WLAN-System über ein gemeinsames Webmenü, womit sich zum Beispiel bei allen Stationen ein Firmware-Update gleichzeitig einspielen lässt oder Änderungen bei den WLAN-Einstellungen sich sofort im gesamten Mesh-System auswirken.

Einen besonders hohen Tempozuwachs versprechen vor allem Systeme mit Triband-Technik: Sie nutzen einen separaten Funkbereich ausschließlich für die Weiterleitung der Datenpakete zwischen den Stationen, sodass die Verbindung zu den WLAN-Clients dadurch nicht gebremst wird.

Beim Einsatz eines Mesh-Systems kommt eine Station per LAN-Kabel an den Router, um die Internetverbindung herzustellen. Anschließend deaktivieren Sie das WLAN im Router, damit ausschließlich das Mesh-System das Funknetz bereitstellt. Probleme kann es geben, wenn andere Heimnetzgeräte per LAN-Kabel mit dem Router verbunden sind. Die lassen sich aus dem WLAN dann nur erreichen, wenn das Mesh-System im Access-Point-Modus arbeitet: Diese Funktion unterstützen manche Systeme aber entweder gar nicht, erst nach einem Firmware-Update – oder die Funktion ist im Einstellungsmenü schwer zu finden.

So entlarven Sie WLAN-Störer

Wenn das WLAN bei einem bestimmten Heimnetzgerät nur langsam ankommt, sollten Sie prüfen, ob es an der Schwäche des eigenen Routers oder an störenden Funknetzen in der Nachbarschaft liegt. Dazu installieren Sie das Gratis-Tool Inssider Lite : Es zeigt die Signalstärke der verschiedenen WLANs am Standort des Clients sowie deren Verteilung über die Funkkanäle. Achten Sie zunächst auf die Spalte „SIGNAL (dBm)“. Dort sind die Funknetze absteigend nach empfangener Signalstärke gelistet: Steht Ihr WLAN ganz oben, ist alles in Ordnung. Ist der Wert für die Signalstärke rot markiert und liegt bei -70 oder schlechter, müssen Sie das Signal Ihres WLANs verbessern – wie in Schritt 3 und 4 beschrieben.

Im unteren Bereich des Tools sehen Sie, wie die einzelnen WLANs über die Funkkanäle der Frequenzen 2,4 und 5 GHz verteilt sind. Auch hier sollte die Markierung für Ihr WLAN am höchsten sein, und außerdem sollten möglichst wenige andere WLANs die gleichen Funkkanäle nutzen. Sehen Sie Kanalbereiche, auf denen weniger WLANs arbeiten als auf jenem, den Ihr Funknetz aktuell nutzt, sollten Sie im Router den Funkkanal wechseln.

Die wichtigsten CMD-Befehle für Windows zur Netzwerk-Analyse

Windows stellt leistungsfähige Befehle zur Verfügung, mit denen nicht nur Administratoren und Webmaster, sondern auch Endanwender schnell ihr Netzwerk oder ihre Internetverbindungen überprüfen und konfigurieren können. Wir stellen die wichtigsten Befehle für die Kommandozeile alias CMD von Windows XP, Vista, 7, 8.1 und 10 vor.

Auf den nächsten Seiten stellen wir Ihnen die wichtigsten Windows-Befehle für Ihr Netzwerk und Ihre Internetverbindung vor, die Sie im CMD-Fenster von Windows eingeben können. Sie erfahren unter anderem, wie Sie die Mac-Adresse ermitteln, was es mit Arp auf sich hat, wie Sie die IP-Adresse Ihres Rechners herausbekommen und die Route Ihrer Datenpakete verfolgen. Wie Sie ganz einfach und schnell testen, ob Ihr Rechner überhaupt eine Verbindung ins Internet aufbauen kann und wie die Netzwerk-Konfiguration Ihres PCs konkret aussieht. Falls Sie einen Trojaner auf Ihrem PC vermuten, so stellen wir Ihnen einen Windows-Befehl vor, mit dem Sie eine solche unerwünschte Verbindung aufspüren können und alle geöffneten Internetverbindungen Ihres Rechners anzeigen.

Wir haben die CMD-/Kommandozeilen-Befehle mit Windows XP, Vista und Windows 7 getestet, weil diese Betriebssysteme im professionellen Umfeld/Unternehmenseinsatz immer noch am weitesten verbreitet sind. In der Regel sollten die CMDs aber auch mit Windows 8 funktionieren. Öffnen Sie das CMD-Fenster/die Eingabeaufforderung unter Windows 8, indem Sie „cmd“ in das Suchen-Feld der Seitenleiste von Windows 8 eingeben und in der daraufhin erscheinenden Trefferliste auf „Eingabeaufforderung“ klicken. Noch schneller öffnen Sie die Eingabeaufforderung mit dieser Tastenkombination: „Windows-Taste“ + „R“ drücken und dann „cmd“ eintippen.

Hinweis zur Terminologie: Für alle Windows-Versionen ab Windows 2000 ist die korrekte Bezeichnung für das Fenster, in das Sie die CMD-Befehle eingeben, „Eingabeaufforderung“ beziehungsweise „Kommandozeilen-Interpreter“. Die CMD-Befehle nennt man „Kommandozeilen-Befehle“ oder auch „Windows-Befehle“. Die Bezeichnungen „DOS-Fenster“ und „DOS-Befehle“ sind dagegen streng genommen nicht mehr korrekt und gelten für die Zeit vor Windows 2000. Wir verwenden in diesem Artikel jedoch alle Bezeichungen abwechselnd.

So geht’s mit CMD: Windows-Befehle eingeben

Um die Windows-Befehle einzugeben, gehen Sie immer so vor: Öffnen Sie bei Windows XP eine Eingabeaufforderung über Start, Ausführen. Tippen Sie cmd ein und drücken Sie Return. Unter Vista geben Sie bei „Suche starten“ cmd ein. Unter Windows 7 gehen Sie über den Start-Button zu „Programme/Dateien durchsuchen“ und geben dort „cmd“ ein. Sie Daraufhin öffnet sich ein DOS-Fenster, in dem Sie die Kommandozeilenbefehle eingeben. Wenn Sie einen Befehl eingetippt haben, müssen Sie danach immer Return drücken, um ihn auszuführen. Ruckzuck sehen Sie dann das Ergebnis.

Alternativ können Sie auch die Windows-Taste und zeitgleich die Taste „R“ drücken und dann „cmd“ eingeben, um die Eingabeaufforderungen zu öffnen.

Hinweis: Die Screenshots stammen teilweise von Windows Vista Home, von Windows XP Professional und von Windows 7 Pro. Je nach dem von Ihnen eingesetztem Windows-System kann die Darstellung und die genaue Benennung der Eingabeaufforderung etwas abweichen. Zudem stehen nicht auf allen Rechnern alle DOS-Befehle gleichermaßen zur Verfügung.

Zwei Schnell-Tipps für typische Internetprobleme

Typischer Einsatzzweck: Interneteinstellung erneuern

Problem: Manchmal verschluckt sich der PC bei der Konfiguration des Internetzugangs. Zum Beispiel, weil man ein Konfigurationstool für die IP-Einstellungen ausprobiert hat.

Lösung: Löschen Sie die eingestellten Internetdaten mit ipconfig /release. Und fordern Sie neue IP-Einstellungen mit ipconfig /renew an. Jetzt weißt Ihnen der DHCP-Server eine neue IP-Adresse zu.

Typischer Einsatzzweck: Internetverbindung prüfen

Frage: Hat mein PC noch eine Verbindung zum Internet? Diese Frage stellt man sich, wenn eine oder mehrere Webseiten sich nicht öffnen lassen. Doch liegt das an meinem Rechner/Router oder vielleicht doch an den betreffenden Webseiten?

Lösung: Geben Sie ping www.google.de ein. Die Google-Seite dürfte immer verfügbar sein. Wenn Sie nach wenigen Sekunden die erwarteten Paket-Informationen bekommen, dann können Sie sich mit dem Internet verbinden.

Generelle Tipps zum Konsolenfenster:

1. Falls Sie wissen wollen, welche Windowsversion Ihnen zur Verfügung stellt, geben Sie einfach „ver“ im Konsolenfenster ein. Dabei zählt Microsoft aber anders, als Sie das vermutlich erwarten. Liefert Ihnen der ver-Befehl beispielsweise „6.1“ als Ergebnis, so ist damit Windows 7 gemeint. Auf sehr alten Rechnern ermitteln Sie damit auch die DOS-Version.

Alternativ können Sie auch den Befehl „winver“ auf der Kommandozeile eingeben. Wobei Sie das Kommandozeilenfenster für diesen Befehl nicht einmal benötigen, sondern sogar direkt in der Eingabeaufforderung winver eingeben können.

2. Falls Sie weitergehende Informationen zu einem bestimmten DOS-Befehl benötigen, geben Sie help „und den gesuchten BEFEHL“ ein. Allerdings existiert diese Hilfefunktion nur für gängige DOS-Befehle, bei weniger geläufigen Befehlen wie netsh hilft eine alternative Hilfeanfrage weiter: netsh /?.

3. Wie bei Linux können Sie auf der Kommandozeile mit der „Pfeil nach oben“- und der „Pfeil nach unten“-Taste zwischen bereits eingegebenen Befehlen navigieren und diese damit bequem erneut ausführen.

4. Wenn Sie den Rechner runterfahren wollen und Sie gerade ein DOS-Fenster offen haben, dann können Sie durch Eingabe von shutdown samt dem passenden Parameter den PC runterfahren.

5. whoami: Zeigt Benutzername und Rechnername

Tippen Sie whoami (englisch für wer bin ich?) ein. Windows zeigt Ihnen darauf den Namen Ihres PCs und Ihren Benutzernamen an.

6. cls: Bildschirminhalt löschen

Wenn Sie bereits mehrere Befehle in einem Konsolenfenster eingetippt und dementsprechend viele Ausgaben erhalten haben, verlieren Sie vielleicht den Überblick. Ordnung schafft cls (clear screen) und das Fenster ist wieder leer.

7. path: zeigt Pfade für ausführbare Daten an

Mit path können Sie sich die Verzeichnisse anzeigen lassen, in denen Sie Dateien ablegen, die sich von der Kommandozeile aus direkt starten lassen können ohne dass Sie in das betreffende Verzeichnis wechseln müssen. Sie können Verzeichnisse hinzufügen, indem Sie entweder Path oder das Menü des Windows-Explorers nutzen.

Sie können die in Windows integrierte Datenträgerbereinigungs-Funktion auch im Kommandozeilenfenster nutzen. Geben Sie das diesen Befehl ein (unser Screenshot entstand auf einen Windows 7-PC, der Befehl funktioniert aber auch unter Windows 8.1): cleanmgr.exe/d c:

Gegebenenfalls müssen Sie „c:“ noch durch den Laufwerksbuchstaben ersetzen, der bei ihrem System richtig ist. Die Datenträgerbereinigung von Windows benötigt nun einige Zeit, um die nicht mehr benötigten Dateien auf dem System zu ermitteln und zu berechnen, wie viel Speicherplatz durch das Löschen der Dateien freigegeben werden kann. Bei der Gelegenheit können Sie auch gleich Haken bei „Temporäre Internetdateien“, „Heruntergeladene Programmdateien“ und „Temporäre Dateien“ setzen, um zusätzlichen Speicherplatz freizugeben, der unnötig vom System belegt wird.

Zwischenablage ruck, zuck sicher löschen

Sie müssen mal eben jemand anderes an Ihren PC lassen und wollen vermeiden, dass diese Person den Inhalt der Windows-Zwischenablage sieht? Kein Problem: Mit einem kurzen CMD-Befehl löschen Sie den Inhalt der Zwischenablage sofort.

Öffnen Sie ein CMD-Fenster und geben Sie diesen Befehl ein: echo off | clip . Drücken Sie danach Return.

Wenn Sie jetzt beispielsweise in Word STRG+V drücken, dann fügt Windows nicht ein. Denn die Zwischenablage ist leer.

Der obige Screenshot zeigt die Anwendung von „echo off | clip“. Wir haben zunächst einmal die Zwischenablage mit diesem Befehl gelöscht, aus Versehen geschah das sogar zwei Mal. Danach haben wir wahllos einige Buchstaben eingetippt und diese dann mit STRG+V in die Kommandozeile eingefügt; ebenso gut hätten wir diesen Inhalt auch in jede beliebige Windows-Anwendung wie zum Beispiel Word einfügen können. Anschließend haben wir erneut echo off | clip eingegeben. Als wir danach erneut STRG+V gedrückt haben, war die Zwischenablage leer und es wurde kein Text auf die Kommandozeile eingefügt.

tasklist: Alle laufenden Prozesse anzeigen

Bevor man ins Internet geht oder ein Netzwerk nutzt, möchte man vielleicht wissen, was überhaupt auf dem eigenen Rechner alles läuft und welche Dienste oder Anwendungen den Rechner ausbremsen könnten. Dafür gibt es den Befehl tasklist.

Der Befehl tasklist zeigt eine Liste der Prozesse an, die aktuell auf dem Rechner laufen. Für alle laufenden Anwendungen und Dienste. Auf dem lokalen Rechner oder auf einem Remote-Rechner. Zu jedem Prozess sehen Sie PID, Sitzungsnamen und Sitzungsnummer und vor allem die Speichernutzung. Damit identifizieren Sie Speicherfresser beziehungsweise Anwendungen, die Ihren Rechner ausbremsen..

Mit tasklist /? lassen Sie sich alle Optionen dieses Befehls anzeigen. Tasklist /v liefert eine ausführliche Ausgabe. Tasklist /svc zeigt alle Dienste an, die in jedem Prozess gehostet werden. Wenn Ihnen der Name eines dort angezeigten Dienstes oder Anwendung nichts sagt, dann suchen Sie danach in einer Suchmaschine.

Ausgabe in Datei umleiten

Nicht immer ist es für die Analyse ideal, wenn die Ausgabe von Befehlen auf dem Bildschirm vorbeirauscht. Sondern für die Analyse benötigt der Profi-Anwender besser eine Datei mit allen Daten. Das lässt sich leicht bewerkstelligen: Monitor-Ausgaben von Befehlen können Sie auch in eine Datei umleiten. Ein Beispiel: netstat -o >C:\offeneports.txt erstellt die Text-Datei offeneports neu und speichert darin die geöffneten Ports und die bestehenden Internetverbindungen. Wenn Sie statt des „>“ ein „>>“ verwenden, wird die Ausgabe an den bereits bestehenden Datei-Inhalt angehängt.

Dateien mit Bordmitteln verstecken: Der type-Befehl

Sie können mit dem „>“ TXT-Dateien auch in anderen Dateien verstecken, indem Sie Dateien in Datenströmen verstecken. Das klappt auf Windowssystemen mit dem Dateisystem NTFS, das der Standard bei Windows ist. Mit dem Befehl „type daten.txt > bild.jpg:hide“ hängen Sie die Datei daten.txt an die Datei bild.jpg an. Sie können nun die Datei daten.txt löschen.

Wenn man das Verzeichnis anschaut, sieht man nicht, dass daten.txt in bild.jpg versteckt ist. Auch wenn Sie das Bild in einer Bildarbeitung öffnen, sehen Sie nichts von der darin versteckten Datei!

Wenn Sie die versteckte Datei wiederherstellen wollen, dann geben Sie „more < bild.jpg:hide > daten.txt“ ein. Und schon befindet sich die Datei daten.txt wieder in Ihrem Verzeichnis.

Wichtig: Die versteckte Datei geht verloren, wenn Sie die Bilddatei auf Linux, einen USB-Stick oder einen Windows-Rechner kopieren, der nicht das NTFS-Dateiformat verwendet. Denn NTFS ist zwingend erforderlich für diesen Trick. Weil Sie dafür Alternate Data Streams von NTFS verwenden. Damit lassen sich mehrere Datenströme in einer Datei abspeichern. Mit dem Befehl dir /r können Sie Datenströme anzeigen lassen.

Regeln für Windows-Firewall schnell aufrufen

Von der Kommandozeile aus starten Sie mit „wf“ das Windows-Firewall-Regelwerk. In dem dann erscheinenden Fenster können Sie die seit Vista in Windows eingebaute Firewall konfigurieren.

Diskpart: Festplatten sicher löschen

Microsoft liefert Windows mit dem Kommandozeilen-Tool diskpart.exe aus. Damit können Sie eine Festplatte sicher löschen: Das Tool überschreibt hierzu jeden einzelnen Sektor einer Festplatte mit Nullen. Danach können Sie die Festplatte ruhigen Gewissens zum Elektroschrott werfen oder bei Ebay verkaufen.

Sie starten diskpart.exe mit Eingabe des Befehls „diskpart“ auf der Kommandozeile. Dafür müssen Sie auf dem Windows-Rechner Administratorrechte besitzen. Mit „list disk“ lassen Sie sich alle vorhandenen Datenträger anzeigen. Diese sind durchnummeriert, mit „select disk <Nummer>“ wählen Sie den zu löschenden Datenträger aus. Mit „clean all“ starten Sie dann den Löschvorgang. Der Löschvorgang kann durchaus einige Zeit dauern.

Das Laufwerk, auf dem Windows installiert ist, sollten Sie damit aber nicht löschen können. Sie können aber die Festplatte mit der Windows-System-Partition ausbauen und in einen anderen Rechner einbauen und dort dann überschreiben lassen.

Hauptplatine ermitteln

Mit diesem Kommandozeilenbefehl identifizieren Sie die Hauptplatine Ihres Windows-PCs:

wmic baseboard get product,Manufacturer,version,serialnumber 

Windows 10 von der Kommandozeile aus telefonisch aktivieren

Sie wollen Ihr frisch installiertes Windows telefonisch installieren?

Geben Sie slui 4 auf der Kommandozeile ein. Im daraufhin erscheinenden Drop-Down-Menü wählen Sie „Deutschland“ aus und klicken dann auf „weiter“. Anschließend können Sie auswählen, über welche Telefonnummer Sie die Windows-Aktivierung vornehmen wollen.

So viel zu einigen grundlegenden CMD-Befehlen, die man immer kennen sollte. Ab der nächsten Seite stellen wir nun die wichtigsten CMD-Befehle für Netzwerk und Internet vor.

Was ist die Mac-Adresse?

Jeder Netzwerkcontroller hat eine weltweit einmalige, unverwechselbare und nicht veränderbare Mac-Adresse (Media Access Control), die für die Adressierung der Datenpakete im Internet unverzichtbar ist – die Mac-Adresse ist somit die physische Adresse Ihrer Netzwerkkarte, die sich in der Regel in einem festen EEPROM-Speicher auf der Netzwerkkarte beziehungsweise beim Onboard-LAN-Adapter im Bios-Chip befindet. Die Mac-Adressen werden zentral verwaltet, jede Adresse besteht aus zwölf hexadezimalen Ziffern.

Die hinlänglich bekannten IP-Adressen, die zunächst einmal für die Adressierung der Datenpakete verantwortlich sind, werden auf die Mac-Adressen abgebildet. Bei jeder Internetkommunikation muss also die zu einer IP-Adresse gehörige Mac-Adresse gesucht werden. Dafür ist das Address Resolution Protocol ARP zuständig.

So ermitteln Sie die Mac-Adresse eines Windows-PCs mit Getmac

Wenn Sie Ihr Netzwerk oder Ihren Router konfigurieren, benötigen Sie oft die Mac-Adressen Ihrer Netzwerkadapter. Sie ermitteln seit Windows XP die Mac-Adressen ruckzuck mit dem Tool Getmac.exe. Geben Sie also in der Eingabeaufforderung getmac ein und drücken Sie Enter. Unter Windows gab es früher das Tool winipcfg. Es gehört mittlerweile nicht mehr zum Funktionsumfang von Windows, weil dessen Funktionalität durch den weiter unten vorgestellten Befehl ipconfig /all zur Verfügung gestellt wird. Sie können winipcfg aber nach wie vor installieren .

Mac-Adressen von vielen Geräten finden

Mit Find MAC Addresses von LizardSystems finden Sie die Mac-Adressen von allen in Ihrem Netzwerk angemeldeten Geräten heraus. Für Privatanwender ist das Tool kostenlos.

Mac-Adresse ändern

Hardwareseitig kann man die Mac-Adresse nicht ändern, sie wurde vom Hersteller des Netzwerkgerätes (LAN-Chip, WLAN-Karte etc.) fest in die Hardware „eingebrannt“. Sie können aber die Windows-Registry so manipulieren, dass dort für den LAN-Chip eine andere Mac-Adresse hinterlegt wird. Windows gibt dann nicht mehr die tatsächliche Mac-Adresse Ihres Netzwerkgerätes aus, sondern eine von Ihnen eingetragene Mac-Adresse. Man nennt das Spoofing (vortäuschen, schwindeln). Das Mac-Adress-Spoofing geht unter Windows aber nur mit LAN-Adaptern und nicht mit WLAN-Chips.

Am einfachsten geht das Mac-Adress-Spoofing von LAN-Chips mit dem Gratis-Tool Technitium MAC Address Changer für Windows XP bis Windows 10 und Windows Server 2000 bis 2012.

So funktioniert ARP

Das Address Resolution Protocol ARP übernimmt die Umsetzung der Mac-Adresse zu einer IP-Adresse. Im sogenannten ARP-Cache werden IP-Adressen gespeichert, die bereits in Mac-Adressen aufgelöst wurden. Wird ARP hier nicht fündig, wird eine Rundsendung (Broadcast) an alle im Netzwerk erreichbaren Rechner verschickt, um die Mac-Adresse zur angefragten IP-Adresse zu ermitteln. Das Gerät, zu dem die gesuchte IP-Adresse gehört, antwortet und schickt seine Mac-Adresse. Darauf trägt ARP im anfragenden Rechner die IP-Adresse in den ARP-Cache ein. Alle Anfragen an diesen Rechner werden nun direkt zugestellt. Nach einem Neustart werden alle ARP-Einträge gelöscht – das erreichen Sie auch mit arp -d.

Arp -a zeigt den Inhalt des ARP-Caches an. Arp -s IP-Adresse „Mac-Adresse“ erzeugt einen statischen Eintrag. Arp /? zeigt alle Optionen an. Mit arp -s IP-ADRESSE MAC-ADRESSE verbindet man die IP-Adresse mit der Mac-Adresse. Nach einem PC-Neustart ist dieser Eintrag allerdings verloren.

ARP-Poisoning bzw. ARP-Spoofing

Die Verwendung des ARP-Protokolls zieht ein spezifisches Sicherheitsproblem namens ARP-Poisoning bzw. ARP-Spoofing nach sich. Hierbei weist ein Angreifer einer IP-Adresse eine falsche Mac-Adresse zu und leitet somit Anfragen um.

Neben dem bekannten TCP/IP-Protokollpaar basiert die Internetkommunikation auf einer Reihe weiterer Protokolle, unter anderem auf ICMP, dem Internet Control Message Protocol. ICMP wird für die Übertragung von kurzen Nachrichten verwendet, in erster Linie handelt es sich dabei um Status- und Fehlerinformationen. Der wichtigste Befehl des Internet Control Message Protocol ist ping.

Ping (Paket Internet Groper) ist der Klassiker unter den Netzwerkbefehlen und erste Wahl, wenn Sie schnell testen wollen, ob Ihr Rechner oder Netzwerk ins Internet kommt beziehungsweise eine Website erreichbar ist. Geben Sie dazu „ping IP-Adresse“ oder „ping ww.name-der-gewünschten-website.de“ ein. Also beispielsweise ping www.pcwelt.de. Diese Anfrage nennt man Echo Request. Der angepingte Host antwortet, wenn er erreichbar ist, mit einem Echo Reply. Wenn die Verbindung einwandfrei funktioniert, sollten Sie eine Ausgabe bekommen, die anzeigt, ob von der angepingten Website Datenpakete als Antwort erhalten wurden.

Zur angepingten Website wird die IP-Adresse angegeben (diese ist maßgeblich für die Internetkommunikation, die DNS-Namen dienen ja nur als Erleichterung für die Benutzer), sowie die Zeit, die die 32 Bytes großen Datenpakete benötigen – die so genannte Antwortzeit. Die Ping-Statistik sollte keine verlorenen Datenpakate aufweisen. Sind die Antwortzeiten okay und gehen keine Pakete verloren, dann passt alles. Funktioniert ping dagegen nicht und kommt eine Zeitüberschreitung, dann stimmt etwas mit ihrer Internetverbindung nicht oder die angepingte Website ist nicht verfügbar.

Sie können mit ping auch Ihren lokalen Host prüfen indem Sie die Loopback-Adresse anpingen: ping localhost oder ping 127.0.0.1. Kommt daraufhin die korrekte Antwort, ist IP auf dem Host einwandfrei installiert, was eine Voraussetzung für eine funktionierende Internetverbindung ist. Das Testen des Loopback garantiert aber noch nicht, dass Sie auch ins Internet können, weil durch den Ping auf localhost beispielsweise keine Aussage über Ihr Gateway getroffen wird. Pingen Sie dafür die IP-Adresse Ihres Gateways an. Ist dieses erreichbar, funktioniert zumindest die Verbindung innerhalb Ihres Netzwerks bis zum Gateway.

Ping sendet standardmäßig vier ICMP-Echopakete und zeigt die Zeitspanne, die bis zur Antwort vergehen. Kommt die Antwort nicht innerhalb einer Sekunde, liefert ping einen Time out für das Paket. Wenn Sie ping mit dem Parameter -t eingeben, erfolgt ein Dauerping, den Sie mit CTRL+C abbrechen: ping www.pcwelt.de -t. Die Zeit bis zum Timeout lässt sich mit dem Parameter -w erhöhen. Zu Ping gibt es viele weitere interessante Optionen, zwei stellen wir hier vor: -a löst IP-Adressen zu Hostnamen auf. -n legt die Anzahl der ICMP-Pakete fest (default sind 4).

Achtung: In einigen Fällen liefert der Ping-Befehl falsche Ergebnisse. Und zwar dann, wenn die Windows-Firewall so konfiguriert ist, dass Ping-Befehle grundsätzlich nicht beantwortet werden. Voreingestellt ist dieses Verhalten in öffentlichen oder Domänen-Netzen. So lösen Sie dieses Problem und nutzen Ping trotzdem.

Mit dem Befehl tracert (Vorsicht: Verwechslungsgefahr mit Linux, wo der Befehl traceroute lautet) und den entsprechenden Parametern lassen sich der Weg und alle Zwischenstationen (die so genannten Hops) eines Datenpakets zwischen zwei Hosts anzeigen. Geben Sie beispielsweise „tracert www.pcwelt.de“ ein. Sie erfahren dann, dass das Datenpaket an pcwelt.de über – in unserem konkreten Beispiel siehe Screenshot – acht Hops geht. Angefangen mit der Fritzbox (die unser Standard-Gateway ist) über sechs Zwischenstationen (beispielsweise bei unserem Provider, diversen Routern und Gateways) bis zum Zielserver von pcwelt.de. Sie erfahren zudem, wieviel Zeit das Datenpaket von einer Station zur nächsten benötigt. Für Tracert gibt es unter der Free- und Shareware Visualisierungs-Tools, die eine Art Weltkarte liefern, auf der die Route Ihres Paketes eingezeichnet ist.

Tracert kann sowohl mit einer IP-Adresse als auch mit einem Hostnamen genutzt werden. Zu Hostnamen gibt Tracert die IP-Adresse an.

Der Ausdruck Time to Live TTL bezeichnet übrigens die Lebensdauer eines Datenpaketes im Netz. Maximal kann ein Paket über 255 Router gehen, wobei Time to Live bei jedem Routerübergang (Hop) um eins reduziert wird. Erreicht TTL 0 und konnte es bis dahin nicht zugestellt werden, wird das Paket verworfen.

Pathping ist die Weiterentwicklung der Befehle tracert und ping. Der obere Teil der Ausgabe entspricht weitgehend dem Ergebnis von tracert. Darunter folgte eine ausführliche Analyse mit Informationen zur Weiterleitung der Datenpakete über die einzelnen Hops. Alle Zwischenstationen respektive Router erhalten Pings, anhand deren Antworten berechnet Pathping eine Statistik. Paketverluste und Antwortzeiten werden zu jedem einzelnen Router angezeigt, somit lassen sich Ursachen für Fehler innerhalb einer Route schnell identifizieren.

Geben Sie ipconfig ein um auf einen Blick alle Konfigurations-Einstellungen Ihrer Netzwerkschnittstellen (LAN und Wlan) angezeigt zu bekommen. Sie sehen beispielsweise die derzeit noch nicht so wichtige IP6-Adresse Ihres PCs, dessen IP4-Adresse, die Subnetzmaske und die IP-Adresse des Standard-Gateways, über das Sie ins Internet gehen (das dürfte bei den meisten Heimanwendern die Adresse des DSL-Routers sein). Auch zum für Ihren Rechner zuständigen DNS-Server finden Sie mit ipconfig Informationen.

Wenn Sie wirklich alle Informationen haben wollen, geben Sie ipconfig mit dem entsprechenden Parameter ein: ipconfig /all. Falls Ihr Rechner mehrere Netzwerkcontroller besitzt, liefert ipconfig zu jedem Controller alle Informationen. Mit Ipconfig /release geben Sie Ihre aktuelle IP-Adresse frei. Mit ipconfig /renew fordern Sie anschließend vom DHCP-Server eine neue IP-Adresse an. So können Sie vielleicht Probleme mit einer vom DHCP-Server falsch zugeteilten IP-Adresse beheben.

ipconfig /displaydns

Ipconfig bietet auch Optionen zum Löschen des DNS-Cache (DNS: Domain Name Service). In diesem Cache werden die Ergebnisse von DNS-Anfragen abgelegt, also konkret Webseitenname und die dazu gehörige IP-Adresse. Die Folge: Wenn Sie im Browser eine Webseite aufrufen, die Sie bereits angesurft haben, dann muss dafür keine neuen Anfrage an den DNS-Server gesendet werden. Damit vermeiden Sie etwas Traffic und vor allem wird die Webseite schneller geladen.

Mit ipconfig /displaydns zeigen Sie alle im DNS-Cache vorhandenen Einträge an, siehe den obigen Screenshot, der nur einen kleinen Ausschnitt des DNS-Cache unseres Windows-PCs darstellt. Weil die Liste mit den DNS-Einträgen recht lang ist, empfiehlt es sich den Befehl mit folgender Syntax einzugeben: ipconfig /displaydns | more . Das Pipe-Symbol | erreichen Sie durch die Kombination aus <>-Taste und ALTGR. Danach können Sie bequem durch die Anzeige per Druck auf die Entertaste blättern.

Zu jedem Eintrag finden Sie nicht nur den Domainnamen und die IP-Adresse, sondern auch die Gültigkeitsdauer des jeweiligen Eintrags in Sekunden. Unter den Einträgen im DNS-Cache finden Sie auch die Webseiten, die Ihnen in irgendeiner Form Werbung präsentieren, ohne dass Sie diese Webseiten besucht haben. Das läuft stattdessen über die Werbenetzwerke..

ipconfig /flushdns

Mit ipconfig /flushdns leeren Sie den DNS-Cache. Tippen Sie danach ipconfig /displaydns erneut ein. Nun sollte der Cache leer sein. Doch schon bald finden Sie wieder Einträge. Zum Beispiel wenn Ihr Mailclient Mails abruft. Oder wenn Sie eine Webseite wieder im Browser angesurft haben. Rufen Sie denn erneut den DSN-Cache auf und Sie sehen die entsprechenden neuen Einträge, gegebenenfalls mit den ganzen Werbenetzwerken, die dahinter stehen.

Übrigens: Bei einem Rechner-Neustart löscht Windows den DNS-Cache.

Mit dem Löschen des DNS-Cache von Windows stellen Sie zudem sicher, dass niemand herausfinden kann, aus welchen Webseiten Sie gesurft sind. Denn das Löschen der Browser-History löscht nicht den DNS-Cache von Windows, sondern nur den im Browser gespeicherten Verlauf.

Hinweis: Sie können den DNS-Speicher nur unter Windows mit diesen Befehlen löschen. Der Linux-Kernel cacht nämlich keine DNS-Anfrage, deshalb gibt es keinen zu Windows vergleichbaren Befehl.

Tipp: Falls Sie Windows und parallel Linux nutzen, so müssen Sie auf die jeweils richtige Schreibweise des Befehls achten. Unter Linux heißt er ifconfig und nicht ipconfig. Zudem gibt es iwconfig für die Wlan-Schnittstelle unter Linux.

Mit netstat zeigen Sie alle geöffneten TCP- und UDP-Verbindungen an (UDP ist ein Alternativ-Protokoll zu TCP, das weniger Traffic verursacht, dafür aber nicht über die Kontrollfunktion von TCP verfügt). Zu jeder Verbindung liefert Ihnen netstat das verwendete Internetprotokoll, die IP-Adresse Ihres Rechners samt den dafür benutzten Port – den so genannten Socket, die Ziel-/Remoteadresse und den aktuellen Status, beispielsweise hergestellt (also verbunden). Wenn Sie wirklich alle Netzwerk-Verbindungen anzeigen lassen, geben Sie „netstat -ao“ ein. In diesem Fall werden dann auch UDP-Verbindungen (das a steht für all) und alle Prozess-IDs (o zeigt die PIDs an), die zu einer Netzwerkverbindung gehören, angezeigt.

Mit diesem sehr nützlichen Befehl können Sie Verbindungen zum Internet aufspüren, die überhaupt nicht bestehen sollten, beispielsweise, wenn ein Trojaner oder eine Spyware ins Web funkt. Zur eingehenden Analyse empfiehlt es sich den eingangs empfohlenen Tipp anzuwenden und die Ausgabe von netstat in eine Datei umzuleiten.

nbtstat liefert die Verbindungsinformationen für NetBIOS over TCP/IP (NBT), es entspricht von der Funktionalität her also ipconfig. Remoterechner können via IP-Adresse oder über ihren Hostnamen angesprochen werden. Der Befehl hat etliche Parameter, wie gehabt gibt die Hilfefunktionen Auskunft.

Die Befehlsfamilie um net stellt ein Reihe von Funktionen zur Verfügung, die nicht alle unbedingt mit dem Netzwerk in Verbindung stehen. Die net-Befehle haben zudem nichts mit dem Microsoft .net Framework zu tun. Einige Beispiele: net accounts listet die Benutzerkontenrichtlinien auf. Net localgroup zeigt die vorhandenen lokalen Benutzergruppen an. Mit net localgroup /add Tester fügen Sie eine neue Benutzergruppe namens Tester hinzu. Net localgroup /add Tester neuertester fügt den User neuertester hinzu. Mit net user neuer_nutzer neues_passwort /add legen Sie den Benutzer neuer_nutzer mit dem Passwort neues_passwort an.

Net share zeigt alle Freigaben des lokalen Rechners an. Mit net share Name_des_freigegebenen_Laufwerks lassen Sie sich Details zu der angegebenen Freigabe anzeigen. Mit „net session“ sehen Sie, wer mit dem Server verbunden ist – dieser Befehl macht natürlich nur auf einem Serversystem und nicht auf dem Client Sinn. Net /? zeigt alle verfügbaren net-Befehle an. net help BEFEHL liefert die passende Hilfeinformation.

Netsh

Netsh stellt eine Shell für Netzwerkbefehle dar. Ein Beispiel: Sie können das derzeit kaum benötigte IPV6 deinstallieren und die IP-Konfiguration komplett zurücksetzen (Install-Zustand) mit den Befehlen „netsh interface ipv6 uninstall“ und „netsh interface ip reset c:\reset.txt.“

Netsh für WLAN

Mit „Netsh wlan show drivers“ lassen Sie sich alle Informationen zum verbauten WLAN-Modul und den dafür installierten Treibern anzeigen. Von oben nach unten liefert dieser Befehl Modellname, Anbieter des Moduls, Treiber-Version, -Datum und die verschiedenen Treiber-Dateien. In der Zeile „Unterstützte Funktypen“ steht, ob das WLAN-Modul auch 5 GHz unterstützt. Steht dort nur 802.11b, 802.11g und 802.11n, dann funkt das WLAN-Modul nur über 2,4 GHz. Steht dort aber 802.11a oder 802.11ac, dann können Sie sich mit ihm auch über 5 GHz mit einem passenden Router verbinden.

Danach folgen Angaben zum Verschlüsselungsverfahren der WLAN-Adapter. „WPA2-Personal CCMP“ ist Pflicht – dann können Sie WPA2 nutzen. WPA2-Enterprise ist nur für Unternehmen interessant, bei denen ein spezieller Server den Zugang zum WLAN verwaltet. CCMP steht hier für Counter Mode Cipher Block Chaining Message Authentication Code Protocol: Ein Verschlüsselungsprotokoll, das den Verschlüsselungsalgorithmus AES nutzt. Oft auch als WPA2-AES. Bei der Fritzbox von AVM als WPA2 (CCMP) bezeichnet.

Gespeicherte WLAN-Passwörter mit netsh anzeigen

Geben Sie CMD im Eingabefeld links unten ein und klicken Sie mit der rechten Maustaste auf den gefundenen Eintrag und wählen dann im Kontextmenü „Als Adminstrator ausführen“. Geben Sie nun folgenden Befehl ein: netsh wlan show profile

Der Befehl listet alle WLAN-Profile auf, mit denen der Rechner jemals verbunden war. Um nun das Passwort eines Netzwerks einzublenden, geben Sie den folgenden Befehl ein: netsh wlan show profile NETZWERK-NAME key=clear
(ersetzen Sie NETZWERK-NAME durch den Namen des gewünschten WLAN-Profils)

Das Passwort wird in der Ausgabe unter „Sicherheitseinstellungen“ und „Schlüsselinhalt“ angezeigt.

Voraussetzung: Sie waren mit dem besagten WLAN bereits einmal verbunden und haben dessen Passwort gespeichert.

Starten Sie Ihren eigenen WLAN-Hotspot

Windows bietet seit Windows 7 die Funktion Virtual Wifi, mit der Sie Ihren PC in einen WLAN-Hotspot verwandeln. Vorausgesetzt in Ihrem PC ist eine WLAN-Karte verbaut.

Verbinden Sie Ihren PC also mit einem LAN-Anschluss und geben Sie dann im Startmenü „cmd“ ein und starten Sie den Befehl per Rechtsklick mit der Maus über „Als Administrator ausführen“. Geben Sie in die Eingabeaufforderung dann diese beiden Zeilen ein:

Netsh wlan set hostednetwork mode=allow ssid=meinwlan key=meinwlan

netsh wlan start hostednetwork

Die Angaben für ssid (Netzname) und key (Kennwort) können Sie frei wählen.

Gehen Sie danach über die Systemsteuerung auf „Netzwerk- und Freigabecenter -> Adaptereinstellungen ändern“. Dort konfigurieren Sie die Verbindung des Kabelnetzwerkadapters neu. Klicken Sie mit der rechten Maustaste auf den primären Netzadapter (meist Ethernet) und wählen Sie „Eigenschaften“. Auf der Registerkarte „Freigabe“ aktivieren Sie „Gemeinsame Nutzung der Internetverbindung“. Wählen Sie unter „Freigabe“ per Drop-down-Feld den vorher eingerichteten virtuellen Adapter aus.

Tipp: Bei einigen Systemen liefert netsh start hostednetwork eine Fehlermeldung. Das Problem lässt sich meist über den Gerätemanager lösen. Suchen Sie dort nach dem „Microsoft Virtual Wifi Miniport Adapter“ und aktivieren Sie diesen.

Routing bezeichnet das Weiterleiten von Datenpaketen von einem Netzwerk (LAN, Internet) in ein anderes. Der Router besitzt hierfür so genannte Routing-Tabellen.

Mit route und den passenden Optionen beziehungsweise Befehlen ändern Sie die Routing-Tabelle Ihres Rechners. Sie können beispielsweise ein neues Gateway einstellen: route change. Oder die vorhandene Route ausdrucken: route print, das Ergebnis entspricht auch dem Ergebnis des Befehls netstat -r. Mit add samt einer Reihe von Optionen fügen Sie eine neue Route hinzu. Mit route /s zeigen Sie alle Optionen an.

Diese Routing-Tabellen werden normalerweise dynamisch erstellt, entweder durch das OSPF- oder durch das RIP-Protokoll. Router verfügen übrigens über zusätzliche Befehle zum Routen-Management, beispielsweise show ip route.

Mit Hilfe des DNS-Protokolls (Domain Name System) werden für den Menschen leichter zu merkende Hostnamen mit einer IP-Adresse verbunden. Mit nslookup können Sie manuell eine Anfrage an einen Nameserver schicken, um einen Hostnamen aufzulösen. Außerdem können Sie mit nslookup Ihren Name Server ermitteln und Probleme bei der Namensauflösung ermitteln.

Nslookup liefert alle Informationen zum DNS-Server Ihres Rechners. Geben Sie bei gestartetem nslookup einen Hostnamen ein, zum Beispiel www.pcwelt.de. Nslookup löst ihn in eine IP-Adresse auf.

Hostname

Ermittelt den Hostnamen Ihres PCs.

Für gewöhnlich erledigen Sie FTP-Transfers mit einem geeigneten FTP-Client wie Filezilla oder einem Datei-Manager mit integrierter FTP-Funktion wie Total Commander. FTP-Uploads machen Sie beispielsweise wenn Sie Ihren Webauftritt aktualisieren; FTP-Downloads kommen vor, wenn Sie sich die neueste Firefox-Version direkt vom FTP-Server von Mozilla.org runterziehen wollen noch bevor diese offiziell bekannt ist. Doch für den Fall der Fälle steht die FTP-Befehlsfamilie auch auf der Kommandozeile zur Verfügung. Durch Eingabe von FTP (das für File Transfer Protocol steht) beginnen Sie eine FTP-Sitzung mit Quit beenden Sie diese wieder. Lesen Sie sich die Hilfeinformationen durch, bevor Sie eine FTP-Sitzung starten.

Übrigens: Ebenso wie der Klassiker FTP steht auch der Befehl Telnet zur Verfügung. Mit ihm können Sie sich von einem Telnet-Client aus mit einem Telnet-Server verbinden. Beachten Sie bei beiden Befehlen aber, dass die Datenübertragung nicht verschlüsselt ist und somit Passwörter und Zugangsdaten im Klartext übertragen werden.

Hier finden Sie weitere Windows-Tipps

Fanden Sie die Tipps nützlich? Dann könnte Ihnen auch unser Sonderheft Windows Tipps und Tricks mit 300 Tricks für maximale Power gefallen. Sie können das digitale Sonderheft in unserer Magazin-App kaufen und lesen. Die digitale Version entspricht komplett der gedruckten Version, inklusive einer Online-Heft-DVD. Die Magazin-Appbekommen Sie hier. Tippen Sie nach der Installation in der App auf „Heft-Kiosk“ und suchen Sie sich das Sonderheft aus.

Zwei-Faktor-Authentifizierung: Überall sicher anmelden

Mit einer Zwei-Faktor-Authentifizierung schützen Sie wichtige Onlinedienste gut gegen Angreifer. Wenn Sie zudem noch die richtigen Einstellungen wählen, geht das sogar ohne Einschränkungen beim Komfort. Perfekt ist die Zwei-Faktor-Authentifizierung allerdings noch nicht.

Jeden Tag tauchen im Schnitt 859.971 geklaute Log-in-Daten im Internet auf. Das zeigt das Hasso-Plattner-Institut auf der Website zu seiner Leak-Datenbank . Dort können Sie selber den aktuellen Stand des Passwortdiebstahls prüfen und testen, ob Ihre Log-in-Daten bereits im Internet kursieren. Die Gefahr dafür ist hoch, denn Hacker machen sich meist nicht die Mühe, Ihren privaten PC zu attackieren und dort an Ihre Passwörter zu gelangen. Sie kapern stattdessen die Log-in-Datenbanken von großen Unternehmen, etwa Yahoo, Dropbox, Adobe, Sony und vielen weiteren und stehlen so auf einen Schlag Millionen von Nutzerkonten. Das Hasso-Plattner-Institut kennt bereits heute über 9 Milliarden gestohlene Log-ins, die im Internet kursieren. Dafür durchsucht das Institut die dunklen Ecken des Internets und lädt laufend neue Sammlungen mit Log-in-Infos in seine Datenbank.

Zum Glück gibt es aber eine zuverlässige Schutzmethode, um sich vor Angriffen mit gestohlenen Log-in-Daten zu schützen. Sie funktioniert über die sogenannte Zwei-Faktor-Authentifizierung.

So funktioniert die Zwei-Faktor-Authentifizierung

Mit der Zwei-Faktor-Authentifizierung (2FA) funktioniert der Zugriff auf ein Onlinekonto erst dann, wenn Sie nach der gewohnten Eingabe des Passworts einen Zusatzcode bei der Anmeldung eingegeben haben. Dieser Zusatzcode wird in der Regel für den aktuellen Log-in neu generiert und ist nur einige Sekunden oder Minuten lang gültig. Sie bekommen den Code etwa per SMS vom Anmeldeserver gesendet oder Sie erzeugen ihn über eine spezielle Handy-App selber. Auch ein Hardwaregerät, ein sogenannter Sicherheits-Token, kann als zweiter Faktor dienen. Solche Geräte gibt es ab 12 Euro für den USB-Anschluss oder ab 22 Euro mit Bluetooth, zum Beispiel bei Amazon . Für Notfälle lassen sich Zusatzcodes ausdrucken, die dann nur einmal gültig sind.

Ein per 2FA geschütztes Konto kann ein Hacker auch dann nicht öffnen, wenn er Ihre Log-in-Daten kennt. Denn es fehlt ihm der zweite Faktor, also Ihr Smartphone, auf dem Sie den Zusatzcode per SMS oder App empfangen.

2FA ist kaum umständlicher als gewohnte Log-ins

Wer bisher noch keine 2FA für ein Onlinekonto nutzt, hält die Methode vermutlich für aufwendig und kompliziert. Doch im Alltag ist sie das überhaupt nicht. Allerdings gibt es ein paar Haken, die wir weiter unten aufzeigen. In der Regel läuft der Log-in per 2FA nach der einmaligen Einrichtung wie ein gewöhnlicher Log-in ab. Denn für die meisten Dienste müssen Sie den Zusatzcode nicht bei jedem Log-in eingeben, sondern nur beim ersten Log-in mit einem neuen Programm. Meist ist das der Browser. Danach kann das Programm, also der Browser, auch ohne Zusatzcode den 2FA-geschützten Dienst nutzen.

Praktisch sieht das so aus: Wenn Sie zum Beispiel Ihr Gmail-Mailpostfach per 2FA schützen möchten, dann aktivieren Sie diesen Schutz einmalig unter https://accounts.google.com , „Sicherheit“. Das dauert nur wenige Minuten, wenn Sie als zweiten Faktor etwa die App Google Authenticator konfigurieren. Anschließend melden Sie sich im Browser auf Ihrem Heim-PC mit dem zweiten Faktor bei www.gmail.com an. Von nun an benötigen Sie für einen Log-in über diesen Browser keinen zweiten Code mehr. Wiederholen Sie die Anmeldung für alle Ihre privaten Geräte, etwa Ihr Smartphone oder Ihr Tablet, und Sie müssen sich nicht weiter um 2FA kümmern.

Das sind die Vorteile der Zwei-Faktor-Authentifizierung

Wie bereits angedeutet, bietet die Zwei- Faktor-Authentifizierung einen sehr guten Schutz gegen Angreifer, die in Ihr Konto einbrechen wollen. Solange Sie den zweiten Faktor, etwa das Smartphone, nicht verlieren, kann sich ein Hacker selbst dann nicht einloggen, wenn er Benutzername und Passwort kennt.

Darum sollten Sie alle wichtigen Konten per 2FA schützen. Allen voran das Mailkonto. Denn wer auf ein Mailkonto Zugriff hat, kann sich auch in fast alle anderen Onlinekonten des Nutzers einloggen. Die „Ich habe mein Passwort vergessen“-Funktion macht es möglich.

Wichtige Infos zur 2-Faktor-Authentifizierung

Die Aktivierung einer 2-Faktor-Authentifizierung (2FA) ist nicht besonders schwierig, erschließt sich allerdings auch nicht intuitiv. Wenn ein Dienst 2FA anbietet, dann stellt er immer auch einen geführten Schritt-für-Schritt-Dialog für die Einrichtung bereit. Wichtig dabei: Wenn Sie bei einem Dienst 2FA aktivieren, dann wird als zweiter Faktor meist ein SMS-Code, eine Authentifizierungs-App oder ein Hardware-Token angeboten. Für die SMS müssen Sie Ihre Handynummer angeben. Sie bekommen den Zusatzcode dann per SMS zugeschickt. Die Authentifizierungs-App wird einmalig mit Ihrem Konto verbunden und gibt von da an alle 30 Sekunden einen Zusatzcode aus, der 30 Sekunden lang gültig ist. Gut ist: Sie müssen meist nicht die Authentifizierungs-App des Anbieters nehmen, sondern können eine beliebige wählen. Das heißt, dass Sie etwa die App Google-Authenticator auch für Microsoft, Lastpass, Dropbox und andere Dienste als zweiten Faktor verwenden können.

Gemeinsam ist allen zweiten Faktoren, dass Sie diese bei der Aktivierung in einem Dienst einmal mit diesem Dienst verbinden müssen. Bei SMS bekommen Sie nach der Angabe Ihrer Handynummer beim Dienst eine SMS zugesendet, die Sie einmalig im Aktivierungsprozess angeben. Eine App verbinden Sie, indem Sie mit der App einen QR-Code der Anmeldeseite abfotografieren. Die App beginnt sofort mit der Generierung eines Codes, den Sie einmalig in die Anmeldeseite eingeben. Auch einen Hardware-Token stecken Sie bei der Aktivierung an den PC an oder verbinden ihn per Bluetooth. Zudem sollten Sie noch eine zweite Möglichkeit für die Übermittlung des Zusatzcodes einrichten. Das kann das Smartphone eines Familienmitglieds sein, eine Mailadresse, ein Hardware-Token oder ein Zettel mit Notfallcodes. Wählen Sie eine dieser Möglichkeiten spätestens vor einer Reise.

In der folgenden Liste finden Sie wichtige Dienste, die 2FA anbieten, sowie Links zu Tipps für den jeweiligen Dienst.

Für welche Dienste ist die Zwei- Faktor-Authentifizierung sinnvoll?

Neben dem Mailkonto sollten Sie auch Bezahldienste wie Paypal per 2FA schützen. Ihr Onlinebanking bietet übrigens schon seit Langem die Zwei-Faktor-Authentifizierung. Denn die TAN, die Sie für eine Überweisung eingeben müssen, ist nichts anderes als ein zweiter Faktor.

Die Onlineshopping-Site Amazon bietet ebenfalls 2FA an, was durchaus sinnvoll ist. Zwar kann ein Hacker die Lieferadresse einer Bestellung nur dann ändern, wenn er auch die Kreditkartendaten erneut eingeben kann. Doch reicht der Schutz eigentlich nicht aus. Denn ein Hacker kann in Ihrem Amazon-Account shoppen und die Ware an Ihre hinterlegte Adresse schicken lassen. Eine Umleitung der Warensendung nimmt er dann über den Lieferdienst vor. Je nach gewählter Versandart geht das mehr oder weniger einfach.

Wer darüber hinaus noch „wertvolle“ Onlinekonten hat, etwa eine Bitcoin-Onlinebörse mit vielen Bitcoins, der sollte auch diese per 2FA schützen. Eine Liste mit wichtigen Diensten, für die sich 2FA lohnt, finden Sie im Kasten.

Das sind die Nachteile der 2-Faktor-Authentifizierung

Einige Nachteile hat die Zwei-Faktor-Authentifizierung allerdings doch. Bei der Anmeldung an einem neuen Gerät müssen Sie Ihr Smartphone beziehungsweise eine ausgedruckte Liste mit Notfallcodes immer griffbereit haben. Daraus ergibt sich der wohl größte Nachteil der 2FA: Auf Reisen kann man sich selber aussperren. Wenn Sie zum Beispiel im Urlaub Ihr Smartphone verlieren, dann ist nicht nur das Handy, sondern auch der zweite Faktor weg. Passiert das zu Hause, haben Sie in der Regel immer noch den Browser Ihres PCs, in dem Sie für Ihre 2FA-Dienste dauerhaft legitimiert sind. Wenn Sie sich aber im Urlaub vom PC Ihres Hotels oder vom einem Familien-Smartphone aus einloggen wollen, wird das 2FA-geschützte Konto unweigerlich den zweiten Faktor verlangen. Das Problem verschärft sich schlagartig, wenn Sie als Alternative zum Smartphone-Code eine Mailadresse als zweiten Faktor angegeben haben, diese Mailadresse aber ebenfalls per 2FA geschützt ist. So können Sie sich zwar einen Ersatzcode per Mail zustellen lassen, diesen aber nicht öffnen, da auch der Maildienst einen zweiten Faktor verlangt.

Das Urlaubsproblem lässt sich lösen, wenn Sie sogenannte Notfallcodes für den 2FADienst ausdrucken und mitnehmen. Diese sind nur einmal gültig. Sie sollten dann in einem anderen Gepäckstück als das Smartphone verwahrt werden.

Tipps und Tricks zur 2-Faktor-Authentifizierung

App statt SMS: Auf den ersten Blick sieht die SMS als zweiter Faktor besonders sicher aus. Tatsächlich ist sie aktuell weniger sicher als eine Authenticator-App. Denn motivierte Angreifer können sich eine Ersatz- SIM-Karte von Ihrem Provider ergaunern und so an Ihre SMS kommen. Oder ein Smartphone-Virus stiehlt eine eingehende SMS in Echtzeit. Entsprechend sind Authenticator-Apps aktuell die bessere Wahl. Zudem können diese auch dann einen Zusatzcode generieren, wenn Sie gerade keine Mobilfunkverbindung haben.

Misstrauisch bleiben: Auch ein 2FA geschütztes Konto entbindet einen Nutzer nicht von einem gesunden Maß an Misstrauen. Denn mit Phishing-Tricks können Angreifer trotz 2FA in ein Konto einbrechen. Das ist tatsächlich schon vorgekommen. Die Angreifer bauten dafür die Website eines Maildienstes nach und ergaunerten von den Opfern nicht nur die Log-in-Daten, sondern auch den Zusatzcode, den sie umgehend für sich selbst nutzten. Bleiben Sie also immer dann wachsam, wenn Sie erneut nach einem Zusatzcode gefragt werden.

Einzelne Mails schützen: Wer bei Gmail ein Mailkonto hat, kann seit 2018 auch einzelne Mails per 2FA schützen. Damit legen Sie als Versender einer Mail fest, dass der Empfänger die Nachricht erst dann öffnen kann, nachdem er einen Zusatzcode eingegeben hat. Diesen Code erhält er per SMS auf eine Handynummer, die Sie beim Versand eingeben. Die SMS sendet Gmail erst dann, wenn der Empfänger die Nachricht öffnen möchte.

Den 2FA-Schutz für zu sendende Mails legen Sie so fest: Klicken Sie in der Weboberfläche vom Gmail wie gewohnt auf „Schreiben“, um eine neue Nachricht zu verfassen. Wählen Sie im „Schreiben“-Fenster vor dem Versand der Nachricht das Symbol mit Vorhängeschloss und Uhr. Legen Sie ein Ablaufdatum für die Nachricht fest und klicken Sie auf „SMS-Sicherheitscode“ und auf „Speichern“, um 2FA zu aktivieren. Nach einem Klick auf „Senden“ fordert Sie Gmail auf, die Handy-Nummer des Empfängers einzugeben.

Zweite Mailadresse ohne 2FA: Obwohl dieser Beitrag dafür plädiert, das Mailkonto per 2FA zu schützen, ist 2FA für manche Zwecke hinderlich. Das gilt zum Beispiel für Programme, die bei einer Störung eine Mail an Sie versenden sollen. Das macht etwa ein gutes Backup-Programm, um über den Erfolg eines Backup-Auftrags zu berichten. Dafür müssen Sie im Programm Ihre Login-Daten zum Mailkonto eingeben. Viele Programme kommen dabei mit 2FA geschützten Mailkonten nicht zurecht. In diesen Fällen ist es am einfachsten, ein zweites Mailkonto ohne 2FA zu nutzen. Oder Sie nutzen ein sogenanntes „App“-Passwort Ihres 2FA-Mailanbieters. Dieses ist nur einmal gültig und authentifiziert ein Programm dauerhaft.

Auch mit 2FA: Nutzen Sie einen Passwortmanager

Auch wenn Sie alle wichtigen Konten per 2FA geschützt haben, sollten Sie dennoch für jeden einzelnen Onlinedienst ein anderes, kompliziertes Passwort verwenden. Denn vielleicht möchten Sie 2FA manchmal vorübergehend ausschalten. Und auch dann soll Ihr Konto ja sicher sein. Möglichst lange und komplizierte Kennwörter erzeugt und verwaltet ein Passwortmanager am besten.

Online-Passwortmanager: Das Tool Lastpass merkt sich alle Ihre Passwörter und fügt sie auf Wunsch auch automatisch in die richtige Website ein. Lastpass erstellen Ihnen auch beliebig komplizierte Passwörter. Sie selbst müssen sich nur noch ein Passwort merken, nämlich das Master-Passwort für Lastpass. Die Passwörter lassen sich per Apps auch auf Android oder iOS nutzen.

Offline-Passwortmanager: Ein guter Passwortmanager ohne automatischen Cloudanschluss ist die Open-Source-Software Keepass .

Driver Max: Fehlende Treiber finden und installieren

Driver Max überprüft bestehende Hardware und Geräte auf fehlende, nicht verwendete oder veraltete Treiber und bringt das System anschließend auf den neuesten Stand.

Microsoft pflegt zusammen mit Hardware-Herstellern eine riesige Datenbank mit Treibern für Windows-Hardware. Sobald Sie eine neue Komponente in Ihren Rechner einbauen oder an eine USB-Schnittstelle des PCs anschließen, sucht Windows automatisch in dieser Datenbank nach einem passenden Treiber.

Allerdings ist diese Suche nicht immer erfolgreich. Gerade bei älterer oder exotischer Hardware kommt es vor, dass Windows eine Komponente nicht erkennt und dann im Gerätemanager „Unbekanntes Gerät“ anzeigt oder das Gerät zwar benennt, aber ein Warnsymbol einblendet, das über Treiberprobleme informiert.

Abhilfe schafft hier ein Treiber-Manager wie etwa Driver Max. Die Software überprüft bestehende Hardware und Geräte auf fehlende, nicht verwendete oder veraltete Treiber und bringt das System anschließend auf den neuesten Stand.

Zu diesem Zweck klicken Sie auf der Startseite im rechten Fensterbereich auf „Jetzt nach Treiberupdates suchen“. Nach einer kurzen Systemanalyse zeigt das Programm, welche Treiber aktuell sind und welche veraltet.

Sie haben nun die Möglichkeit, jeden neuen Treiber einzeln zu installieren oder alle in einem Rutsch. Wollen Sie nur bestimmte Treiber installieren, markieren Sie den gewünschten Eintrag und klicken danach auf „Aktualisieren“. Driver Max lädt nun den Treiber herunter und installiert ihn nach dem Download automatisch. Bei manchen Treibern müssen Sie vor der Installation noch den Lizenzvereinbarungen zustimmen. Um alle neuen Treiberversionen auf einmal zu installieren, klicken Sie im unteren Fensterbereich auf „Laden und Installieren“.

Manuelle Treibersuche: In der Regel sollte Driver Max zu jeder Komponente einen passenden Treiber finden. Sollte das aber einmal nicht gelingen, suchen Sie manuell nach einem Treiber. Starten Sie dafür den Geräte- Manager etwa durch die Eingabe von Geräte-Manager in die Windows-Suche. Klicken Sie dann doppelt auf den Eintrag „Unbekanntes Gerät“ oder auf den Eintrag mit dem Ausrufezeichen. Auf der Registerkarte „Details“ wählen Sie unter „Eigenschaften“ den Eintrag „Hardware- IDs“. Der Geräte-Manager zeigt dann unter „Wert“ das an, was er über die Hardware-Komponente herausfinden konnte. Mit einem Rechtsklick kopieren Sie den Wert. Er sieht etwa so aus:

PCI\VEN_5853&DEV_1002&SUBSYS_00000001&REV_00

Am Anfang steht die Anschlussart, etwa PCI oder USB. Es folgte „VID“ oder „VEN” für „Vendor-ID”, also die ID des Herstellers. „PID” oder „DEV” stehen für die Produkt- oder Geräte-ID (DEV für „Device”). Suchen Sie im Internet nach der kopierten Hersteller- und Geräte-ID. Oft hatten bereits andere Nutzer dasselbe Problem und nennen einen passenden Treiber.

Auch ohne fehlende Treiber empfehlenswert: Selbst wenn Windows bei Ihrem Rechner die komplette Hardware erkannt hat, lohnt es sich, Driver Max nach neuen Treibern suchen zu lassen. Denn neue Treiber bügeln oft kleine Fehler aus, liefern so mehr Stabilität und bringen bei einigen Komponenten sogar mehr Funktionen mit.

Automatische Treibersuche: Driver Max sucht für Sie automatisch nach neuen Treibern. In der Standardeinstellung geschieht das täglich. Wenn Sie Driver Max seltener auf die Suche schicken wollen, geht das in Driver Max unter „Einstellungen –› Einstellungen –› Automatische Prüfungen auf Treiberupdates“. Sie haben die Wahl zwischen einem täglichen, wöchentlichen oder monatlichen Check.

Treiber sichern: Damit Sie bei einer Neuinstallation von Windows sofort alle benötigten Treiber zur Hand haben, können Sie bei Ihrem laufenden Windows ein Backup-Archiv der Treiber anlegen lassen. Auch das leistet die Software Driver Max. Wechseln Sie dafür in der Menüleiste auf „Sichern“ und wählen Sie hier „Treiber Backuparchiv erzeugen“ aus. Klicken Sie auf „Weiter“ und markieren Sie die Treiber, die Sie sichern wollen. Wenn Sie alle Treiber sichern wollen, klicken Sie auf das Kästchen im linken unteren Fensterbereich. Gehen Sie danach auf „Sichern“. Driver Max speichert die Backups unter „C:\Benutzer\Nutzername\My Drivers“. Der Sicherungsvorgang kann einige Zeit dauern. Zum Wiederherstellen der Treiber klicken Sie auf „Wiederherstellen –› Aus zuvor erstelltem Backup wiederherstellen“ und wählen dann die gewünschten Treiber aus.

Kali Linux 2019.4: Hacker-Linux mit neuer Oberfläche

Die auf Sicherheits- und Penetrationstests spezialisierte Linux-Distribution Kali Linux steht in der Version Kali Linux 2019.4 zum Download bereit. Mit dieser spezialisierten Linux-Distribution können Sie Sicherheitslücken aufspüren und die Spuren von Hackerangriffen sichern.

Eine Änderung, die bei Kali Linux 2019.4 sofort ins Auge sticht: Kali Linux verwendet ab sofort nicht mehr Gnome als Desktop-Oberfläche, sondern den schlankeren Xfce. Damit verbunden ist ein neues GTK3-Theme. Gnome wurde offensichtlich von vielen Nutzern von Kali Linux als zu schwergewichtig empfunden. Wer mit Kali Linux nach Sicherheitslücken sucht, der will vor allem ein schnelles System mit Terminalfenstern und Browser nutzen, benötigt aber nicht die vielen Desktopanwendungen von Gnome.

Ebenfalls neu ist der “Kali Undercover“-Modus. Damit gibt sich die Linux-Distribution den Anschein einer Windows-Oberfläche. Damit sollen Sie Kali Linux unauffällig in der Öffentlichkeit verwenden können, ohne dass Ihrer Umgebung sofort auffällt, dass Sie Kali Linux nutzen.

Dank der jetzt integrierten Powershell können Sie unter Kali Linux auch Powershell-Skripte ausführen. Und der Kernel wurde auf Version 5.3.9 aktualisiert.

Mit dem neuen Kali NetHunter KeX können Sie ein Android-Smartphone mit dem HDMI-Ausgang eines Monitors und mit einer Bluetooth-Tastatur samt Maus verbinden und damit auf dem Android-Smartphone einen vollwertigen Kali-Linux-Desktop nutzen.

Wer Kali Linux auf ARM-Geräten verwendet, sollte beachten, dass Kali Linux 2019.4 die letzte Version ist, die sich mit 8 GB großen SD-Karten zufrieden gibt. Ab dem kommenden Kali Linux 2020.1 müssen Sie auf ARM-Geräten mindestens eine 16 GB große SD-Karte verwenden.

Über diese und noch viele weitere Neuerungen der neue Kali-Linux-Version informiert Sie dieser Blogeintrag. Dort finden Sie ganz unten auch Hinweise zur Installation und zum Aktualisieren einer vorhandenen Kali-Linux-Version.

Kali Linux ist eine auf Debian Testing basierende Linux-Distribution, bei der standardmäßig diverse Werkzeuge mitinstalliert werden, mit denen Sie PCs und Netzwerke auf Sicherheitslücken überprüfen beziehungsweise Penetrationstests durchführen und Spuren von Hackerangriffen sichern können.

Kali Linux bewährt sich seit vielen Jahren als spezialisiertes Werkzeug für Sicherheitsexperten und Systemadministratoren. Wobei Sie natürlich alle in Kali Linux enthaltenen Sicherheits-Tools auch auf jeder anderen Linux-Distribution wie Ubuntu, Debian, Open Suse, Fedora oder Mint installieren und einsetzen können.

So kommt das Smartphone heil durch den Winter

Nässe und eisige Temperaturen setzen Ihrem Smartphone zu. Wir geben Tipps, wie Sie Ihr iPhone und Android-Smartphone heil durch den Winter bringen.

Problem: Akku-Laufzeit

Die Kälte macht dem Akku schwer zu schaffen, er hält mit einer Ladung nicht mehr so lange durch. Standby- und Gesprächszeit verringern sich. Je kälter ein Akku wird, desto weniger Kapazität hat er noch.

Versuchen Sie das Auskühlen zu vermeiden oder zumindest zu verlangsamen, indem Sie das Smartphone eng am Körper tragen, beispielsweise in den Innentaschen von Mantel und Jacke – und das Smartphone nicht in den Mantel- oder Jackenaußentaschen transportieren. Alternativ sind auch Handtaschen oder Rucksäcke geeignet – falls sie warm und wasserdicht sind. Beim Skifahren oder Rodeln empfiehlt sich zudem eine wasserdichte und stoßfeste Hülle. 

Lassen Sie das Smartphone nicht im parkenden Auto liegen. Dort kühlt es völlig aus. Diese Gefahr besteht vor allem dann, wenn Sie das Smartphone tief in der Mittelkonsole in eine Qi-Lademulde gelegt haben, um es kabellos aufladen zu lassen.

Berücksichtigen Sie die verkürzte Akku-Laufzeit und behalten Sie den Ladebalken Ihres Smartphones öfters im Auge. Nutzen Sie häufiger die Gelegenheit zum Aufladen. Mit dem Akku-Aufladen sollten Sie aber immer warten, bis sich das Mobiltelefon an die Raumtemperatur angepasst hat. Wärmen Sie Ihr Handy deshalb erst einmal langsam auf Zimmertemperatur auf, bevor Sie den Akku aufladen.

Erschwerte Bildschirmbedienung

Der Bildschirm leidet ebenfalls. Er lässt sich nicht mehr so leicht bedienen. Im Winter tragen die meisten Menschen Handschuhe – dass erschwert die Benutzung von Smartphones ganz besonders. Denn die Touchscreen-Bildschirme lassen sich mit herkömmlichen Handschuhen nicht bedienen. Die Touchscreens reagieren nicht etwa auf mechanischen Druck, sondern auf die Veränderungen eines schwachen elektrischen Feldes an ihrer Oberfläche. Diese werden aber nur von elektrisch leitenden Dingen ausgelöst. Finger gehören dazu, Textilfasern jedoch nicht. Für Abhilfe sorgen Spezialhandschuhe, in deren Fingerkuppen leitfähige Fasern eingewoben sind. Diese finden Sie im Handel unter der Bezeichnung „Screen-Gloves“ beziehungswiese „Touchscreen-Handschuhe“.

Gefahr durch Glätte

Es hört sich banal an, ist aber im Winter ein konkretes Problem: Schneller als man denkt, ist man auf einem glatten Gehweg ausgerutscht und das Smartphone auf dem harten Beton gelandet. Wenn dieser Worst Case eintritt, sollte man nie versuchen, eigene Reparaturversuche zu starten. Denn im Zweifelsfall werden bestehende Schäden nur verschlimmert. Daher ist es immer besser, einen Experten hinzuzuziehen.

Nässe im Gehäuse

Dringt gar Feuchtigkeit, beispielsweise durch schmelzenden Schnee, in den elektronischen Wegbegleiter ein, so droht der Totalausfall. Falls Sie bemerken, dass Feuchtigkeit eindringt beziehungsweise eingedrungen ist, dann schalten Sie das Smartphone sofort aus und lassen es in Ruhe aufwärmen und austrocknen. Entfernen Sie den Akku, sofern möglich, und setzen Sie das Gerät mit geöffnetem Batteriefach der normalen Zimmertemperatur aus.

Doch Vorsicht: Versuchen Sie nicht das Aufwärmen dadurch zu beschleunigen, dass sie es auf einen Heizkörper legen oder mit einem Fön erhitzen. Das schadet mehr als es nutzt, weil viele elektronische Komponenten sehr empfindlich auf plötzliche Temperaturschwankungen reagieren.

Plötzliche Temperaturschwankungen vermeiden

Gefahr geht auch von abrupten Temperaturwechseln aus. Im Gerät kann sich Kondenswasser bilden und Schäden an der Elektronik anrichten. Kehren Sie mit einem ausgekühlten Handy in die warme Wohnung oder Skihütte ein, dann geben Sie ihm idealerweise eine halbe Stunde Zeit, sich langsam an die Plusgrade zu gewöhnen. Im Zweifel empfiehlt es sich, das Gerät abzuschalten und erst wieder in Betrieb zu nehmen, wenn es komplett durchgewärmt ist.

Extra-Tipp: Bei Geräten mit Festplatten – wie beispielsweise Notebooks – kann das Kondenswasser Kurzschlüsse verursachen, die zu Head-Crashes führen. Daher sollte auch ein Notebook, das stark ausgekühlt ist, nicht sofort in einem warmen Raum in Betrieb genommen werden. Besser ist es auch hier, eine gewisse Akklimatisierungszeit einzuplanen, damit etwaiges Kondenswasser wieder verdunsten kann.

Telefonieren trotz Kälte

Mit einem passenden Headset und einer automatischen Rufannahme können Sie das Telefon in der Tasche stecken lassen und müssen es nicht für jeden Anruf umständlich aus der Winterkleidung hervorholen. Diese Methode eignet sich besonders gut auch für den Weihnachtsmarktbesuch, wenn man mit Glühweintasse und Weihnachtsstollen ohnehin alle Hände voll hat.