Smartphone aufräumen und Speicher freigeben

Mit der Zeit häufen sich Bilder, Videos, Downloads, Dokumente und App-Daten auf dem Smartphone an. Wenn der interne Speicher aus allen Nähten platzt, dann hilft nurmehr eins: Sie müssen unnötigen Ballast loswerden.

1. Zu Beginn sollten Sie sich allerdings erst einmal einen Überblick über die genauen Ursachen der Speicherknappheit verschaffen. Die Einstellungen-App in aktuelleren Android-Versionen bietet unter „Speicher“ oder „Gerätewartung –› Speicher“ eine brauchbare Speicherbelegungsübersicht an.

2. Um Speicherplatz auf dem internen Speicher Ihres Phones freizugeben, tippen Sie nun einfach in der Einstellungen-App und unter „Speicher“ oder „Gerätewartung –› Speicher“ auf „Speicherplatz freigeben“, „Bereinigen“, „Speicherbereinigung“ oder ähnlich lautend. Sie können in der Folge entweder die zu löschenden Elemente auswählen und über „Freigeben“ löschen – oder Ihr Smartphone führt die Bereinigung automatisch durch.

3. Fotos und Videos sind besonders speicherhungrig. Durch das Löschen von nicht mehr benötigten Aufnahmen schaufeln Sie Speicherplatz für neue Bilder, Apps, Musik und Filme frei. Aufgenommene Fotos und Videos löschen Sie in der Galerie-App oder in der Google-Fotos -App. Tippen Sie länger auf das erste Bild. Markieren Sie anschließend alle weiteren Bilder durch Antippen. Gehen Sie auf den Papierkorb oder auf „Löschen“. Leeren Sie zum Schluss in der App noch den Papierkorb.

4. Löschen Sie große Apps vom Smartphone, die Sie derzeit nicht benötigen. Platzfresser sind häufig Navigations- und Video-Apps sowie grafisch aufwendige Spiele. Die Apps können Sie bei Bedarf später jederzeit wieder kostenlos über den Play Store installieren.

Smartphone-Speicher mit App entschlacken

Die in der Basisversion kostenlose Optimierungs-App- Clean Master (Boost Antivirus) aus dem Play Store hilft Ihnen beim Freigeben von Speicherplatz. Auf der Startseite sehen Sie oben links in Prozent, wie viel des internen Speichers belegt ist. Sie können per Tipper auf „Jetzt bereinigen“ etwaige überflüssige Dateien löschen und so den Speicher entlasten. Möchten Sie weiter in die Tiefe gehen, tippen Sie auf die Prozentanzeige bei „Speicher“. Sie kommen zur Ansicht „Speicher bereinigen“. Die App scannt nun die Speicherinhalte und zeigt Ihnen beispielsweise besonders große Dateien und Videos, selten gespielte Musikstücke oder doppelt vorhandene Fotos an, die Sie dann löschen können.

5. Auch Filme und Musikalben, die Sie beispielsweise vom Rechner auf Ihr Smartphone kopiert haben, können eine Menge Speicherplatz belegen. Oftmals geraten Filme in Vergessenheit, die Sie sich längst angesehen haben, oder Alben, die Sie aktuell nicht mehr hören. Zum Löschen benutzen Sie die auf Ihrem Smartphone vorinstallierte Dateimanager-App. Bei Samsung heißt sie „Eigene Dateien“, bei Huawei einfach „Dateien“. Sollte bei Ihrem Gerät keine App mitgeliefert werden, dann installieren Sie einen Dateimanager wie Total Commander , ES Datei Explorer oder den Astro Dateimanager aus dem Play Store.

6. Bestimmte Apps legen bei ihrer Ausführung große Datenmengen auf dem Smartphone ab. Beispiele hierfür sind etwa Projekte in Videoschnitt-Apps oder Offline-Karten in Navigations-Apps wie Google Maps. Auch Musikstreaming-Apps wie Spotify, Deezer oder Amazon Music und Videostreaming-Apps wie zum Beispiel Netflix speichern Alben und Filme für einen schnellen Zugriff (Cache) oder zur Offline-Benutzung auf Ihrem Handy. Um Speicherplatz freizugeben, können Sie die Daten in der jeweiligen App wieder löschen. Die entsprechende Funktion findet sich meist in den Einstellungen der App. Fehlt eine Löschfunktion, gehen Sie in der Einstellungen-App zu „Apps –› <App-Name> –› Speicher –› Daten löschen“.

7. Auch unzählige in Whatsapp übertragene Fotos oder Videos kommen als Ursache für Speicherknappheit in Betracht. Wenn Sie Whatsapp entrümpeln möchten, können Sie einzelne Chats komplett löschen. Tippen Sie dazu in der Chatübersicht länger auf den gewünschten Chat und im Anschluss daran auf den Papierkorb. Um Gruppenchats zu löschen, tippen Sie länger auf den Gruppenchat, auf die drei Punkte und auf „Gruppe verlassen –› Verlassen“. Nachfolgend tippen Sie erneut länger auf die Gruppe und daraufhin auf das Papierkorb-Icon.

Speicher freigeben in Whatsapp

Über Online-Speicherdienste wie Google Drive/Fotos (15 GB), Dropbox (2 GB) oder Onedrive (5 GB) nutzen Sie Gratis-Speicherplatz zum Auslagern von Fotos und Videos. Sie laden die zugehörigen Apps aus dem Play Store.

Bei Dropbox müssen Sie sich noch anmelden, Onedrive können Sie mit Ihrem Microsoft-Konto aus Windows 10 verwenden. Alle Dienste bieten einen Auto-Upload für Kameraaufnahmen an: Damit werden Ihre Bilder und Videos automatisch in den Onlinespeicher geladen. Danach können Sie die Fotos und Videoclips auf Ihrem Smartphone löschen und dadurch Speicherplatz freigeben. Sie aktivieren das automatische Hochladen von Aufnahmen in Google Fotos über die drei Balken und „Einstellungen –› Back up & Sync –› Backup & Sync“. In der Dropbox-App tippen Sie auf „Einstellungen“ und „Kamera- Upload“. In der Onedrive-App gehen Sie zu „Ich –› Einstellungen –› Kameraupload“.

Linux-Zweitsysteme für Spezial-Einsatzzwecke

Linux-Zweitsysteme erledigen auch jenseits von Reparaturaufgaben produktive Aufgaben: Sie arbeiten als unabhängiges Surfsystem, als mobile Multimedia-Station, als portable Softwaresammlung oder als Admin-Werkzeugkoffer.

Zweitsysteme haben meistens nur eine dienende Rolle und sollen folglich schnell und schlank sein. Das gilt umso mehr, wenn sie portabel auf USB (auch 2.0) oder DVD starten sollen. Auf schlanken Systemen liegt daher der Fokus dieses Beitrags. Selbstverständlich kann ein Linux-Zweitsystem als großes Desktopsystem auch im Multiboot auf Festplatte nützlich sein, doch steht solcher Einsatz hier nicht im Zentrum.

Wenn Sie im Internet nach „lightweight linux“ oder ähnlich suchen, erhalten Sie vermutlich mehr Ergebnisse als gewünscht. Es gibt viele Linux-Leichtgewichte und das macht es schwierig, die Unterschiede und spezielle Vorzüge zu erkennen. Dieser Artikel soll die Spreu vom Weizen trennen.

Zweitsysteme: Live oder installiert

Bevor es an die Auswahl eines Zweitsystems geht, stellt sich die grundsätzliche Frage zur bevorzugten Technik:

Pure Livesysteme: Alle in der Tabelle aufgeführten Distributionen laufen als Livesystem oder ausschließlich als solches. Livesysteme bieten eine produktive Arbeitsumgebung, sind aber technisch eingefroren: Installationen und Systemveränderungen überleben keinen Neustart. Das gilt auch dann, wenn sie auf einem beschreibbaren Datenträger laufen. Typische Nur-Livesysteme benötigen daher bei jedem Start zumindest die Einstellung des deutschen Tastaturlayouts. Auch Netzkennwörter, Browsereinstellungen oder Oberflächenanpassungen gehen bei jedem Shutdown verloren. Pure Livesysteme eignen sich daher nur für den gelegentlichen Noteinsatz.

Auf USB laufen Livesysteme deutlich schneller. Zum Übertragen auf USB-Stick genügt in den allermeisten Fällen eine Rohkopie des ISO-Abbilds mit dd, gnome-disks unter Linux oder dem Win 32 Disk Imager unter Windows. In seltenen Fällen (4Mlinux, Porteus) enthalten die ISO-Abbilder keine hybride Bootausstattung, die auf DVD und USB booten kann. Dann ist es notwendig, das ISO-Abbild erst auf DVD zu brennen (Brasero, Infrarecorder) und – von dort gestartet – weiter auf USB zu installieren.

Livesysteme mit Persistenz: „Persistenz“- Speicher macht Livesysteme flexibler, indem Konfigurationsänderungen und sogar Installationen dauerhaft in eine gesonderte Datei gespeichert und beim Start eingebunden werden. Livedistributionen wie Puppy Linuxoder Porteus bringen solche Persistenz selbst mit. Alle Ubuntu-basierten Distributionen können über das Tool Unetbootin mit Persistenz aufgewertet werden. Sie müssen dazu im Unetbootin-Fenster neben der Option „Platz um Dateien zwischen Neustart zu erhalten“ nur eine MB-Angabe eintragen. 2000 bis 4000 MB sind je nach Kapazität des USB-Sticks sinnvolle bis großzügige Werte.

Installierte Zweitsysteme: Außer Tiny Core, Slax, Puppy, Porteus und Watt-OS/ Microwatt können alle in der Tabelle genannten Distributionen ordentlich installiert werden – sei es auf Festplatte oder auf USB-Stick. Auch der Live-Klassiker Knoppix bietet dies über „Knoppix –› Knoppix auf Flash kopieren“.

Solche Installation erfordert also zunächst das Schreiben des originalen ISO-Abbilds auf DVD oder USB und dann die Installation aus dem laufenden Livesystem. Ob die Installation schon als Bootoption angeboten wird oder – wie bei Knoppix – als Menüoder Desktoplink im Livesystem, unterscheidet sich je nach Distribution.

Aus unserer Sicht ist eine ordentliche Installation auf USB-Stick die komfortabelste Variante für Zweitsysteme. Das System lässt sich dann beliebig anpassen und über Updates dauerhaft aktuell halten.

Extreme: Von Microwatt und Slax zu Knoppix

Wie unterschiedlich das Prinzip „Zweitsystem“ interpretiert werden kann, zeigen die folgenden Extreme:

Microwatt ist ein winziges Ubuntu-Derivat, das nur die Hotkeys für Browser, Terminal und Dateimanager am Desktop anzeigt. Die Hilfeseite („h“ im Terminal) bietet Orientierung für etliche weitere Optionen. Die XFCE-Leiste kann manuell gestartet werden und somit ein normales Menü anbieten. Programme starten im Vollbild, bei Multitasking teilt der einfache i3-Fenstermanager die Fenster in vertikale Spalten. Für normale Anwender dürfte das Konzept zu puristisch ausfallen. Das alternative Watt-OSaus gleicher Hand ist ein Ubuntu-Derivat mit LXDE-Desktop, das bedienerfreundlicher ausfällt, aber keine wesentlichen Vorteile zum Lubuntu-Original erkennen lässt. Slax Linux ist an Reduktion schwer zu überbieten. Es gibt nur Chromium, VLC, Editor, Rechner, Dateimanager und Terminal. Das schmale Angebot ist aber hübsch aufbereitet wie bei einem Smartphone-Homescreen. Noch einfacher als diese Menüanzeige ist der Rechtsklick auf den Desktop, der ein Menü mit diesen Programmen sowie Optionen für Tastatur, Auflösung und Shutdown anbietet. Für Anwender, die nur Browser und VLC brauchen, ist Slax eine schnelle und attraktive Lösung.

Knoppix wird nur noch in der DVD-Ausgabe gepflegt (ISO mit 4,4 GB), die kleine CD-Ausgabe (700 MB) ist veraltet. Das System versteht sich als schlanker Programmstarter für jegliche Open-Source-Prominenz und bedient dabei sowohl Gnome- wie KDE-affine Anwender. Folglich finden sich diverse Dateimanager, Browser, Mailclients, Bildviewer oder Mediaplayer. Libre Office, Tools, Spiele – alles ist an Bord. Das macht Knoppix unübersichtlich bis konfus. Aber wer bei seinem Zweitsystem sichergehen will, im Falle des Falles alles an Bord zu haben, ist mit Knoppix bestens versorgt.

Live-Spezialisten: Die Puppy-Varianten

Puppy-Varianten , egal ob auf Basis Ubuntu (Xenial, Quirky) oder Slackware (Slacko), bringen auf typischerweise nur 200 bis 350 MB großen ISO-Abbildern kaum glaubliche Software unter, haben einen RAM-Eigenbedarf von nur 60 bis 150 MB und booten fix. Die reinen Livesysteme bieten ein eigenes Persistenzkonzept für Anpassungen und Nachinstallationen. Sie sind aber relativ komplex und befragen Sie mit einer Armada von englischsprachigen Dialogen, die man tatsächlich lesen und verstehen sollte.

Für eine optimale Einrichtung auf USB-Stick sollten Sie zunächst das gewählte ISO-Abbild (vorzugsweise Puppy Xenial) auf CD brennen und dann im laufenden Livesystem mit dem „Puppy [Universal] Installer“ weiter auf USB-Stick transferieren. Puppy begrüßt Sie mit dem Dialog „Quick Setup“. Auf beschreibbarem USB-Stick lohnt es sich, alles sorgfältig einzustellen und im Puppy-Paketmanager das „langpack_de“ oder weitere Software nachzuinstallieren. Wenn Sie später Puppy zum ersten Mal herunterfahren („Exit“ im Hauptmenü), erscheint „Erstmals: Sitzung speichern“. Antworten Sie in jedem Fall mit „Speichern“ (oder „Ja“, „Yes“). Danach legt das System den Speicherbereich an, kopiert die bereits angefallenen Daten und fährt herunter. Bei späteren Puppy-Starts entfallen störende Bremsen wie „Quick-Setup“ und „First shutdown“. Software-Nachinstallationen sind über den „Puppy Package Manager“ schnell und einfach.

Spezialisierte Surfsysteme

Jedes Live- und Zweitsystem bringt Sie ins Internet. Es gibt aber neben dem speziellen Tails, das im vorangehenden Artikel beschrieben ist, weitere Webspezialisten.

Peppermint-OS (1,2 GB) bietet auf Ubuntu-Basis deutlich mehr Internet als nur den Chromium-Browser: Google Drive, Google Mail, Dropbox, Pixlr, Bittorrent sind allesamt vorbildlich integriert. Für die Desktopintegration weiterer Webapps wie Facebook oder Instagram gibt es ein Extratool mit dem Namen „Ice“. Außerdem gelingt es der Distribution, den ansehnlichen XFCE-Desktop auf Diät zu setzen, was das System gegenüber einem Xubuntu deutlich verschlankt. Ungeachtet seines Webfokus lässt sich Peppermint über die Ubuntu-Quellen zu einem Allzweck-Zweitsystem-Desktop erweitern, nachdem das System aus dem Livebetrieb auf einen USB-Datenträger installiert ist.

Porteus Desktop sowie das darauf basierende LinuxWelt-Surfsystem sind auf den schnellen Internetzugang spezialisiert. Porteus ist schnell genug, um auch auf optischen Medien flott zu booten und zu arbeiten. Wer das System noch handlicher und schneller nutzen will, kann es aus dem laufenden Betrieb über das Menü „Systemwerkzeuge –› Porteus Installer“ auf USB übertragen. Dabei wird das root-Passwort abgefragt („toor“). Porteus ist mit USB 2.0 jederzeit flüssig zu bedienen, mit USB 3.0 ist es richtig schnell mit Bootzeiten unter 20 Sekunden und Browserstarts von zwei, drei Sekunden.

In der LinuxWelt-Edition besitzt Porteus einen deutschsprachigen Desktop und deutsches Tastaturlayout. Als Browser stehen die ebenfalls deutschsprachigen Firefox und Chromium zur Auswahl. Trotz des komfortablen Mate-Desktops eignet sich Porteus aufgrund spartanischer Software nicht zum Allzwecksystem.

Porteus Kiosk ist ein reduziertes Porteus mit Firefox oder Chrome im ausschließlichen chen Kioskmodus ohne jeden Systemzugriff. Alle Browser- und Systemeinstellungen müssen vorab im Kiosk-Installer erledigt werden, den Sie mit dd oder dem Win 32 Disk Imager auf USB schreiben und damit das eigentliche System einrichten. Der Installer fragt Browser, Netzadapter und diverse Browser- und Systemeinstellungen ab und schreibt dann das maßgeschneiderte System auf den Zieldatenträger – vorzugsweise einen USB-Stick.

Exoten: 4M-Linux oder Bodhi Linux

Exotische oder allzu minimalistische Systeme treffen meist nicht Geschmack und Anspruch normaler PC-Nutzer. Das gilt für das oben angesprochene Microwatt ebenso wie für Tiny Core und die beiden folgenden Kandidaten:

Bodhi Linux ist Ubuntu-basiert, aber ungleich schneller und kleiner. Das modulare System kommt je nach Ausstattung mit 140 bis 250 MB RAM aus, ist ein Schnell-Booter und auch auf dem Desktop frappierend fix. Damit ist es technisch ein idealer Kandidat für ein USB-Zweitsystem, zumal die Einrichtung über den Ubuntu-Installer nicht schwerfällt. Der eigenwillige Desktop Moksha ist aber mindestens gewöhnungsbedürftig. Die entscheidende Konfigurationszentrale ist im Menü über „Einstellungen –› Einstellungskonsole“ zu erreichen („Settings –› Settings Panel“). Ein erster wesentlicher Gang führt hier nach „Language“. Falls diese Kategorie fehlt, muss sie unter „Extensions –› Modules –› Settings“ erst noch nachgeladen werden. Dies erweitert die Einstellungskonsole dann um den neuen Punkt „Language“, wo Sie wiederum die Oberfläche nach Deutsch umstellen. Die sehr spartanische Software können Sie bei einem installierten Bodhi über „Applications –› System Tools –› Bodhi AppCenter“ ergänzen.

4M-Linux ist kein Boot-Sprinter, liefert aber dann mit kaum 120 MB Footprint einen vollständigen Desktop (JWM-Fenstermanager) mit Menü, Systemleiste, Conky-Monitor und Starterdock aus. Es läuft sogar auf DVD agil. Allerdings fehlen Standardprogramme wie ein moderner Browser (nur das spartanische Links). Ein genereller Paketmanager, dies zu korrigieren, ist nicht in Sicht, jedoch kann eine begrenzte Softwareauswahl über das Menü „Extensions“ nachinstalliert werden (u. a. Browser, Libre Office, Filezilla, VLC). Damit lässt sich 4MLinux zu einem Produktivsystem ausbauen. Der eigentliche Grund, 4M-Linux via DVD zu nutzen oder sogar auf USB zu installieren, liegt aber ganz woanders: Unter „Mystery“ finden sich Spieleklassiker wie Doom, Heretic oder Quake.

Schlanke Allzweckdistributionen

Praktisch jedes namhafte Desktop-Linux bietet heute ein Livesystem und erst recht lässt sich jedes Linux ordnungsgemäß auf USB installieren. Trotzdem wäre für ein Zweitsystem auf USB ein anspruchsvoller Gnome- oder KDE-Desktop kontraproduktiv. Unsere Tabelle „Schlanke Linux-Zweitsysteme“ nennt daher auch bei Allzwecksystemen nur sparsame Distributionen.

Die Auswahl ist letztlich Geschmackssache: Kandidaten wie Lubuntu, Xubuntu, LXLE, Sparky Linux, ferner auch die etwas antiquiert wirkenden Distributionen Kanotix, Antix oder Q4-OS nehmen sich hinsichtlich klassischer Bedienerführung und Ressourcenverbrauch nicht viel. Das auffällig schlanke Trisquel Mini und das für diese Gewichtsklasse eher anspruchsvolle Linux Lite fallen etwas aus der Reihe.

Explizit erwähnen wir zum Schluss zwei attraktive Kandidaten, die nicht jeder Linux-Nutzer auf dem Zettel hat:

Bunsenlabs „Helium“ startet auf einem USB-3.0-Stick in 15 Sekunden zum Anmeldefenster. Das System ist eine schlichte Schönheit und nutzt als Basis Debian 9 sowie den einfachen Fenstermanager Openbox. Statt eines Hauptmenüs gibt es nach Rechtsklick auf den Desktop ein ausklappendes Textmenü. Die schmale Softwareausstattung ist über apt im Terminal erweiterbar. Die wichtigsten Systemanpassungen finden Sie unter „Preferences –› Openbox –› GUI Config Tool“ sowie „Preferences –› Appearence“.

Mit Raspbian x86 wurde das schlanke Raspberry-Debian auf die x86-Architektur umgeschrieben. Das System startet auf USB-3.0-Stick in 17 Sekunden zum pragmatischen LXDE-Desktop. Die Bedienung ist klassisch einfach und die mitgelieferte Standardsoftware genügt für produktives Arbeiten. Optisch kann Raspbian locker mit Knoppix oder den oben genannten Kandidaten Lubuntu & Co. mithalten. Für Nachinstallationen dient ein grafischer Paketmanager oder apt im Terminal.

Clonezilla: Sichern und Klonen

Clonezilla erstellt Backups von Partitionen und Festplatten und stellt diese bei Bedarf wieder her. Das empfiehlt sich für die Sicherung von anspruchsvollen Systemen, auf denen eine Neuinstallation deutlich mehr Aufwand verursacht als eine Wiederherstellung mit Clonezilla. Das Livesystem lässt sich mit etwa Unetbootin auf USB-Stick kopieren. Clonezilla hat eine einfache textbasierte Bedienerführung. Sie navigieren hier mit Cursortasten und Tab-Taste und bestätigen mit der Eingabetaste. Für ein Imagebackup wählen Sie „deviceimage“ und danach „local_dev“ und geben dann die Quellfestplatte und danach das Verzeichnis an, wo Sie das Abbild speichern wollen. Eine Image-Wiederherstellung läuft entsprechend ab. Hier wählen Sie Sie „restoredisk“, danach die gewünschte Backupdatei und die Zielfestplatte. Die direkte Übertragung von Platte zu Platte ist mit der Option „device-device“ ebenfalls möglich.

Clu Linux Live: MC statt Maus

Ja – das gibt es noch: ein gut ausgestattetes Linux-Livesystem ohne grafischen Desktop. Beim Start von Clu Linux sind vier Fragen zu beantworten, erstens nach dem (root-) Kennwort, ferner ob alle lokalen Laufwerke gemountet und ob Samba- und SSH-Server aktiviert werden sollen. Diese Entscheidungen sind alles andere als grundlos, denn wenn Sie allem zustimmen, sind sämtliche Laufwerke des darunterliegenden Rechners automatisch im Windows-Netz und via SSH freigegeben (mit dem angegebenen root-Kennwort und über die IP-Adresse). Eventuelle Datenrettung erfordert daher gar kein Terminal unter Clu Linux, sondern läuft bequem über Samba oder SSH im Netz. Am System selbst sind alle typischen Kommandotools vorrätig, nicht zuletzt der Midnight Commander, der seinerseits als SSH-Client auf Linux-Rechner zugreifen kann. Clu Linux bootet nur von CD/DVD, kann aber als Bestandteil eines Multiboot-Sticks auf USB kopiert werden (etwa mit „Multiboot USB Live“ unten).

Libre Elec: Das Mediencenter

Für das Mediencenter Kodi (XBMC) gibt es eine Reihe von Linux-Distributionen, um die Software auf einem unabhängigen System zu starten. Eine schlanke Variante für zahlreiche Platinenrechner, aber auch für x86-PCs, ist Libre Elec (aktuell 9.0), das ein kleines „USB-SD Creator“-Tool für alle Plattformen anbietet. Das Tool holt das gewünschte Installerimage aus dem Netz und schreibt es auf USB oder SD-Karte. Nach dem Booten dieses Images kopiert der Installer das System auf einen zweiten, endgültigen USB-Stick. Eine Installation auf interne Festplatten ist nicht vorgesehen.

Kodi auf Libre Elec & Co. hat eine Doppelrolle: Primär ist es eine Wiedergabestation, das alle Medien (Bild, Audio, Film, TV) attraktiv präsentiert und abspielt – etwa via HDMI am TV-Gerät. Dabei kann es nicht nur lokale Medien, sondern auch Samba- und UPnP-Server in die Medienbibliothek einbinden und abspielen. Umgekehrt arbeitet Kodi nach Aktivieren dieser Dienste („Einstellungen –› Dienste“) auch als Samba- und UPnP-Server, auf den andere Netzwerkgeräte zugreifen können.

Das Einbinden in die Medienbibliothek geschieht über „Videos –› Dateien –› Videos hinzufügen –› Durchsuchen“ (und analog für „Bilder“ und „Musik“). Hier wählen Sie als Quelle beispielsweise „Root-Dateisystem“ und danach „/media“, doch sind als Quellen auch Netzwerkfreigaben oder UPnPGeräte vorgesehen.

Multiboot USB Live: Spezialwerkzeug

Das eng spezialisierte Projekt unter ein Debian mit Gnome 3, um nur eine Aufgabe zu erledigen – das Einrichten von Multiboot-USB-Laufwerken. Ähnliches leistet das Tool Multisystem unter jedem Linux, das Tool Yumi unter Windows. Allerdings nutzt nicht jeder parallel Windows und Multisystem hat eine sehr gewöhnungsbedürftige Bedienerführung. Hier kommt dieses Livewerkzeug ins Spiel, das (nur) von DVD bootet und gleich die Software „MultibootUSB“ lädt. Beim eingelegten Stick muss unter „Select USB disk“ die Partition „/dev/sd[x]1“ gewählt werden (nicht das Gerät „/dev/sd[x]“), unter „Select image“ und „Browse“ geht es dann von ISO-Image zu ISO-Image, das jeweils mit „Install distro“ (Fenster unten rechts) auf das Laufwerk geschrieben wird. Bei Debian/ Ubuntu-Systemen können Sie im Fenster links optional einen persistenten Speicherbereich festlegen. Der spätere Bootscreen zeigt alle Livesysteme in der Reihenfolge der Einrichtung. Nicht alle Systeme booten zuverlässig, Debian/Ubuntu-basierte jedoch immer.

Super Grub2 Disk: Ein Muss!

Die Super Grub2 Disk ist ein unentbehrlicher Boothelfer. Für Bootprobleme mit Grub sind meistens fehlerhafte Partitionierungen bei der Installation oder die typische Grub-Entsorgung durch Windows-Installationen verantwortlich. Super Grub2 Disk durchforstet mit „Detect and show boot methods“ alle Datenträger nach Linux-Systemen, zeigt danach deren Liste und startet das ausgewählte System. Die Reparatur der Grub-Umgebung findet dann typischerweise mit

sudo grub-install –recheck /dev/sda

sudo update-grub

im wiederbelebten System statt. Das bootfähige Super Grub2 Disk hat nur etwa 20 MB Größe und lohnt gewiss keinen eigenen USB-Stick: Das Tool startet auf Heft- DVD unter „Extras und Tools“.

Volumio: Die Soundstation

Volumio ist eine Musikstation, kein Musikserver. Das heißt, es spielt auf seinem lokalen Gerät die Musik ab, liefert aber keine Medien an andere Geräte. Jedoch ist es über das Netzwerk von jedem Smartphone, Tablet, PC zu bedienen. Mehr als ein Browser ist nicht nötig, um die Musikstation über die Adresse volumio local (oder mit IPv4-Adresse) zu steuern. Mit identischer Oberfläche kann es auch direkt am Gerät konfiguriert und bedient werden. Volumio x86/x64 ist für ungenutzte Altgeräte mit brauchbarem Soundchip im Dauerbetrieb interessant oder auch als transportable Soundstation auf USB-Festplatte (bootfähiges Volumio inklusive Musiksammlung).

Das ursprünglich für den Raspberry konzipierte System gibt es unter volumio org auch für x86-Architektur (PC, Notebook). Der ZIP-Download kann nach dem Entpacken mit den üblichen Werkzeugen (Etcher, Gnome-Disks, dd oder Win 32 Disk Imager) auf USB transferiert werden.

Die Oberfläche ist äußerst einfach und übersichtlich: Das Attribut „intuitiv“ wird gerne inflationär genutzt, trifft hier aber tatsächlich zu. Das Zahnrad-Control rechts oben führt zu den System- und Basiseinstellungen, bietet dort auch die Option „Herunterfahren“ und unter „System“ eine Installation auf Festplatte. Der Punkt „Meine Musik“ verwaltet die internen Laufwerke oder Netzfreigaben der Musikquellen. Auswahl und Abspielen der Musik erfolgen mit den drei großen Schaltflächen am unteren Bildschirmrand – „Durchsuchen“, „Wiedergabe“ und „Warteschlange“.

Neben den eigenen Quellen sind auch Web-Radiostationen integriert. Volumio kann auch große Musikbibliotheken performant verwalten und ästhetisch überzeugend präsentieren.

Voyager Live: Für Desktopästheten

Der Name „ Voyager Live “ ist irreführend beziehungsweise nicht technisch gemeint, da es sich um ein normal installierbares Desktop-Ubuntu handelt (18.04 LTS). Allerdings macht das aus Frankreich stammende System aus dem Desktopklassiker XFCE eine beeindruckend hübsche, zugleich funktionale und reaktionsschnelle Oberfläche: Hunderte von Wallpapern, Dutzende von Farbthemen, moderne Iconsets inklusive Farbwechsler, Dutzende von Desktopconkys zur Darstellung von Infos sind per Klick geändert. Ferner gibt es neben der Systemleiste drei weitere, sich versteckende Leisten an jedem Bildschirmrand, wobei es sich in einem Fall um das bekannte Plank-Dock handelt. Für ein Drop-Down-Terminal ist ebenso gesorgt wie für eine moderne Gnome- ähnliche Arbeitsflächenauswahl. Die meisten der Distributionsspezialitäten sind über die „Voyager Box“ zu erreichen, die nach Rechtsklick als einer der Kontextoptionen auftaucht.

Obwohl Voyager Live an manchen Ecken nur bekannte Komponenten zusammenbaut, garantiert der Ubuntu-Ableger Desktopspaß vom ersten Mausklick an.

Windows 10 erhält neue Terminal-App und WSL 2

Windows 10 erhält eine neue Terminal-App und Windows Subsystem für Linux 2. Hier alle Details zu den Neuerungen.

Microsoft hat auf der BUILD 2019 in Seattle die neue Windows Terminal-App vorgestellt, die für Windows 10 noch in diesem Jahr ausgeliefert wird. Das neue Windows Terminal (Windows Konsole) wird allen Bereichen deutlich aufgepeppt. Wichtigste Neuerung: Tabs! Aber der Reihe nach…

Mit dem Windows 10 Anniversary Upate hatte Microsoft vor knapp drei Jahren die Linux-Bash und Windows Subsystem für Linux in Windows 10 eingeführt und damit quasi eine Windows-Revolution eingeläutet. Windows gepaart mit dem Open-Source-Konkurrenten Linux? Früher undenkbar, wurde dies mit Windows 10 Anniversary Update dann Realität.

Nun kommt nicht nur eine aktualisierte Windows-Terminal-App für Windows 10, sondern auch das Windows Subsystem für Linux wird aktualisiert.

Die Oberfläche der neuen Terminal-App ähnelt mehr einem Browser: Im Tabs kann die gewünschte Kommandozeile geöffnet werden, sei es die klassische Windows-Eingabeaufforderung, die Linux Bash oder Powershell. So kann in mehreren Tabs gleichzeitig gearbeitet werden. Der Inhalt eines jeden Tabs kann auch in unterschiedlichen Farben angezeigt werden, was dabei hilft, die Übersicht zu behalten. Wer möchte schon einen typischen Windows-Konsolen-Befehl fälschlicherweise in einer Linux-Bash eingeben, um dann eine Fehlermeldung zu kassieren…

Die neue Terminal-App, die ab sofort als Open-Source-Projekt in einer Preview verfügbar ist, unterstützt asiatische Schriftzeichen. Hinzu kommen eine Unterstützung von Emojis, Erweiterungen und Designs. Für die Darstellung von Text nutzt Windows Terminal die GPU-beschleunigten Routinen von DirectWrite und DirectX. Dadurch können Schriftzeichen, Symbole und Emoji deutlich schicker als bisher dargestellt werden.

Außerdem hat Microsoft für die neue Terminal-App eine neue Standard-Schriftart gestaltet, die die Inhalte besonders übersichtlich anzeigt. Diese Schriftart wird ebenfalls als Open-Source-Projekt freigegeben werden. Die finale Version von Windows Terminal wird über den Microsoft Store für Windows 10 ausgeliefert. Microsoft verspricht regelmäßige Updates, durch die neue Funktionen hinzugefügt werden sollen, die sich die Nutzer wünschen. Sollte alles nach Plan verlaufen, dann ist mit einer Verfügbarkeit ab Winter 2019 zu rechnen.

WSL2 für Windows 10 kommt in diesem Jahr

Später im Jahr soll dann auch die erste Preview von Windows Subsystem für Linux 2 zum Testen freigegeben werden, welches Microsoft auch kurz „WSL 2“ nennt. WSL 2 basiertlaut Angaben von Microsoft auf dem Linux-Kernel 4.19. Zu den Neuerungen gehören demnach neben einem verbesserten Dateisystem auch eine erhöhte Performance, geringerer Speicherverbrauch, eine erweiterte Linux-Kompatibilität und die native Unterstützung für Docker-Container. Dadurch entfällt die Notwendigkeit, VMs für Docker-Container einzusetzen, wie Microsoft betont.

Akkulaufzeit in fünf Schritten optimieren – so geht’s

Ein paar Einstellungsanpassungen helfen, den Stromhunger Ihres Smartphones zu reduzieren und im Alltag länger mit einer Akkuladung auszukommen.

1. Energiefresser Nummer eins ist der Bildschirm. Reduzieren Sie seine Helligkeit in der Einstellungen-App unter „Anzeige“. Mittels Einschalten der Option „Automatische Helligkeit“, „Automatisch“ oder ähnlich lässt sich sicherstellen, dass die Beleuchtung bei ausreichend Licht nicht so hell strahlt und weniger Strom benötigt.

2. Stellen Sie außerdem unter „Anzeige“ bei „Ruhezustand“, „Ruhemodus“ oder „Bildschirm-Timeout“ eine möglichst kurze Inaktivitätszeit ein, damit der Bildschirm zügig ausgeht, wenn Sie keine Eingaben mehr machen.

3. Das ständige Synchronisieren Ihres Mailkontos belastet den Akku – insbesondere wenn Sie zahlreiche Nachrichten bekommen oder mehrere Mailkonten benutzen. Legen Sie in den Einstellungen der Mail-App ein stündliches oder besser noch ein manuelles Abrufintervall fest. In Gmail funktioniert das lediglich für Mailkonten, die nicht bei Google liegen.

4. In der Einstellungen-App können Sie unter „Akku“, „Gerätewartung“ oder ähnlich lautend anhand von Statistiken herausfinden, welche App wie viel Energie zieht. Unter Umständen können Sie hier stromhungrige Apps entlarven und gegebenenfalls deaktivieren oder löschen, um den Akku weniger zu belasten.

5. Die meisten Android-Modelle bieten in den Einstellungen un- ter „Gerätewartung“, „Akku“, „System“ oder „Power“ herstellerspezifische Energiesparfunktionen, mit denen Sie auch bei knappem Akkufüllstand noch längere Zeit erreichbar sind. Die Stromsparmodi fahren die Rechenleistung zurück und schalten die meisten Stromfresser einfach ab. Die Folge: Sie können telefonieren und SMS empfangen, darüber hinaus aber nicht viel machen.

Auflösung beibehalten

Bei manchen Smartphones können Sie die Bildschirmauflösung in der Einstellungen-App unter „Anzeige“ reduzieren. Das senkt zwar den Stromverbrauch, geht jedoch zulasten der Bildqualität und ist daher nicht empfehlenswert.

Microsoft Edge erhält IE-Modus und weitere Neuerungen

Microsoft spendiert dem neuen Edge mit Chrome-Engine einen IE-Modus. Und viele weitere Neuerungen.

Windows Insider dürfen seit einigen Wochen bereits den neuen Browser Edge testen, der die Open-Source-Browser-Engine Chromium verwendet. Microsoft hatte im Dezember 2018 angekündigt, dass Edge künftig nicht mehr die selbst entwickelte Browser-Engine EdgeHTML verwenden wird, sondern Chromium zum Einsatz kommen wird, also die Browser-Engine, die bereits Googles Chrome und viele weitere Browser verwenden.

Lesetipp: Microsoft BUILD 2019 startet mit Panne – alle Neuerungen und Ankündigungen im Überblick

Immer wieder werden Edge für Insider seit dem neue Funktionen hinzugefügt. Auf der am Montag in Seattle gestarteten Entwickler-Messe BUILD 2019 (6.5. – 8.5.2019) wurden gleich mehrere weitere Neuerungen vorgestellt. Wichtigste neue Funktionen: Edge erhält einen IE-Modus.

Der IE-Modus richtet sich laut Angaben von Microsoft an die mehr als 60 Prozent von Unternehmen, die heutzutage mehrere Browser verwenden müssen. Alte Web-Applikationen wurden seinerzeit für den Internet Explorer entwickelt und müssen auch heutzutage noch funktionieren. Davon hängt oft ab, ob ein Unternehmen bereit ist, von einem älteren Betriebssystem zu Windows 10 zu wechseln.

Der IE-Modus in Edge kann diese Entscheidung erleichtern: In Microsoft Edge kann ein Tab geöffnet werden, in dem der Internet Explorer läuft. Damit sind auch alle Internet-Explorer-basierten Anwendungen im modernen Edge-Browser verwendbar.

Außerdem kündigt Microsoft für Edge auch neue Datenschutz-Tools an: Die zusätzlichen Tools erlauben es den Anwendern. unter den drei Datenschutzstufen „uneingeschränkt“, „ausgewogen“ und „strikt“ auszuwählen. Je nach ausgewählter Option werden die Möglichkeiten immer weiter für Drittanbieter eingeschränkt, das Nutzungsverhalten der Anwender nachzuvollziehen. Dadurch erhalten die Anwender mehr Kontrolle und Transparenz bei der Nutzung von Edge.

In einer Live-Demo wurden wir auch neugierig auf die Edge-Neuerung „Sammlungen“:Diese Funktion erlaubt es Anwendern Inhalte aus Websites effizienter zu sammeln, zu organisieren, zu teilen und zu exportieren. Hinzu kommt eine Office-Integration. Informationen zu einem Produkt lassen sich in einer solchen „Sammlung“ über mehrere Websites hinweg an einem Ort sammeln. Diese gesammelten Informationen können dann anschließend beispielsweise in ein Word-Dokument oder in eine Excel-Tabelle exportiert oder an einen Bekannten oder Kollegen per Mail gesendet werden. Dabei werde auch alle HTML-Formatierungen entfernt.

Microsoft will auch die Web-Kompatibilität für Edge-Nutzer weeiter verbessern. Außerdem soll sichergestellt werden, dass Websites, die Entwickler für Chromium entwickelt und gestaltet haben, künftig ohne weiteren Aufwand direkt zu Microsoft Edge kompatibel sind. Der Aufwand seitens Microsoft um dies sicherzustellen dürfte nicht allzu groß sein, schließlich verwendet ja Edge die Chromium-Engine. Im Vergleich zu bisher dürfen die Web-Entwickler aber aufatmen, schließlich müssen sie ihre Websites künftig für weniger Browser-Engines optimieren.

Microsoft BUILD 2019: Keynote startet mit Panne, alle Neuerungen hier im Überblick

Microsofts BUILD 2019 startete mit einer kleinen Panne. Microsoft-Chef Nadella stellte dann ein paar spannende Neuerungen vor.

Die Microsoft Entwickler-Messe Build 2019 in Seattle startete Montagfrüh (Ortszeit) mit einer Panne: Auf der Bühne sollte mittels Hololens 2 gezeigt werden, wie sich vor 50 Jahren die Mondlandung „anfühlte“, kündigten jedenfalls zwei Microsoft-Entwickler mit Hololens 2 auf der Stirn an. Die dazugehörige Hololens-2-Live-Demo wollte dann aber nicht starten und stattdessen herrschte eine peinliche Stille im Saal. „Die Mondlandung war einfacher als eine Live-Demo auf der BUILD“, scherzte einer der Microsoft-Mitarbeiter und verließ dann mit seinem Kollegen und einem launigen „Danke für Ihre Zeit“ die Bühne. Aus dem Publikum gab es aufmunternden Applaus und Zurufe.

Microsoft-Chef Satya Nadella betrat dann die Bühne und ließ sich von der eben geschehenen Panne nicht anmerken, sicherlich hätte er sich aber einen fehlerfreien Start der BUILD 2019 (6.5. bis 8.5.2019) gewünscht. Ein Profi wie Nadella lässt sich davon aber nicht beeindrucken: In seiner langen Keynote gab er einen Überblick darüber und einen Ausblick darauf, wie sich die Welt verändert und welche Rolle dabei KI, Azure & Co. spielen. Und welche Antworten Microsoft auf die vielen Herausforderungen hat. Das mag manchmal etwas trocken und kleinteilig wirken, entpuppt sich aber bei genauerer Betrachtung durchaus als spannend.

Dabei betonte Nadella gleich am Anfang: Wichtigste Frage ist und bleibe, wie Entwickler die Welt besser machen können. Die Hauptaufgabe, also die „Mission“ von Microsoft, sei dabei, jede Person und jede Organisation zu unterstützen, mehr zu erreichen.

Dabei wiederholte Nadella auch eine Aussage aus der Vergangenheit: „Der Schutz der persönlichen Daten ist ein Menschenrecht“, sagte Nadella. Er hob dann auch die Bedeutung von Gebieten wie „Cybersecurity“ und einer „verantwortungsvollen KI“ („responsible AI“) hervor. Eine wichtige Rolle in dem Wirken von Microsoft spielt Azure, welches Entwickler für ihre Dienste und Lösungen verwenden können. Mittlerweile hat Microsoft in der ganzen Welt 54 Datenzentren für Azure, darunter auch ein Datencenter in Afrika.

„Diese Community hat die Macht die Zukunft positiv zu formen“, stellte Nadella zum Ende der Keynote fest und wandte sich damit direkt an die anwesenden Entwickler.

BUILD 2019: Microsoft-Anwendungen werden cleverer

Microsoft 365 werden eine Reihe von Neuerungen spendiert, die zur BUILD 2019 vorgestellt wurden. Die neuen Technologien sollen den Entwicklern dabei helfen, leichter intelligente, kollaborative Lösungen zu erstellen. Dazu gehören etwa neue KI-Funktionen und die Implementierung neuer Open-Source-Technologien in Azure und Windows.

Die wichtigsten Ankündigungen:

Microsoft Graph data connect ist ab sofort weltweit verfügbar. Über diesen Dienst können Unternehmen alle Produktivitätsdaten aus Microsoft Graph mit ihren eigenen Geschäftsdaten verbinden. Microsoft Graph data connect ist als Funktion in Workplace Analytics enthalten. Hier mehr Infos.

Mit Fluid Framework stellt Microsoft eine neue webbasierte Plattform für die Zusammenarbeit in Teams vor. Laut Microsoft werden mit „Fluid Framework“ alle „Begrenzungen traditioneller Dokumente aufgelöst“, wodurch die Zusammenarbeit über verschiedene Anwendungen hinweg vereinfacht werden sollen, Microsoft wird „Fluid Framework“ noch in diesem Jahr den Entwicklern als SDK (Software Developer Kit) zur Verfügung stellen. Außerdem wird die Technologie auch in Microsoft 365 integriert, unter anderem in Outlook, Word und Teams. Über Fluid Framework können beispielsweise Inhalte aus dem Web oder aus Produktivitäts-Apps in modulare, kollaborative Bausteine zerlegt werden, wodurch sich leichter neue Inhalte erstellen lassen. An diesen können auch mehrere Personen gleichzeitig arbeiten, wobei sie durch intelligente Agenten unterstützt werden, die beispielsweise Bilder zur Verwendung vorschlagen oder Daten übersetzen,

Microsoft Search ist ab sofort weltweit verfügbar und kann über das entsprechende Suchfeld in Microsoft 365-Anwendungen wie SharePoint, OneDrive, Outlook, Windowsund Bing verwendet werden. Über Microsoft Search können Geschäftsanwender beispielsweise relevante Personen, Inhalte und Aktivitäten in ihrer Organisation identifizieren. Hier finden Sie mehr Infos.

Microsoft Graph unterstützt in Microsoft 365-Anwendungen wie Teams Fokus-Zeiten,in denen Nutzer ungestört arbeiten können. In diesen Zeiträumen werden beispielsweise alls Benachrichtigungen nicht angezeigt und gespeichert. Mit der neuen Funktion MyAnalytics können Nutzer eine Routine für tägliche Fokus-Zeiten festlegen. Das Tool verwendet dabei eine Künstliche Intelligenz, um die Zeiträume für das konzentriertes Arbeiten festzulegen und kann diese Zeiträume dann auch automatisch im Kalender für bestimmte ausstehende Aufgaben blocken. Die Funktion wird ab Sommer als Preview verfügbar sein.

Mit Ideas stellt Microsoft auch einen neuen KI-basierten Editor in Word vor, der intelligente Vorschläge macht. Dadurch können Texte laut Microsoft „präziser, besser lesbar und inklusiver“ gemacht werden. Das Tool ermittelt etwa auch die geschätzten Lesezeiten und erstellt eine Zusammenfassung der wichtigsten Inhalte eines Dokuments. Eine Preview von Ideas wird ab Juni für Word Online erhältlich sein. Mehr Infos finden Sie hier.

Über die neuen „Actionsable Messages“ können Outllok-Nutzer ab sofort auf bestimmte Mails sofort reagieren, ohne dafür die Anwendung wechseln zu müssen. So können beispielsweise Budges direkt bestätigt werden, der Zugang zu einem Word-Dokument freigegeben werden oder der Outlook-Nutzer kann direkt an einer Umfrage teilnehmen. Hier finden Sie mehr Infos zu Actionsable Messages.

Über die ab sofort verfügbaren @Mentions können ab sofort in Word-Dokumenten den Kollegen Aufgaben zugeteilt werden, Fragen gestellt oder ihnen direkt geantwortet werden, In Word Online wird die Funktion ab dem Sommer hinzugefügt.

Fehlersuche im Netzwerk: Die nächsten Schritte

Fehler: Ungenutztes Trunking-Potenzial

Kommt es zu Engpässen im Backbone oder bei Serveranbindungen, stellt sich häufig die Frage nach einem Upgrade auf 10 Gigabit Ethernet. Doch dies ist teuer, so dass viele Unternehmen die Investition scheuen und die entsprechenden Verbindungen am Anschlag fahren. Dabei gibt es eine Alternative: Mit Hilfe des Trunking , also dem parallelen Benutzen von 1 Gigabit/s-Verbindungen, kann die Bandbreite auf diesen Strecken erhöht werden. Üblich sind heute Trunks mit bis zu acht parallelen Verbindungen, was einer Bandbreite von 8 Gigabit/s entspricht.

Beim Trunking wird allerdings gerne, wie Becker aus seiner Hotline-Praxis weiß, Potenzial verschenkt: „Das Trunking kann nicht nur zur Performance-Steigerung, sondern auch zur Erhöhung der Redundanz genutzt werden.“ Das Stichwort lautet hier Cross Trunking. Hierbei werden die Ethernet-Kabel etwa zwischen zwei Stacks (Zusammenschluss mehrerer Switches zu einem logischen Switch) nicht parallel sondern über Kreuz zwischen den einzelnen Geräten geschaltet, um so bei einem Ausfall möglichst geringe Beeinträchtigungen zu haben.

Fehler: Performance-Falle Priorisierung

Allerdings warnt Becker davor, zu glauben, dass in den heutigen Netzen mit genügend Bandbreite jedes Problem gelöst werden kann. Gerade bei Echtzeitanwendungen wie VoIP oder Video seien zudem Parameter wie Delay, Jitter oder Paket Loss von Bedeutung. „Bandbreite ist kein Ersatz für Priorisierung“, unterstreicht der LAN-Experte. Bei der Priorisierung ist allerdings darauf zu achten, dass diese im gesamten Netz Ende zu Ende genutzt wird. Wird etwa nur vom VoIP-Telefon in der lokalen Arbeitsgruppe bis hin zum ersten Swicth eine Priorisierung gefahren, dann sollte sich niemand wundern, wenn es später dennoch zu Ausfällen kommt. Ebenso wichtig ist, dass alle beteiligten Geräte die Priorisierungsmechanismen auch wirklich unterstützen.

Fehler: Device-Missbrauch

In diesem Zusammenhang spricht noch eine andere Systembremse an, die häufig unterschätzt wird: Der Missbrauch von Endgeräten für Einsatzzwecke, für die sie eigentlich nicht konzipiert wurden. Gerade die langen Feature-Listen aktueller Hardware verleiten oft dazu, zu viele beziehungsweise falsche Aufgaben auf einem Gerät erledigen zu wollen. Ein klassisches Beispiel hierfür ist in Schmitts Augen ein WLAN-Access-Point. Die eigentliche Aufgabe des Geräts sei ein reibungsloser Transport der Daten per Funk. „Deshalb sollte ein Access Point als Access Point“, so der Supporter, „und ein Edge Device wirklich als Edge Device genutzt werden.“ Wer die Geräte mit ungeeigneten Aufgaben belaste, müsse sich nicht wundern, wenn hinterher die Performance leide. So gehört für Becker etwa das Routing in den Core- und nicht in den Edge-Bereich.

Fehler: TCP/IP-Bremse

Etliche unerklärliche Netzphänomene haben ihre Ursache allerdings auch auf den oberen Netzebenen: Doppelt vergebene IP-Adressen können zu den wildesten Fehlern führen. Eine Ursache hierfür sind häufig nicht erlaubte DHCP-Server im Netz, die eigenmächtig Adressen vergeben. Ob diese Server nun aus Versehen entstehen, weil ein neues Gerät per se mit aktiviertem DHCP-Server ausgeliefert wird, oder bewusst von einem User installiert werden, sei dahingestellt. Als Abhilfe hilft hier ein DHCP Server Screening, das DHCP-Pakete erkennt und im Bedarfsfall automatisch den entsprechenden Netz-Port abschaltet.

Ebenfalls oft zu beobachten ist, dass Anwender ihren Rechnern selbst IP-Adressen geben, ohne zu wissen, dass sie damit komplette Netzsegmente lahm legen können. Um dies zu verhindern, empfehlen sich Switches, die das Anlegen von White Lists erlauben, in denen eine IP-Adresse fest einer MAC-Adresse und einem Switch-Port zugeordnet ist. Kommt nun ein Datenpaket mit der falschen Zuordnung – bei D-Link nennt man diese Technik beispielsweise IP-MAC-Port-Binding (IMPB), dann blockiert der Switch den Weitertransport.

Vorbeugen statt heilen

Unabhängig von diesen Detaillösungen hat Becker für alle Anwender noch einen grundsätzlich Ratschlag auf Lager: „Dokumentieren Sie den Aufbau ihres Netzes penibel genau“. Denn diese Dokumentation ist später bereits die halbe Miete bei der Fehlersuche oder hilft bei Erweiterungen, Störungen zu vermeiden, da eventuelle Wechselwirkungen teilweise bereits beim Blick in die Dokumentation ersichtlich sind. Last, but not least, sollte sich jeder Anwender fragen, was ihn ein Netzausfall wirklich kostet. So wird ein Unternehmen in die Ausfallsicherheit eines LANs im Börsensaal – dessen Ausfall den Ruin bedeuten kann – sicherlich mehr investieren als in das LAN der Verwaltung, wo die Auswirkungen nicht so gravierend sind.

Die Fehlersuche im Netzwerk geht weiter

Fehler: Netzdesign

Die konsequenteste Fehlervermeidung beginnt für Becker allerdings bereits im Vorfeld beim Netzdesign: „Komplexe Netze mit VoIP und anderen Echtzeit-Anforderungen lassen sich nicht einfach mit einem gesunden Halbwissen aufbauen.“ Hier sei eine konsequente Bedarfsanalyse gefordert, die sich dann im Design niederschlagen müsse. Und dieses sei dann später bei der Umsetzung akribisch zu dokumentieren, denn gerade vergessene Komponenten oder Altlasten würden später häufig für unerklärliche Phänomene sorgen: „Sie ziehen etwa ein Kabel und dürften eigentlich keine Netzanbindung mehr haben, der Rechner bleibt aber weiter munter im Netz.“ Im vorliegenden Beispiel entpuppte sich ein längst vergessener Hub als Übeltäter.

Fehler: Loop im Netz

Ein anderer typischer Fallstrick lauert für Becker in den so genannten gewachsenen Netzen – also LANs oder Corporate Networks, die je nach Bedarf von Zeit zu Zeit erweitert werden. Oft werden hier nachträglich Kabel gezogen, die dann später zu den krudesten Phänomenen führen, wenn die Installation nicht sauber dokumentiert wurde. So können etwa Schleifen (Loops) im Netz entstehen, die dann ein Switched Network, das eigentlich auf dedizierten Verbindungen basiert, ausbremsen. Denn ein solcher Loop verursacht einen Broadcast-Sturm, der ein ganzes Netzsegment lahmlegen kann. Um das Problem zu vermeiden, hat der Netzbetreuer zwei Optionen: Das Aktivieren desSpanning Tree Protcols (STP), das aber oft von Unmanaged Switches nicht unterstützt wird, oder die Verwendung einer Loopback Detection (LBD), wie sie von verschiedenen Herstellern unter diversen Bezeichnungen offeriert wird.

Becker bevorzugt das LBD-Verfahren, denn der Spanning Tree wartet noch mit einigen Tücken auf – doch dazu später mehr. Bei der Loopback Detection ist dann zwischen einem Port- und VLAN-basierenden Verfahren zu unterscheiden. Während ersteres den Port komplett abschaltet, blockiert letzteres den Verkehr nur im VLAN, ohne den ganzen Port zu sperren.

Fehler: Fehlende Segmentierung

Gerade diese Segmentierung ist ein Grund, warum Becker den Einsatz von VLANs empfiehlt: „Sie erhöhen nicht nur die Sicherheit, sondern begrenzen Störungen auf ein Netzsegement.“ So blieben beispielsweise Broadcast-Stürme auf ein virtuelles LAN-Segement begrenzt und zögen nicht die gesamte Infrastruktur in Mitleidenschaft.

Allerdings bergen die VLANs in Kombination mit dem Spanning Tree Protocol (STP) auch eine Gefahr. Wie D-Link-Mann Becker aus der Praxis weiß, kommt es durchaus vor, dass das STP ein VLAN deaktiviert, wenn es um Redundanzen zu vermeiden eine physikalische Netzverbindung abschaltet. Auf den ersten Blick erschient dieses Phänomen unverständlich, doch die Erklärung fällt einem wie Schuppen von den Augen, wenn man sich das theoretische Konzept hinter STP verdeutlicht. Ursprünglich wurde STP entwickelt, um in geswitchten Umgebungen zwei sich widersprechende Anforderungen zu realisieren: Zum einen die Vermeidung mehrfacher Netzpfade zum Ziel, um eine Verdoppelung der Datenpakete zu verhindern; zum anderen die gleichzeitige Redundanz der Netzpfade; um beim Ausfall einer Strecke eine alternative Verbindung zu haben.

Genau diese Steuerung übernimmt STP beziehungsweise das Rapid Spanning Tree Protocol (RSTP) als neuere Variante. Hierzu kommunizieren die Switches über das Bridge-Protokoll miteinander. Zuerst wird eine sogenannte Root Bridge bestimmt, die das Oberkommando übernimmt und Startpunkt des Verbindungsbaumes (Tree) ist. Root wird normalerweise die Bridge mit der niedrigsten ID, die sich aus Priorität und MAC-Adresse ergibt. Existieren redundante Wege, so nehmen die Switches den Port mit den geringsten Pfadkosten zur Root Bridge und deaktivieren die anderen Ports, darunter eventuell auch ein VLAN.

Zudem weist das Konzept, sieht man einmal von Umschaltzeiten von bis zu 30 Sekunden ab (RSTP etwa eine Sekunde), im Fall einer Störung noch zwei andere gravierende Nachteile auf: kommt etwa ein neuer Switch in das Netz, dann kann dieser eventuell aufgrund seiner ID die Aufgabe der Root Bridge automatisch übernehmen und die ursprünglichen Verbindungszuordnungen stimmen nicht mehr, was zu Performance-Problemen führen kann. Ebenso kann es passieren, dass bei einem Ausfall ein Switch die Root-Bridge-Funktion übernimmt, der so ungünstig positioniert ist, dass das Netz zusammenbricht. Eine weitere Gefahr stellen in gewachsenen Netzen neue, ergänzende Kabel dar, die womöglich die Struktur des Spanning Trees zerstören, da sich keine eindeutigen Pfadkosten berechnen lassen.

Angesichts dieser Fallstricke rät der Consultant, „den Spanning Tree nicht sich selbst zu überlassen, sondern etwa für einen Ausfall eine Ersatz-Root-Bridge selbst festzulegen.“ Wer mit VLANs arbeitet, sollte zudem überlegen, ob er nicht mit dem Multiple Spanning Tree Protocol (MSTP) arbeitet. Dieses wird den Anforderungen der VLANs besser gerecht, da es in einem LAN mehrere Instanzen des Spanning Tree erlaubt. Für Anwender, die mit Hilfe des Spanning Tree einen Ring zur Erhöhung der Ausfallsicherheit nachbilden wollen, hat Becker noch einen anderen Ratschlag: Statt auf STP oder RSTP zu setzen, empfiehlt er herstellerspezifische Verfahren – bei D-Link etwa das Rapid Ethernet Ring Protection (RERP) – zu verwenden, da diese teilweise mit Umschaltzeiten von 200 Millisekunden aufwarten und die spezifischen STP-Nachteile nicht haben.

Netzwerk-Fehler finden und beseitigen

LAN-Kabel anstöpseln und loslegen – doch das Netzwerk streikt. Wir zeigen, wie Sie systematisch Netzwerkfehler aufspüren und beseitigen. Oder diese von vornherein vermeiden.

Alles ist sorgfältig verlegt und angeschlossen, dennoch streikt das Netz – eine Applikation funktioniert nicht oder die neue Multimedia-Applikation zickt herum. Wer jetzt bei der Fehlersuche falsch vorgeht, verschlimmbessert womöglich das Problem.

Hier hat D-Link -Senior Consultant Christoph Becker einen Ratschlag parat, der auf den ersten Blick ungewohnt und fast schon paradox klingt: Egal, ob Heimnetz oder Corporate Network, bei der Fehlersuche sollte der User auf der untersten Schicht desOSI-Layers , also im Zweifelsfall mit der Netzebene 1 (damit ist die eigentliche Netzwerk-Hardware gemeint) beginnen und sich dann nach oben arbeiten. Ungläubig halten wir ihm entgegen, dass wir genau andersherum vorgehen würden, denn auf den oberen komplexeren Netzschichten gäbe es ja vielmehr Fehlerquellen.

Eine Argumentation, die Becker im Prinzip teilt, gleichzeitig hält er uns aber entgegen: „Und was haben Sie davon, wenn Sie auf den oberen Ebenen den Fehler suchen, in Wirklichkeit aber ein Kabel einen Ermüdungsbruch hat? Sie haben die doppelte Arbeit, weil sie sich oft mit der Fehlersuche auf der falschen OSI-Ebene auch noch ihre Netzeinstellungen zerschossen haben.“ Er empfiehlt deshalb, sich bei der Suche unbedingt von der untersten OSI-Ebene nach oben vorzuarbeiten und so Fehlerquellen auszuschließen.

Fehler: Tückische Ethernet-Kabel

Der erste Blick sollte dabei den verwendeten Kabelverbindungen gelten, wie wir aus leidvoller Erfahrung selbst wissen. So brachte uns einmal ein NAS-Test fast zur Verzweiflung: Mit Fast Ethernet erzielten wir Messergebnisse, die im Rahmen des zu erwartenden waren. Schlossen wir dagegen ein Gigabit-Ethernet-Device an, brachen die Leistungen drastisch ein. Eine zeitraubende Überprüfung der Switches, Netzkarten etc. zeigte keine Auffälligkeiten. Erst als wir das optisch unbeschädigte Cat5e -spezifizierte Kabel – das ja mit Fast Ethernet funktionierte – austauschten, war der Spuk vorbei. Da der einfache Kabelaustausch, im Heim- oder Testnetz meist noch problemlos möglich, im Enterprise-LAN nicht so einfach ist, ist die Anschaffung eines Kabeltesters dringend ratsam. Dabei sollte das Testgerät aber auch alle Übertragungsarten (vollduplex, Gigabit Ethernet etc.) beherrschen, die später im Alltag gefahren werden.

Fehler: Ethernet-Treiber

Eine andere tückische Fehlerquelle stellen die Netzwerktreiber für die Interface-Karten dar. Auch wenn es uns noch nicht selbst passiert ist, so berichten User immer wieder davon, wie die seltsamsten Netzfehler mit einem Upgrade der Ethernet-Treiberverschwanden. Wer auf den Seiten des Motherboard- oder Netzwerkkarten-Herstellers keine neueren Treiber findet, sollte die Flinte nicht gleich ins Korn werfen. Die Chipsatz-Hersteller der Netz-Interfaces offerieren meist aktuelle generische Treiberversionen. Bei Windows-Systemen finden sie den Chipsatzhersteller in der Regel im „Gerätemanager“ unter „Netzwerkadapter“.

Fehler: Jumbo-Frames

Eine weitere, oft übersehene Performance-Bremse sind die so genannten Jumbo-Frames, also überlange Ethernet-Pakete. In Gigabit-Ethernet-Umgebungen sollen sie – zumindest in der Theorie – die Performance bei der Übertragung großer Dateien oder Multimedia-Files deutlich steigern. In der Praxis erlebten wir allerdings das Gegenteil: Deutliche Leistungseinbußen. Die eigentlich clevere Idee der Jumbo-Frames hat nämlich einen Haken: Alle Devices im Netz müssen diese Transferart unterstützen. Erschwerend kommt hinzu, dass dieses Verfahren nicht standardisiert ist, womit in heterogenen Umgebungen Probleme fast vorprogrammiert sind. Unser Ratschlag lautet deshalb: Deaktivieren Sie die Jumbo-Frames bis Sie die reibungslose Netzkommunikation in allen Betriebszuständen garantieren können. Danach können Sie mit diesem Performance-Booster experimentieren.

5 schnelle Tipps für Ihre Datensicherheit

Mit unseren fünf Tipps nutzen Sie das Internet deutlich sicherer. Ohne großen Aufwand und ohne besondere Fachkenntnisse.

Es ist nicht schwierig oder aufwendig, um sich sicher im Internet zu bewegen. Ein bis zwei Stunden Zeitaufwand zum Umsetzen der folgenden Tipps genügen, damit Sie in Zukunft deutlich sicherer unterwegs sind.

1) Benutzen Sie ein VPN – überall

Eine der größten Sorgen im Bereich (Daten-)Sicherheit ist es, online ausspioniert und gehackt zu werden. Szenarien, in denen genau das passieren könnte, gibt es viele. Darunter ungeschützte, öffentliche Wi-Fi-Hotspots oder Access-Points in Hotels oder andere Orte, die bereits von Hackern übernommen wurden.

Die 2-Faktor-Authentifizierung (siehe Tipp 2) und der ausschließliche Besuch von Webseiten, die mit HTTPS geschützt sind, können das Risiko zwar minimieren. Doch auch dann haben Hacker noch ausreichend Chancen Sie auszuspionieren. Und womöglich laufen auch schon unbemerkt schadhafte Anwendungen im Hintergrund Ihres Laptops ab.

Deshalb ist es weitaus sicherer, sich auswärts nur über ein sogenanntes VPN (Virtuelles Privates Netzwerk) ins Internet einzuwählen. Dabei wird jeder eingehende und ausgehende Traffic zunächst über einen verschlüsselten Kanal an ein vertrauenswürdiges Internet-Gateway geleitet. Gleichzeitig wird Ihre aktuelle IP-Adresse verschleiert, was das Risiko für Phishing noch minimiert.

Kommerzielle VPN-Anbieter wie goldenfrog.com/vyprvpn und PureVPN bieten günstige Angebote für Einzelpersonen und kleine Unternehmen an und kosten meist zwischen 5 und 10 Euro im Monat. Nahezu alle Dienste stellen einen eigenen VPN-Client zur Verfügung, über den man sich ohne großen Konfigurationsaufwand direkt auf den richtigen Servern einwählen kann. Vom Preis abgesehen sollten Sie aber noch andere Entscheidungskriterien in die Wahl Ihres VPN-Anbieters einfließen lassen: Performance an den Orten, an denen Sie sich oft aufhalten oder an die Sie oft reisen; Anzahl an Geräten, die gleichzeitig mit dem VPN verbunden werden können; unterstützte Plattformen und natürlich Zuverlässigkeit.

Nutzer mit technischem Verständnis können auch darüber nachdenken, sich ein eigenes VPN einzurichten. Dazu brauchen Sie eine VPN-Verbindung zu einem VPN-Server im Büro oder zu einem Router zu Hause. Eine lohnenswerte Idee, denn mittlerweile sind immer mehr Router und Netzwerk-Anwendungen in der Lage als VPN-Server zu fungieren. Zum Beispiel die Fritz!Box von AVM. Aber auch mit dem Raspberry Pi können Sie ein VPN realisieren.

2) 2-Faktor-Authentifizierung für Ihre Online-Accounts

Die Wahl eines guten Passworts (möglichst lang, möglichst kompliziert) und die Verwendung unterschiedlicher Passwörter für verschiedene Accounts sind längst gängige Routine geworden. Allerdings reicht das allein bei Weitem nicht aus, um Ihren PC vor allen Gefahren zu schützen.

Es gibt verschiedenste Methoden, ein Passwort zu stehlen: Das WiFi Pineapple kann sich zum Beispiel als Wi-Fi Access-Point tarnen, spezielle Hardware schnüffelt Ihre Tastatureingaben aus und entschlüsselt selbst WiFi-Tastatur-Signale und Keylogging-Hardware (die es sogar frei über Amazon zu kaufen gibt) ist in Sekundenschnelle und nahezu unsichtbar auch in Ihrem PC eingebaut. Hinzu kommen Malware und Bugs in schlampig programmierter Software, die weitere Risiken darstellen.

Deshalb ist es ungemein hilfreich, neben dem normalen (guten!) Passwort einen zweiten, dynamischen Code bei sich zu haben, der bei Bedarf jedes Mal neu generiert wird und abgerufen werden kann. Damit bleiben Ihre Konten selbst dann noch sicher, wenn Ihr Passwort tatsächlich gehackt werden sollte.

Die einfachste und am weitesten verbreitete Form dieser 2-Faktor-Authentifizierung ist das Zusenden eines Codes via SMS an Ihr Smartphone, sobald Sie sich in Ihren Account einloggen wollen. Sie tippen dann nur noch zusätzlich den Code ein, den Sie erhalten haben und schon sind Sie eingeloggt.

Diese Art der 2-Faktor-Authentifizierung ist deswegen so sicher, weil sie etwas, das Sie wissen (Ihr Passwort) mit etwas, das Sie haben (Smartphone) kombiniert. Und nur wer beides hat, erhält Zugriff auf den Account. Allerdings streiten Experten noch über die Sicherheit des Codes, da dieser per SMS zugesandt wird: Ein eher unsicheres Nachrichtensystem, aus dem die Nachrichten auch jederzeit abgefangen werden könnten.

Noch sicherer sind hingegen 2-Faktor-Methoden, bei denen der Code direkt auf Ihrem Smartphone (oder einem anderen Gerät) generiert wird. Das geht entweder über spezielle Apps oder über Hardware-Token wie dem YubiKey (knapp 50 Euro), der an einen freien USB-Port geklemmt wird. Ganz neu und schwer im Kommen ist außerdem die Multi-Faktor-Authentifizierung, die etwas was Sie wissen (Ihr Passwort) mit etwas was Sie haben (Ihr Smartphone) und etwas was Sie sind (Ihr Fingerabdruck) kombiniert.

So ziemlich jeder Online-Service profitiert von einer 2-Faktor-Authentifizierung. Ein guter Ort, um damit zu beginnen, ist Ihr E-Mail-Account. Direkt danach sollten Sie auch Ihren Cloud-Speicher-Dienst absichern. Ihr E-Mail-Konto abzusichern ist deshalb so wichtig, weil ein gehackter Mail-Account theoretisch auch Zugriff auf all Ihre anderen Passwörter liefert. Zumindest ist der Hacker damit in der Lage, bei allen Konten, die Sie auf Ihre Mail-Adresse registriert haben, das Passwort zu ändern und Ihnen so den Zugriff zu verwehren. Sicherheits-Experten empfehlen deshalb, bei wirklich wichtigen Accounts (etwa PayPal oder Ihr Amazon-Bestellkonto) stets eine Mail-Adresse zum Registrieren zu verwenden, die ansonsten nicht in Benutzung ist.

3) Sperren Sie Ihren PC

Viele wissen es, die wenigsten tun es: Man sollte seinen PC niemals verlassen, ohne vorher eine Sperre eingerichtet zu haben – insbesondere an semi-privaten Orten wie dem eigenen Arbeitsplatz. Wenn man davon ausgeht, dass die meisten Büroarbeiter als Admins in ihren PCs eingeloggt sind, dauert es nur wenige Sekunden, um Mal- oder Spyware darauf zu installieren, die geschickt sämtliche Antivirenscanner umgeht.

Die Lösung des Problems: Richten Sie eine Passwort-Sperre auf Ihrem Gerät ein, die Ihren PC während Ihrer Abwesenheit schützt, ohne Anwendungen und Prozesse im Hintergrund zu beeinträchtigen. Am besten gewöhnen Sie es sich gleich an, Ihren PC manuell zu sperren bevor Sie den Platz verlassen. Unter Windows reicht dafür die Tastenkombination Windowstaste + L aus.

Auf dem Mac dauert das Einrichten etwas länger. Öffnen Sie zunächst die Systemeinstellungen und wechseln Sie zu Sicherheit & Privatsphäre > Allgemein. Setzen Sie ein Häkchen in die Box bei „Passwort erforderlich… nach Ruhemodus oder Bildschirmschoner“ und wählen Sie im Dropdown-Menü „Sofort“. Um Ihren Bildschirm nun zu sperren, drücken Sie Control, Shift und Power gleichzeitig. Ältere Macs mit optischen Laufwerken können gesperrt werden, indem man Control, Shift und Eject gleichzeitig drückt.

Wenn Sie nun an Ihren Arbeitsplatz zurückkehren, müssen Sie ein Passwort eingeben, um den Rechner erneut in Betrieb zu nehmen. Wenn Sie natürlich einen Laptop mit eingebautem Fingerabdrucksensor oder Gesichtserkennung haben benötigen Sie die Passwort-Sperre nicht mehr.

Auch wenn Sie es sich bereits angewöhnt haben, den Computer vor Ihrer Abwesenheit manuell zu sperren, ist eine automatische Sperre nach einer bestimmten Zeit der Inaktivität sinnvoll. Schließlich ist niemand dagegen gefeit, das Sperren doch mal zu vergessen. Alternativ dazu gibt es auch spezielle Hardware, die Ihren PC automatisch sperrt und entsperrt. Zum Beispiel den GateKeeper (ca. 60€), bestehend aus einem USB-Dongle und einer Karte, die über Bluetooth kommunizieren. Befindet sich die GateKeeper-Karte in der Nähe des PCs, wird dieser automatisch entsperrt. Entfernen Sie sich mit der Karte vom Arbeitsplatz, sperrt sich der PC automatisch.

4) Verschlüsseln Sie Ihre Festplatten

Das Verschlüsseln Ihrer Daten auf dem PC ist einer der wichtigsten Schritte auf dem Weg zu mehr Datensicherheit. Insbesondere die Festplatten mancher Firmenlaptops lassen sich in Sekunden aus- und in einen anderen PC einbauen. Oder werden auf diesem Wege mit implantierter Spyware zurückgeschickt. Wenn Sie Ihre Daten hingegen verschlüsseln, werden diese dem „Dieb“ nur als Kauderwelsch angezeigt. Und selbst, wenn Ihnen das Festplatten-Kidnapping-Szenario eher unwahrscheinlich vorkommt, bietet die Festplattenverschlüsselung zusätzlichen Schutz gegen neugierige Blicke und unrechtmäßigen Zugriff, falls Ihr Laptop einmal verloren geht oder gestohlen wird.

Windows 8.1 und Windows 10 verschlüsseln Ihre Daten automatisch – bei ersterem System müssen Sie zuvor allerdings ein wenig Vorarbeit leisten. Und Windows 10 verlangt dafür, dass Sie einen Microsoft-Account mit Administrator-Rechten benutzen oder einer Windows-Domain beitreten. Außerdem muss Ihr Mainboard über einen TPM-Chip verfügen. Geben Sie in der Taskleiste einfach den Begriff „BitLocker“ ein und wählen Sie aus der Ergebnisliste „BitLocker verwalten“ aus. Neben jeder Ihrer aufgelisteten Festplatten können Sie nun „BitLocker aktivieren“ auswählen. Für frühere Windows-Versionen ohne BitLocker bieten sich Drittherstellerprogramme an – etwaVeraCrypt .

5) Sichern Sie Ihr eigenes Wi-Fi-Netzwerk

Heim- und kleine Firmennetzwerk-Router sowie Access Points (APs) werden in aller Regel einmal eingerichtet und dann sich selbst überlassen. Es lohnt sich aber, eine halbe Stunde Zeit zu investieren, um potenzielle Sicherheitslücken in Ihrem Netzwerk ausfindig zu machen und sie zu stopfen.

Da Wireless-Signale in alle Richtungen ausstrahlen, sollten Sie eine sichere Verschlüsselungsmethode auswählen, um Spione und Datendiebe auszusperren. Sicherheitslücken in älteren Sicherheitsprotokollen wie WEP bedeuten, dass diese in wenigen Minuten ausgehebelt werden können. Auch wenn die meisten neuen Router mittlerweile WEP gegen WPA oder WPA2 getauscht haben, sollten Sie insbesondere bei älteren Modellen diesen Status überprüfen.

Auch WPA gilt heutzutage nicht mehr als sicher, denn es setzt auf das unsichere TKIP-Verschlüsselungs-Protokoll. Achten Sie also unbedingt darauf, dass Ihr Router mit WPA2 und AES-Verschlüsselung arbeitet. Unterstützt Ihr Router diese Sicherheitsmechanismen nicht, wird es Zeit für einen Gerätewechsel.

Aus Gründen der Bequemlichkeit wird für Heim- und kleine Firmennetzwerke meist ein statisches Passwort für die Verschlüsselung übermittelter Daten benutzt. Das macht es Hackern aber leicht, das Netzwerk gewaltsam zu betreten. Genau genommen gibt es sogar verschiedenste Software-Lösungen, die Hackern genau das ermöglichen. Die Komplexität eines Passworts spielt dabei gar nicht die größte Rolle, sondern vielmehr die Zeichenlänge. Mindestens 20 Zeichen sollte ein sicheres Passwort umfassen – je länger es ist, desto schwieriger wird es zu knacken.

Auch gebräuchliche SSIDs wie „Home“, „WLAN“ oder „WLAN-Netzwerk“ sollten Sie in etwas Einzigartiges ändern. Denn WPA/WPA2 benutzt die SSID als Bestandteil für den Verschlüsselungs-Passcode.

Das Befolgen unserer Tipps gibt natürlich keine Garantie dafür, dass Sie niemals ein Sicherheits-Debakel erleiden. Aber sie sind ein guter Anfang – und wer sie regelmäßig ausführt, bringt schon bald ein gutes Stück mehr PC-Sicherheit in seinen Alltag. Nicht das schlechteste in einer immer unsicherer werdenden Welt.