Tipps & Tricks: Der richtige Platz für Server

Worauf sollte man bei der Standort-Wahl für den eigenen Server achten? PC-WELT sagt, wie Sie Ihren Server richtig aufstellen und Server-Ausfälle vermeiden.

Wenn mehrere Server benötigt werden, fasst man diese meist in speziellen Räumen zusammen, den Serverräumen. In Großunternehmen werden dafür sogar Rechenzentren eingerichtet. Aber auch in kleineren Unternehmen oder im SoHo sollte der Server nicht einfach unter dem Schreibtisch platziert werden. Wenngleich der Heimanwender sicherlich keine eigenen Räume eines Rechenzentrums betreiben wird, so sollten dennoch einige Aspekt beim Einsatz der Server beachtet werden. Diese wollen wir hier aufzeigen.

Spezielle Server-Hardware

Warum aber werden überhaupt spezielle Server benötigt und worin unterscheiden sich diese von den Desktop-Rechnern? Könnte man nicht einen normalen Desktop-PC auch als Server verwenden? Diese Frage ist keineswegs abwegig und führt oftmals zu Irritationen im Zusammenhang mit dem Einsatz von IT im kleineren Unternehmen. Die Grundlage für alle gängigen Anwendungen, egal ob diese auf einem Server oder Desktop ausgeführt werden, stellen immer der x86-Befehlssatz der CPU und die Architektur des Rechners dar. Und in diesen prinzipiellen Aspekten unterscheiden sicher Server tatsächlich nicht von Arbeitsplatzgeräten und Desktops. Aus diesem Grund sind typische Serveranwendungen meist auch auf einem Desktop zu betreiben und umgekehrt. Der gravierendste Unterschied zwischen einem typischen Server und einem Desktoprechner liegt, wie zu erwarten, in der Leistung. Wenn aber die Leistung eines Standard-PCs für die „Serveranwendung ausreicht, so kann die Serveranwendung auch auf einem Desktop-Rechner betrieben werden.

Ein zweiter Unterscheid betrifft vor allem die Ausfallsicherheit, die Redundanz oder etwa die Sicherheit des Gesamtsystems. In dieser Hinsicht weisen spezielle Serversysteme ein Plus auf, das weit über die Eigenschaften der Desktop-Rechner hinausgeht. Wenn also die Anwendungen, die Sie benötigen, keine besonderen Anforderungen an die Leistung oder den Ausfallschutz stellt, so kann sie auch auf einem Standardrechner betrieben werden. Sie benötigen in diesem Fall keine spezielle Server-Hardware. Dennoch sollte dieses Gerät eine besondere Aufmerksamkeit erhalten. Diese beginnt beim Ort an dem der Server steht, und setzt sich fort über die Absicherung gegen Ausfall oder Diebstahl und endet bei den Datenschutztechniken.

Der richtige Platz für Ihren Server

Statt den Server – wie einen Desktop-PC – einfach unter dem Schreibtisch zu platzieren, sollten Sie ihm besser einen eigenen Raum oder zumindest, wenn das nicht möglich ist, einen eigenen Bereich im Büro spendieren. Da Servern oftmals mehr Leistung abverlangt wird als normalen Arbeitsplatz-Rechnern, entwickeln sie meist auch mehr Abwärme. Diese führt oftmals zu einem höheren Luftdurchsatz des Lüfters und damit zu mehr Lärm im Büro. Alleine aus diesem Grund mag es sich schon empfehlen, den Server von den Desktop-Maschinen zu trennen und an einem entfernten Platz aufzustellen. Ein geeigneter Platz, an dem die Warmluft ungehindert abfließen kann, sollte daher vorhanden sein.

Eine Trennung des Servers von den Desktop-PCs empfiehlt sich aber auch aus Sicherheitsgründen. Die Bedrohungen für Server in den Kleinunternehmen sind meist Unachtsamkeit durch Benutzer, Hardwareausfall, Diebstahl oder ein Ausfall aufgrund von Wassereinbruch, Feuer oder dergleichen. Dabei muss es sich nicht gleich um eine Überschwemmung handeln, es reicht auch wenn Platzregen durch ein offenes Fenster dringt und auf den Server trifft. Auch ein plötzlicher Windstoß, der Türen oder Fenster zuschlagen lässt, kann den Server treffen, der oftmals lieblos in der Ecke steht.

Versehentliches Abschalten verhindern

Server werden meist rund um die Uhr betrieben. Sie stellen den Serverdienst für alle Benutzer im Büro dar. Auch die Clientanwendungen verlangen oftmals nach einem „Partner“, dem Serverdienst, im Backend. Der Server muss daher immer zur Verfügung stehen. Um ihn gegen versehentlichen Neustart oder Abschalten zu sichern, ist eine Trennung von dem Desktopsystemen daher sinnvoll. Sie sollten ihm auch eine eigene Stromversorgung gönnen. Ungünstig wäre es, den Server an die einzige allgemein zugängliche Steckdose im Raum anzuschließen. Immer wieder werden Fälle bekannt bei denen die Putzfrau, in Ermangelung einer Stromanschlusses, den Server kurzerhand absteckt. Wenn möglich sollte der Server einen eigenen Stromkreis, getrennt von den andern Geräten erhalten.

Diebstahlschutz

Ein weiterer Aspekt betrifft den Diebstahlschutz. Anders als bei Großunternehmen wird man einen Server im SoHo oder Kleinunternehmen kaum entwenden und um an die Daten zu kommen, aber ein Einbrechern wird dieses Gerät vermutlich kurzerhand trotzdem mitnehmen.

Wenn, wie erwähnt, kein eigener Raum für den oder die Server vorhanden ist, so kann man sich vielleicht mit abschließbaren Rollcontainer oder dergleichen behelfen. Dabei muss man aber wieder an die Lüftung der Geräte denken.

Datensicherung gegen Diebstahl oder Ausfall

Ein Schutz gegen Datendiebstahl oder Ausfall der Serverdaten ist die Datensicherung, das Backup. Sie darf in keinem Fall vernachlässigt werden. Mittlerweile gibt es dazu auch eine Vielzahl an Hilfen und Werkzeuge, die auch für den Kleinunternehmer im SOHO angemessen sind. Sie müssen also nicht gleich ein Bandlaufwerk anschaffen, eine separate USB-Platte tut es zur Not auch. Achten sollten Sie auf das Volumen und die Geschwindigkeit. Ein Terabyte oder mehr gehört hierbei zum Standard. Wenngleich diese Kapazität anfangs als groß erscheinen mag, so sollten Sie daran denken, immer auch mehrere Versionen ihrer gesicherten Daten bereitzuhalten. Im Gegensatz zu den professionellen Sicherungstools bedient man sich bei kleineren Lösungen oftmals auch mit einfacheren Kopiervorgängen. Dabei werden die Daten jedes Mal vollständig gesichert. Dies bläht das Datenvolumen erneut auf.

Schnelle Anschlüsse

Um den Zugriff bei der Datensicherung schnell zu gestalten sollten Sie ein schnelles Interface verwenden. USB 2 ist seit Jahren Standard, Sie werden kaum mehr andere (langsamere) Platten finden. Bei den neuerenexternen Platten allerdings setzt auf USB 3, aber auch eSATA-Anschlüsse finden sich bei vielen Rechnern.

Backup-Dateien sicher aufbewahren

Wichtig bei der Sicherung der Daten sind aber zwei Aspekte: Prüfen Sie gelegentlich, ob sich die vermeintlich gesicherten Daten auch wieder rekonstruieren lassen. Und deponieren Sie die Sicherungsplatte getrennt von dem eigentlichen Server. Diese ist auch ein wirksamer Schutz gegen Datendiebstahl, Brand oder Wassereinbruch.

Die besten USB-Tipps und -Tools

USB kommt überall vor: am PC, am Smartphone, an Drucker und TV. Mit unseren Tipps und Tools sowie dem technischen Know-how nutzen Sie die Schnittstelle in allen ihren Variationen stets optimal.

USB ist die am meisten verbreitete Schnittstelle überhaupt. Sie finden sie am Rechner genauso wie am Smartphone, dem Tablet oder an externen Geräten wie Festplatten, Druckern, Sticks, Kartenlesern, Tastaturen oder Mäusen. Dazu gibt es noch jede Menge Gadgets, die auf den Port vertrauen, etwa Ventilatoren oder Lampen. Allerdings ist USB nicht gleich USB. Denn die unterschiedlichen Typen unterscheiden sich in Form und Spezifikation.

Dabei sind alle Fassungen des Standards noch in Gebrauch. Kein Wunder, dass deshalb nicht immer alles rund läuft. Haben Sie Probleme beim Verbinden oder können das Tempo des USB-Geräts nicht komplett ausreizen, geben Ihnen unsere Tipps die passenden Lösungen an die Hand. Dazu finden Sie im Technikteil die unterschiedlichen Standards erklärt und erfahren, was hinter den vielen USB-Logos steckt – inklusive des aktuellen Steckers USB Typ C. Nach der Lektüre wissen Sie alles Wichtige über diese Schnittstelle und ihr Nachrüsten mit Adaptern und Steckkarten.

USB-Tipps

Eigentlich ist es ganz einfach: Sie stecken ein USB-Gerät an, Windows erkennt es, installiert die passenden Treiber – und Sie können es verwenden. Falls es nicht so funktioniert, gibt es meist vier Gründe für den Fehler: Es liegt an den Treibern, am USB-Kabel, an der Buchse oder an der Stromversorgung. Unsere Tipps helfen Ihnen nicht nur, wenn es um die Verbindung geht, sondern auch bei Tempo- und Sicherheitsproblemen mit USB.

Sie schließen ein USB-Gerät am PC an, doch es tut sich nichts

Lösung: Findet Windows keinen passenden Treiber für das Gerät, taucht es im Geräte-Manager als unbekanntes Gerät mit einem Ausrufezeichen oder mit einer Fehlerbeschreibung auf. Dann sollten Sie auf der Webseite des Herstellers nach aktuellen Treibern suchen. Kennen Sie den Hersteller nicht, weil Sie kein Handbuch mehr haben oder der Name nicht auf dem Gerät steht, kann der Geräte-Manager weiterhelfen: Gehen Sie zu „Details“, und wählen Sie den Eintrag „Hardware-IDs“ aus.

Erkennt Windows das Gerät überhaupt nicht, kann der Fehler am Kabel oder an der Buchse liegen. Verwenden Sie zum Anschließen ein anderes, möglichst kurzes USB-Kabel. Wird das USB-Gerät an einer Buchse nicht erkannt, stecken Sie es in eine andere ein. Haben Sie nur einen USB-Port, testen Sie, ob er stabil und wackelfrei im Gehäuse sitzt und ob die Kunststoffzungen in der Buchse gerade liegen.

Macht eine externe Festplatte Probleme, kann es daran liegen, dass der USB-Anschluss zu wenig Strom liefert. Über USB 2.0 bekommt ein USB-Gerät maximal 500 Milliampere (mA) – das kann vor allem beim Hochdrehen der Platte zu wenig sein. Hier hilft es, die Platte per Y-Kabel an zwei USB-Ports anzuschließen oder sie mit einem externen Netzteil zu verbinden.

Wie zeigen Sie alle Geräte an, die mit dem PC verbunden waren?

Lösung: Diese Aufgabe erledigt das Tool USBDeview . Installieren Sie die passende Version für 32- oder 64-Bit-Windows. Nach dem Start sehen Sie alle derzeit und früher angeschlossenen USB-Geräte: Die aktiven Geräte sind grün markiert – dabei kann es sich auch um interne USB-Geräte handeln. In der Spalte „Device Type“ führt das Tool auf, um welche Art von USB-Gerät es sich handelt: Mass Storage umfasst beispielsweise USB-Sticks und -Festplatten, HID bezeichnet Mäuse und Tastaturen. Die Spalte Last Plug / Unplug Date informiert Sie darüber, wann das USB-Gerät zuletzt mit dem Rechner verbunden war. Um einen problematischen Treiber zu entfernen, sollten Sie nun alle aktuell nicht angeschlossenen Geräte deinstallieren.

Markieren Sie dazu die entsprechenden Einträge in USB Deview, indem Sie die Strg-Taste dabei gedrückt halten. Anschließend wählen Sie „File -> Uninstall Selected Devices“.

Das Smartphone wird nicht vom PC am USB-Port erkannt

Lösung: In diesem Fall sollten Sie das Smartphone vom USB-Kabel entfernen und es ausschalten.

Stecken Sie nun das Smartphone wieder ans Kabel, und schalten Sie es ein – nun sollte Windows es erkennen und den passenden Treiber installieren. Wird Ihr Smartphone weiterhin nicht erkannt, liegt möglicherweise ein Treiberkonlikt vor. Löschen Sie deshalb die vom PC gespeicherten USB-Einträge aller jemals an den Computer angeschlossenen Geräte. Dazu setzen Sie bei Windows unter „Start -> Systemsteuerung -> Geräte-Manager -> Ansicht“ den Haken bei „Ausgeblendete Geräte anzeigen“. Tippen Sie dann auf den Punkt „USB-Controller“, suchen Sie den USB-Eintrag Ihres Smartphones, und löschen Sie diesen. Starten Sie den Computer neu, und schließen Sie das Handy wieder per USB an den PC an. Der Windows Updater sollte nun die Treiber automatisch bei bestehender Internetverbindung suchen und installieren.

Bei älteren Smartphones und Windows 7 kann tatsächlich der passende Treiber fehlen: Windows hat ihn weder parat noch kann das Betriebssystem ihn per Windows-Update herunterladen. Suchen Sie dann auf der Webseite des Herstellers nach einem Windows-USB-Treiber für das Smartphone.

Wichtig ist, dass das Smartphone als Mediengerät erkannt wird. Dann nutzt Windows das Media Transfer Protocol, um die Speicherinhalte anzuzeigen. Ziehen Sie dazu auf dem Android-Phone die Statusleiste herunter. Tippen Sie auf den Eintrag mit dem USB-Symbol, und markieren Sie „Mediengerät (MTP)“.

Das Smartphone wird per USB nur geladen, aber nicht angezeigt

Lösung: Wechseln Sie das Kabel und verwenden Sie am besten das Kabel, das mit dem Smartphone geliefert wurde. Manche Micro-USB-Kabel sind nämlich nur zum Aufladen gedacht: Ihnen fehlen die Datenleitungen.

Warum funktioniert ein 4G-Stick nicht an Ihrem Android-Tablet?

Lösung: Wie auch unter Windows benötigt USB-Peripherie unter Android passende Treiber, um zu funktionieren. Allerdings lassen sich diese Treiber nicht herunterladen und nachträglich installieren, sondern sind in das Android-Betriebssystem integriert. Je nachdem, welche Version auf Ihrem Tablet läuft und wie der Tablet-Hersteller diese Version angepasst hat, kann der passende Treiber für das 4G-Modem vorhanden sein oder nicht. Hier hilft wirklich nur Ausprobieren. Oder Sie fragen beim Tablet-Hersteller nach. Ähnliches gilt, wenn Sie einen WLAN-Stick über die USB-Schnittstelle mit einem Fernseher verbinden wollen, um diesen ins Funknetz einzubinden. Viele Hersteller bieten unter eigenem Namen einen passenden WLAN-Adapter an. Doch diese Modelle sind meist teurer als Sticks von Drittanbietern: Hier können Sie sparen, wenn Sie vorher recherchiert haben, ob der WLAN-Stick an Ihrem Fernseher funktioniert.

Eine USB-3.0-Festplatte arbeitet zu langsam. Was können Sie tun?

Lösung: Ab Windows 8 sehen Sie direkt im Windows-Explorer, ob ein USB-3.0-Gerät mit maximalem Tempo arbeiten kann. Wählen Sie dazu in der linken Spalte des Explorers den Computer aus und in der Spalte daneben die USB-Festplatte. Markieren Sie nun in der Menüleiste des Explorers „Ansicht -> Details“. Nun sehen Sie ganz rechts, ob die Festplatte tatsächlich per USB 3.0 verbunden ist. Oder der Explorer zeigt unter dem Festplattensymbol den Hinweis „Das Gerät kann eine höhere Leistung erzielen, wenn es mit einem USB 3.0-kompatiblen Anschluss verbunden wird.“

Der SD-Karten-Leser im PC arbeitet auffällig langsam

Lösung: Aktuelle Speicherkarten erreichen in der Praxis sequenzielle Schreib- und Leseraten von rund 100 MB/s. Arbeitet der Kartenleser maximal mit USB-2.0-Tempo, wird er zum Flaschenhals bei der Dateiübertragung. Um herauszuinden, was der Kartenleser in Ihrem Notebook leisten kann, schauen Sie ins Handbuch. Oder Sie installieren das Tool USB Device Tree Viewer : Es zeigt alle extern und angeschlossene USB-Geräte in einer Baumstruktur. Klicken Sie in der linken Spalte den Port an, mit dem der Kartenleser verbunden ist. In der rechten Spalte suchen Sie den Abschnitt „Connection Information“ und anschließend die Zeile „Device Bus Speed“.

Steht dort in Klammern „High-Speed“, arbeitet der Kartenleser maximal nur mit dem Tempo von USB 2.0, ist also für aktuelle Speicherkarten zu langsam.

Taucht der Kartenleser nicht in der Übersicht von Device Tree Viewer auf, liefert er wahrscheinlich ausreichendes Tempo, weil er per PCI-Express mit dem System verbunden ist. Sie überprüfen das im Geräte-Manager: Wählen Sie „Ansicht -> Geräte nach Verbindung“. Öffnen Sie den Pfad „ACPI x64-basierter PC -> Microsoft ACPI-konformes System -> Stammkomplex für PCI-Express“. Wenn der Kartenleser unter einem der PCI Express Root Ports auftaucht, ist er intern per PCI-Express angebunden. Diese Schnittstelle liefert selbst in Version 2.0 und einer Lane (Übertragungskanal) mit maximal 500 MB/s genug Bandbreite für eine schnelle Speicherkarte.

Eine korrekt angeschlossene USB-3.0-Festplatte ist zu langsam

Lösung: Es genügt nicht, wenn der Rechner USB-Ports mit Version 3.0 besitzt. Damit der Datentransfer darüber mit der entsprechenden Geschwindigkeit abläuft, muss der dazugehörige USB-3.0-Controller im Chipsatz beziehungsweise auf der Hauptplatine aktiviert sein. Bei einigen Platinen müssen Sie ins Bios-Setup, um das zu überprüfen. Ein USB-3.0- Controller arbeitet mit dem Standard Extensible Host Controller Interface (xHCI). Deshalb darf eine Einstellung wie „xHCI Modus“ im Bios-Setup nicht auf „Disabled“ stehen.

Passt die Einstellung im Bios-Setup, das Festplattentempo steigt aber nicht, liegt es am Treiber. Starten Sie erneut Device Tree Viewer: Zeigt das Tool, dass die externe Festplatte mit einem Port verbunden ist, der in der linken Spalte unter einem EHCI-Controller steht, arbeitet die Platte nur mit USB 2.0. Installieren Sie deshalb aktuelle Treiber für den USB-3.0- Controller: Meist sind sie in den Chipsatz-Treiber integriert. Deshalb finden Sie die passenden Treiber beim Hersteller der Hauptplatine oder des Chipsatzes, also etwa Intel oder AMD. Nach einem Neustart des Systems sollte der xHCI-Controller arbeiten: USB Device Tree Viewer zeigt nun an, dass sie an einem Port hängt, den der xHCI-Controller verwaltet.

Beim USB-WLAN-Stick bricht immer wieder die Verbindung ab

Lösung: Möglicherweise ist ein fehlerhafter Energiesparmodus dafür verantwortlich: Der Stick verabschiedet sich in den Standby, obwohl noch eine Übertragung läuft, oder wacht nicht rechtzeitig daraus auf, um einen neuen Datentransfer abzuwickeln. Falls ein aktueller Treiber nichts bewirkt, sollten Sie deshalb den Sparmodus des USB-Ports deaktivieren. Gehen Sie dafür zu „Energieoptionen -> Energiesparplaneinstellungen bearbeiten -> Erweiterte Energieeinstellungen ändern“. Dort wählen Sie „USB-Einstellungen -> Einstellung für selektives USB-Energiesparen“ und setzen die Einträge auf „Deaktiviert“ – nur für Akku- oder Netzstrombetrieb oder für beide. Bei einem Notebook müssen Sie diese Einstellung möglicherweise auch bei einem anderen Energiesparplan ändern, wenn ihn der Laptop beim Ein- oder Ausstecken des Stromsteckers wechselt.

Windows mag einen USB-Stick nicht sicher entfernen lassen

Lösung: Damit Sie den Stick problemlos abziehen können, müssen alle Programme geschlossen sein, die auf den Stick zugreifen: Das können Tools sein, die Sie vom Stick aus gestartet haben, oder Anwendungen, die für eine geöffnete Datei zuständig sind, die auf dem Stick gespeichert ist. Schneller geht es unter Windows 7 mit dem Tool USB Disc Ejector . Das Tool zeigt die angeschlossenen USB-Sticks an: Die können Sie per Doppelklick auf das Symbol oder per Enter-Taste entfernen. Sie können das Menüfenster des Tools frei positionieren oder ihn fest in eine Ecke des Desktops andocken: Wählen Sie dazu „More -> Options -> Positioning“. Im Menü „Hotkeys“ lassen sich außerdem Tasten als Shortcuts festlegen, mit denen Sie USB-Geräte direkt entfernen können.

Übersicht: Von USB 1.0 bis 3.1

Die Übersicht fasst zusammen, was die einzelnen USB-Logos bedeuten – von den Anfängen mit USB 1.0 über das immer noch verbreitete USB 2.0 bis zum aktuellen USB 3.1 Gen 2.

USB 1.0: Das USB Implementers Forum (USB-IF) bringt USB 1.0 ab 1996 auf den Weg. Zum USB-IF gehören Intel, Microsoft und Compaq als Gründungsmitglieder. Der Standard ist als Anschlussmöglichkeit für Peripherie gedacht und setzt sich gegen eine Vielzahl von Schnittstellentypen wie SCSI durch. Ein Grund: Per USB lassen sich externe Geräte wie Drucker, Scanner und Sticks während des Betriebs anstecken – Hot Swapping. Die Datenübertragungsrate liegt anfangs bei 1,5 MBit/s als Low-Speed-Variante. Der Full-Speed-Modus erreicht maximal 12 MBit/s.

USB 1.1: Die überarbeitete Fassung wird 1998 vorgestellt, behebt Fehler von USB 1.0, ändert jedoch nichts am Übertragungstempo, das bei 1,5 MB/s (Low Speed) beziehungsweise 12 MBit/s (Full Speed) liegt.

USB 2.0: Die USB-Version wird 2000 eingeführt und ist die wohl bekannteste Revision des Standards. Der High-Speed-Modus erhöht die Übertragungsrate auf 480 MBit/s. So reicht das Tempo für den Anschluss von externen Festplatten aus. Bis dato setzen Drucker auf diesen Standard. USB-2.0-Geräte sind abwärtskompatibel, erreichen dann allerdings nur die Geschwindigkeit des jeweils niedrigeren Standards.

USB 3.0: Seit 2008 gibt es diese Fassung des Standards, der neue Kabel, Stecker und Buchsen mit sich bringt, die dank der blauen Einfärbung auch farblich herausstechen. Das Logo kennzeichnet Geräte mit Super-Speed-Modus. Sie erreichen mit maximal 4,8 Gbit/s eine zehnmal höhere Geschwindigkeit wie USB 2.0. Das Tempoplus verdankt USB 3.0 zusätzlichen Datenleitungen – vier statt der zwei Leitungen der Vorgängerversion. Im Jahr 2015 erhält diese Version mit USB 3.1 Gen 1 (Generation 1) eine neue Bezeichnung.

USB 3.1: Die aktuelle Version des Standards gibt es seit 2013. Das „Plus“ im Logo nach Super Speed weist auf die Geschwindigkeit von nun maximal 10 GBit/s hin. Allerdings kommen nur Geräte auf das Übertragungstempo, die den Zusatz USB 3.1 Gen 2 (Generation 2) tragen. Der Standard nutzt dieselben Datenleitungen und dieselben Kabel wie Super Speed. Zusätzlich ist jedoch die Steckverbindung Typ C eingeführt worden – ein verdrehsicherer Steckverbinder mit mehr Kontakten. Er ermöglicht höhere Ladeströme und transportiert Audio- und Videosignale wie Displayport oder Thunderbolt. Die Spielarten von USB Typ C finden Sie im Kasten „Der neue USB-Stecker: Typ C“ zusammengefasst.

Das Symbol zum sicheren Entfernen fehlt in der Taskleiste

Lösung: Klicken Sie auf den Pfeil links neben dem Infobereich in der Taskleiste. Im Fenster, das sich nun öffnet, sehen Sie das Symbol für das sichere Entfernen. Ziehen Sie es nun mit der Maus auf die Taskleiste, um es permanent anzuzeigen.

USB-Technik

So gängig der USB-Anschluss ist, so viele Varianten des Universal Serial Bus gibt es. Der Technikteil erklärt die unterschiedlichen Standards, Stecker und Logos und hilft dabei, immer die beste Verbindung zu finden.

USB-Geschwindigkeit: Spezifikation gibt Tempo vor

Eines der wichtigsten Unterscheidungskriterien bei den verschiedenen USB-Standards ist die Übertragungsgeschwindigkeit. Sie reicht von 1,5 MBit/s bei USB 1.0 Low Speed bis zu 10 GBit/s bei USB 3.1 Super Speed Plus. Ein schneller Port schafft damit auch immer eine optimale Ausgangslage für den Betrieb eines USB-Geräts. Allerdings lässt es sich aufgrund des Anschlusses nicht tunen. Denn Grundlage bleibt die ursprüngliche Spezifikation. Und selbst wenn die Schnittstelle eines Geräts beispielsweise mit USB 2.0 angegeben ist, heißt das nicht unbedingt, dass es die Datenrate auch wirklich maximal ausschöpft. Volles Tempo dürfen Sie nur erwarten, wenn das Logo den Zusatz „Certified USB Hi-Speed“ trägt.

Auf welche USB-Version die Geräte in und an Ihrem Rechner ausgelegt und tatsächlich angeschlossen sind, stellen Sie beispielsweise mit dem Gratis-Tool USB Device Tree Viewer fest. Es greift auf Informationen des Windows-Geräte-Managers zurück und gibt sowohl den Standard des Ports als auch den des angeschlossenen Geräts an. Beim Check werden Sie feststellen, dass bis heute auch alte USB-Versionen zum Einsatz kommen. Ein Beispiel: Maus und Tastatur eines Arbeitsplatzrechners nutzen oft nur USB 1.0 in der Low-Speed-Version mit 1,5 MBit/s, obwohl sie an einem Port hängen, der der USB-2.0-Spezifikation entspricht. Sie benötigen und nutzen die schnellere Infrastruktur jedoch nicht. Ein ähnliches Bild ergibt sich bei Druckern, Multifunktionsgeräten und Scannern. Sie sind mit USB-2.0-Schnittstellen ausgestattet. Deshalb erzielen Sie kein Tempoplus, wenn Sie sie am USB-3.0-Port betreiben.

Umgekehrt können unterdimensionierte USB-Ports Geräte bremsen. So hat sich etwa bei externen Festplatten USB 3.0 als gebräuchliche Schnittstelle durchgesetzt. Hängt das Speichermedium am USB-2.0-Anschluss, drosselt diese den Datentransfer von theoretischen 4,8 GB/s auf 480 MBit/s – ein merklicher Unterschied, besonders beim Überspielen von großen Datenmengen wie Backups. Das gilt selbst dann, wenn die tatsächlichen Übertragungsraten deutlich unter den theoretischen liegen.

Verschiedene Steckertypen je nach USB-Version

Für die Zeit vor USB gibt es eine ganze Reihe von Schnittstellen wie Parallelport oder SCSI (Small Computer System Interface), um Scanner und Drucker mit dem Rechner zu verbinden. Der Universal Serial Bus löst diese mehr und mehr ab. Das liegt nicht zuletzt an den Steckern, die sich vergleichsweise einfach handhaben und für mehrere Gerätearten einsetzen lassen. Die ersten und immer noch verwendeten Typen sind A und B – die flache und die quadratische Variante der Verbindung. Die flache Buchse ist im Rechner, die quadratische beispielsweise im Drucker oder Scanner eingebaut. Typisch sind die vier äußeren Kontakte für die Versorgungsspannung. Dahinter liegen die Datenleitungen. Mobile Geräte machen kleinere Versionen des Typs B – Mini- und Micro-USB – notwendig, die Smartphones und Tablets mit Strom versorgen und für die Verbindung zum Rechner sorgen.

Mit dem USB-Standard 3.0 ändern sich Stecker und Kabel – sowohl äußerlich als auch innerlich. Denn die zusätzlichen Datenleitungen machen auch mehr Pins als bisher in den Steckverbindungen nötig. Außerdem sind die Stecker und Kabel blau eingefärbt. Beim Typ-A-Stecker lassen sich die neuen Kontakte so anordnen, dass sie mit alten USB-Versionen kompatibel bleiben. Typ-B-Steckverbindungen erhalten einen Aufbau. Damit passen zwar die alten USB-Kabel in den quadratischen Teil des Anschlusses, neue Kabel jedoch nicht in Typ-B-Ports der Generationen 1.0 und 2.0. Mini-USB-Stecker fallen bei der dritten Version komplett unter den Tisch. Dafür gibt es nun Micro-B-USB-3.0-Stecker, deren Blech in der Mitte etwas eingekerbt ist. In die breitere Seite passen alte Micro-USB-Stecker, die dann allerdings auch nur mit maximal USB-2.0-Tempo arbeiten. Die schmalere Seite ist für die Super-Speed-Signale zuständig.

Die derzeit aktuellste Variante ist der Stecker mit der Bezeichnung USB Typ C. Sein wichtigstes Merkmal: Er ist verdrehsicher konstruiert. Ähnlich wie beim Apple-Lightning-Anschluss gibt es so kein „Falschherum“ beim Einstecken mehr. Im Inneren finden sich mehr Kontakte, die höhere Ladeströme und Spannungen als bisher erlauben, um neben USB auch Thunderbolt, Displayport, PCI Express und analoge Audiosignale zu transportieren. Allerdings gibt es zahlreiche Varianten. Denn Typ C steht nicht automatisch für den Support des aktuellsten USB-3.1-Standards. Im Kasten „Der neue USB-Stecker: Typ C“ finden Sie die einzelnen Symbole erklärt, an denen Sie die Talente der jeweiligen Fassung erkennen. Die Kabel haben bei Typ C auf beiden Seiten denselben Stecker. Hier entfällt erstmals bei USB die Unterscheidung in Geräte- und Hostseite.

Nachrüsten von USB-Anschlüssen: Adapter und Karten

Fehlt eine USB-Schnittstelle, lässt sie sich auf mehreren Wegen nachrüsten. Wollen Sie etwa Anschlüsse im PC oder Notebook unterbringen, nehmen Sie Steckkarten beziehungsweise Controllerkarten für den Expresscard-Einschub. Steckkarten für USB-3.0-Ports kosten mit zwei Ports rund 20 Euro und finden im Rechner in einem freien PCIe-Slot Platz. USB-2.0-Karten lassen sich genauso unterbringen und sind nur halb so teuer. Die Controllerkarten fürs Notebook bieten einen bis vier zusätzliche USB-Anschlüsse und sind im Schnitt kostspieliger als interne Karten. So kommt eine Karte mit zwei USB-3.0-Ports auf gut 40 Euro. Die USB-2.0-Pendants gibt es zumindest noch bei Ebay für rund 10 Euro. Am teuersten kommen Sie Steckkarten für USB Typ C mit gut 40 Euro für einen Anschluss.

Ist die USB-Schnittstelle am Gerät nur einmal vorhanden, reicht das oft nicht aus, um alle Peripheriegeräte wie externe Festplatten, Kartenleser oder auch USB-Displays anschließen zu können. Hubs beheben das Schnittstellendefizit. In der Regel erweitern sie die Anzahl der USB-Ports oder liefern sogar noch andere Anschlüsse wie Gigabit-Ethernet dazu. Preislich liegen sie bei etwa 25 Euro für USB 3.0 und 15 Euro für USB 2.0.

Zwingend notwendig wird die Porterweiterung bei Notebooks wie dem Apple Macbook12, das außer USB Typ C keine weiteren Anschlüsse aufweist, oder dem Dell XPS 13, das zwar mit USB Typ C ausgestattet ist, dem aber wichtige Schnittstellen wie HDMI oder Ethernet fehlen. Beide Hersteller bieten Originalzubehör an, allerdings gibt es zum Dell-Adapter zum Recherchezeitpunkt noch keine Details zu den Schnittstellentypen.

Anders bei Apple: Der USB-C-Digital-AV-Multiport-Adapter weist drei Anschlüsse auf – HDMI 1.4b, USB 3.1 Gen 1 und USB Typ C. Wie das Apple-Notebook unterstützt auch der Adapter damit nur Superspeed, nicht Superspeed Plus. Außerdem überträgt der USB-Typ-C-Anschluss des Adapters nur Strom, keine Daten. Das gilt auch für die Variante mit VGA anstelle von HDMI. Beide Adapter kosten je 89 Euro.

Spezialfall: Smartphone wird zum PC

Über manche USB-Typ-C-Verbindungen lassen sich parallel zum USB-Daten- und -Ladestrom auch Audio- und Videodaten übertragen. Sie sind mit einem kleinen „D“ oder einem Blitzsymbol gekennzeichnet. Dabei unterstützt USB Typ C die Übertragungsprotokolle von Displayport, PCI Express und Thunderbolt. Die Logos und ihre Bedeutung erklärt der Kasten, „Der neue USB-Stecker: Typ C“.

Dieses Talent lässt sich bei Smartphones unter Windows 10 Mobile nutzen, um sie per Adapter zu einem großen PC auszubauen – so etwa die Kombination der Smartphone-Modelle Microsoft Lumia 950 oder 950 XL mit dem „Display Dock“ des Herstellers. Das Kästchen ist mit HDMI, Displayport und drei USB-Anschlüssen bestückt und kostet 109 Euro. Dank USB Typ C mutiert das Smartphone zum vollwertigen Rechner, an den Sie Bildschirm, Maus und Tastatur anschließen können. Das Docking-Kästchen übernimmt die korrekte Skalierung von Office-Anwendungen oder Outlook auf dem großen Bildschirm. Das Smartphone lässt sich auch im angeschlossenen Zustand für Handy-Funktionen wie SMS oder Telefonie nutzen und wird gleichzeitig aufgeladen.

Stromversorgung und Laden per USB

Ein großer Vorteil von USB: Über die Schnittstelle laufen nicht nur Daten, sondern auch Strom. In den Spezifikationen bis USB 2.0 sind maximal 500 Milliampere (mA) zugelassen. Ab USB 3.0 erhöht sich die Gesamtstromstärke auf 900 mA. Die Strommenge verteilt sich auf alle Geräte, die am Port hängen. Das ist etwa bei Hubs wichtig, da daran mehrere USB-Geräte angeschlossen sind. Das Quellgerät (Host) gibt vor, welche weiteren Geräte mit Energie versorgt werden. Die Steuerung der Stromstärke übernimmt der Hostcontroller. Bei USB bis zur Version 2.0 bezieht der Low-Powered-Port 100 mA, nur ein High-Powered-Port ist auf bis zu 500 mA ausgelegt. Die Einschränkungen haben zur Folge, dass etwa externe Festplatten extra Stromquellen benötigen – entweder über einen weiteren USB-Anschluss via Y-Kabel oder ein externes Netzteil.

Mehr Strom gibt es über eine USB-Typ-C-Steckverbindung, die Geräte bis zu einer Leistungsaufnahme bis 100 Watt ohne zusätzliche Stromquellen betreiben kann – etwa Monitore oder sogar Notebooks. Der Wert entspricht 5 Ampere bei 20 Volt. In der Spezifikation nennt sich das Verfahren USB Power Delivery (PD). Dabei handeln die Geräte aus, wer Strom liefert und wer ihn aufnimmt. Damit nicht jeder Hersteller individuell definiert, wie sein Gerät geladen wird, gibt der Standard fünf Profile vor, die von 5 Volt bei 2 Ampere bis zu den maximalen 20 Volt bei 5 Ampere reichen.

Der neue USB-Stecker: Typ C

Mit der aktuellen USB-Version 3.1 hält auch eine neue Steckverbindung Einzug: Typ C. Dank der flachen Bauweise eignet sie sich für Rechner und Unterhaltungselektronik genauso wie für Tablets und Smartphones. Der Typ-C-Anschluss ist auf mindestens 10.000 mechanische Steckvorgänge ausgelegt und lässt sich verdrehsicher einstecken. Es gibt ihn allerdings in unterschiedlichen Ausführungen, die jeweils durch Symbole neben den Steckern gekennzeichnet sind.

Sehen Sie am Anschluss das USB-Symbol mit den beiden „S“ und der hochgestellten „10“, erreicht der Port die maximale Datenübertragung von 10 GBit/s, also die volle Super-Speed-Plus-Geschwindigkeit. Ist diese Kombination in eine kleine Batterie eingepackt, kommt die schnelle Ladefunktion USB Power Delivery (USB PD) dazu. Sie erreicht bis zu 20 Volt und 5 Ampere, also 100 Watt. Allerdings setzt sie entsprechende Kabel (Full Featured) voraus.

Steht neben dem Symbol für USB Typ C noch ein „D“, lässt sich der Anschluss als Displayport nutzen: Er kann damit auch Video- und Audiodaten verarbeiten. Das Logo gibt es in zwei Varianten: Links ohne der hochgestellten „10“ bedeutet das, dass der Anschluss an sich USB 3.1 Gen 1 unterstützt, also eigentlich USB 3.0 mit 5 GBit/s. Findet sich – wie auf dem rechten Bild – zusätzlich die hochgestellte 10, entspricht der Anschluss Super-Speed-Plus-Tempo mit 10 GBit/s. Die Variante gibt es noch mit kleinen Batteriesymbolen. Dann ist die flotte Ladefunktion integriert.

Der Blitz für Thunderbolt neben dem Typ-C-Anschluss sieht vergleichsweise mager aus, birgt aber eine Fülle an Funktionen: Denn nun unterstützt der Anschluss neben Thunderbolt auch Displayports und USB PD (Power Delivery). Außerdem gibt es diesen Anschluss nur in der Super-Speed-Plus-Variante.

Den USB-Typ-C-Stecker gibt es auch als Anschluss mit USB-2.0-Geschwindigkeit, also mit maximal 480 MBit/s. Dann findet sich nur ein USB-Symbol neben dem Port. Ist es in einer Batterie eingepackt, wird Power Delivery unterstützt. Eine Variante mit Displayport-Support gibt es hier allerdings nicht. Auch Thunderbolt-Geräte werden hier nicht erkannt.

Grafikkarte backen: So reparieren Sie defekte Hardware-Platinen

Eine Grafikkarte lässt sich nach Transportschäden oder alterungsbedingter Lötzinnverformung kinderleicht reparieren – indem Sie sie im Backofen backen. Wir zeigen Ihnen, wie das geht.

Grafikkarte defekt, die Aufregung ist groß. Ist zudem die Gewährleistung oder Garantie des Herstellers nicht mehr gültig, scheint die Karte wohl reif für den Elektroschrott zu sein. Doch es gibt noch letzte Rettungsversuche! Bevor Sie sich eine neue Karte kaufen, sollten Sie versuchen, Ihre alte Grafikkarte im Backofen zu backen.

Was zunächst wie ein schlechter Scherz klingt, hat schon oft Wunder gewirkt. Der Grund: Die Leiterbahnen auf den Platinen verschleißen aufgrund von Korrosion sehr schnell. Hitze kann den Lötzinn auf den Platinen leicht verformen – und defekte Leiterbahnen wieder zusammenfügen. Defekte Grafikkarten lassen sich mithilfe des Backofens zu Hause wieder reparieren. Diese Methode hilf oft auch bei erschütterungsbedingten Transportschäden an den Leiterbahnen. Wir zeigen, wie es geht.

Grafikkarte reparieren: So backen Sie Ihre Grafikkarte gesund!

Vergewissern Sie sich zunächst, ob die Grafikkarte wirklich defekt ist. Liegt das Problem am Monitor, wäre es ärgerlich, wenn Sie die intakte Grafikkarte in den Backofen schieben. Können Sie ein Defekt anderer Computerkomponenten ausschließen? Sind keine möglichen Treiberprobleme vorhanden?

Beachten Sie: Diese Anleitung sollte nur von jenen durchgeführt werden, die sich mit Hardware auskennen. Besteht noch die gesetzliche Gewährleistung oder die Herstellergarantie der Grafikkarte, erlischt diese nach dem Backvorgang möglicherweise.Und: Die Durchführung geschieht auf eigene Gefahr! Für entstandene Schäden übernehmen wir keine Haftung.

Grafikkarte backen – Schritt für Schritt

Halten sie Wärmeleitpaste parat. Ohne diese sollten Sie die reparierte Grafikkarte nicht testen.

1. Heizen Sie den Backofen auf 100 Grad Celsius (Ober-/Unterhitze) vor. Bereiten Sie die derweil die ausgebaute Grafikkarte für den Backvorgang vor: Kunststoffteile und Kühler demontieren und die Wärmeleitpaste auf dem Grafikchip (GPU) entfernen.

2. Wenn die Backofen-Temperatur erreicht wurde: Grafikkarte auf einen mit Backpapier ausgelegten Backofenrost legen und diesen in die mittlere Schiene des Ofens schieben. Die Grafikkarte nun für genau 30 Minuten backen. Entstehen dabei Gerüche von Lötzinn, ist das ganz normal.

3. Anschließend die Grafikkarte abkühlen lassen. Bauen Sie sie erst wieder in den Computer ein, wenn sie einigermaßen kalt ist. Das Auftragen neuer Wärmeleitpaste nicht vergessen!

4. Testen Sie die Grafikkarte. Funktioniert sie wieder, funktioniert sie störungsfrei? Glückwunsch! Wurde das Problem nicht beseitigt? Dann empfiehlt es sich, die Grafikkarte abermals zu backen. Ein weiterer Versuch ist es wert, die Karte vor dem Mülleimer zu retten.

So gehen Sie bei zusätzlichen Backvorgängen vor

Gehen Sie auch bei weiteren Backvorgängen wie in dieser Anleitung vor – erhöhen Sie dieses Mal jedoch die Temperatur. Probieren Sie, Ihre Grafikkarte für 30 Minuten bei 130 Grad Celsius zu reparieren. Manche Tüftler wagen sogar Temperaturen bis zu 220 oder gar 250 Grad.

Wir raten: Fangen Sie klein an und gehen Sie kleine Schritte! Aufgrund der empfindlichen Bauteile an einer Grafikkarte, sollte man nicht ohne Grund direkt auf eine hohe Temperatur setzen. 100 Grad Celsius bei 30 Minuten sind für den ersten Versuch genau richtig. Ist das Problem nicht beseitigt, erhöhen Sie die Temperatur beim nächsten Vorgang um 30 Grad Celsius. Bei weiterem Defekt abermals um 30 Grad und so weiter. Funktioniert die Grafikkarte auch nach mehreren Backversuchen nicht, dann ist sie leider wirklich defekt.

Ein weiterer Tipp für weitere Backversuche: Testen Sie, ob die Verwendung von Alufolie bessere Erfolge erzielt. Einfach die Grafikkarte komplett in Alufolie wickeln. Die Hitzeverteilung innerhalb des Alumantels kann ggf. Wunder wirken.

Und immer das 30-Minuten-Limit beachten!

Funktioniert die Grafikkarte wieder, sollten Sie abschließend übrigens nicht vergessen, den Backofen zu reinigen.

Abschließend: Zur Haltbarkeit der gebackenen Grafikkarte

Diese Methode ist keine Lösung für ein ewiges Leben. Man rettet die Grafikkarte vor dem Wegwerfen – möglicherweise auch nur für ein paar Wochen oder Monate. Vielleicht aber auch für ein ganzes Jahr.

Auch können Sie den Vorgang durchaus wiederholen, wenn die Grafikkarte nach einer gewissen Zeit wieder defekt sein sollte. Die Praxis zeigt jedoch: Die Spanne zu einem weiteren Defekt verkürzt sich in der Regel. Überlebt die gebackene Karte ein ganzes Jahr, ist es wohl wahrscheinlich, dass diese nach einem weiteren Backen nicht mehr so lang überleben wird. Wer seine Grafikkarte noch eine Zeit lang nutzen möchte, kann mit diesem Prinzip aber vielleicht den Neukauf um viele Monate hinauszögern.

So verlängern Sie die Akku-Leistung bei Smartphone und Notebook

Wir zeigen, wie Sie die Lebensdauer Ihres Akkus erhalten, schwächelnde Akkus wieder regenerieren und Strom sparen.

Wird der Akku Ihres Notebooks oder Smartphones immer zu schnell leer? Mit unseren Tipps hält Ihr Akku länger durch. Zunächst liefern wir Ihnen Tipps, um die Akkulaufzeit bei Smartphones zu verlängern. Anschließend folgen ab dem Abschnitt „Teil 2: So verlängern Sie die Akku-Laufzeit bei Notebooks“ viele Tipps, die Ihnen dabei helfen, länger mobil mit dem Laptop arbeiten zu können.

Warum nimmt die Kapazität Ihres Akkus immer mehr ab?

Der Akku in Notebook und Smartphone ist ein Verschleißteil: Je länger er in Betrieb ist, desto weniger Energie kann er aufnehmen, speichern und wieder an das Mobilgerät abgeben. Akkus mit Lithium-Ionen-Technik, wie sie derzeit in fast allen mobilen Geräten genutzt werden, verlieren in rund zwei Jahren Betrieb etwa die Hälfte ihrer Kapazität. Entsprechend verkürzt sich die Akkulaufzeit des Gerätes. Diesen Alterungsprozess des Akkus können Sie nicht aufhalten, jedoch mit den richtigen Pflegemaßnahmen deutlich verlangsamen.

Wann wird der Akku zum Garantiefall? Für den Akku gilt meistens eine kürzere Garantiezeit als für das Notebook oder Smartphone selbst. Üblich sind 12 Monate Akkugarantie bei einer Gerätegarantie von 24 Monaten. Wann innerhalb dieses Zeitraums der Garantiefall eintritt, unterscheidet sich von Hersteller zu Hersteller: Applegarantiert beim iPhone zum Beispiel, dass die Akkukapazität bei 500 kompletten Ladezyklen nicht unter 80 Prozent fällt, ebenso Samsung bei den Galaxy-Smartphones. Häufig fehlen aber eindeutige Angaben zu den Kapazitätsgrenzen, ab denen die Akkugarantie greift.

Viele Hersteller liefern Akku-Checktools mit, die den Akkuzustand überprüfen können: Nur wenn sie innerhalb des Garantiezeitraums einen Fehler anzeigen, gilt der Akku als beschädigt und wird kostenlos ausgetauscht.

Muss ein Ersatzakku vom Gerätehersteller kommen? Den neuen Akku müssen Sie nicht beim Hersteller kaufen – allerdings haben Sie dann im Reklamationsfall bessere Chancen als bei einem Drittanbieter. Außerdem müssen Sie sich bei einem Drittakku darauf verlassen, dass er, wie beschrieben, auch tatsächlich zu Ihrem Notebook passt, denn es gibt keine öffentlichen Listen der Laptop-Hersteller zu den geprüften Akkus für ein bestimmtes Modell. Auf jeden Fall sollten Sie bei auffällig günstigen Angeboten Vorsicht walten lassen, denn es gibt immer wieder Berichte über gefälschte und minderwertige Akkus, die als offizielle Ersatzteile von Drittanbietern verkauft werden.

Wie erkennen Sie den Kapazitätsverlust Ihres Akkus? Laden Sie zunächst den Akku auf 100 Prozent. Installieren Sie anschließend das Gratis-Tool Passmark Batterymon . Klicken Sie nach dem Start des Tools auf das dritte Symbol von links „Battery Information“, und achten Sie auf die Angaben in den Zeilen „Design Capacity“ und „Full Charge Capacity“. Erstere gibt an, wie groß die Kapazität des Akkus in Milliwattstunden (mWh) laut Hersteller sein soll, zweitere wie hoch seine derzeitige Kapazität bei voller Ladung ist. Die Differenz ist der Kapazitätsverlust. Die Akkukapazität lässt sich aber auch mit einem Windows-Bordmittel prüfen: Starten Sie die Eingabeaufforderung (etwa über das Windows-Startmenü), und geben Sie den Befehl powercfg/batteryreport in der Kommandozeile ein. Nach Drücken der Eingabetaste zeigt Ihnen Windows an, wo er den „Bericht zur Akkulaufzeit“ abgespeichert hat, den Sie mit diesem Befehl angefordert haben. Öffnen Sie die HTML-Datei per Doppelklick: Auch hier stehen die relevanten Informationen bei „Design Capacity“ beziehungsweise „Full Charge Capacity“.

Teil 1: So verlängern Sie die Akku-Laufzeit bei Smartphones

Erinnern Sie sich noch an den „Memoryeffekt“ bei Nickel-Cadmium-Akkus? Er sorgte dafür, dass es vor einigen Jahren für Akkus nur eine Regel gab: Entlade den Akku immer vollständig vor dem Aufladen, sonst merkt sich der Akku den Stand und lädt nicht mehr komplett auf. Mittlerweile gehört diese Regel der Vergangenheit an, und Forscher haben herausgefunden, dass genau das Gegenteil für den Akku zuträglich ist. Auf den nächsten Seiten erklären wir Ihnen alles, was Sie über Akkupflege wissen müssen.

Dabei hilft, die technischen Daten des Akkus zu kennen. Sie finden sie als Aufdruck oder Aufkleber direkt auf dem Gerät, etwa„3.8 V Li-ion Batterie“, „5.70 Wh“ und „4.35 V“. In unserem Fall hat der Lithium-Ionen-Akku eine Nennspannung von 3,8 Volt, eine Kapazität von 5,70 Wattstunden und eine Ladeschlussspannung von 4,35 Volt. Sie können den Akku also mit einem Ladegerät laden, das zwischen 3,8 und 4,35 Volt bereitstellt.

Außerdem ist auf einem Akku seine elektrische Ladung in Milliamperestunden (mAh) abgedruckt. Sie gibt sozusagen die Menge an Strom an, die dem Akku pro Stunde entzogen werden kann. In der Praxis wird sowohl diese wie auch der Wattstundenwert als „Kapazität“ bezeichnet.

Allgemeine Akku-Tipps

In modernen Smartphones kommt meist eine von zwei Akkutechniken zum Einsatz: Lithium-Ionen oder Lithium-Polymer. Der Unterschied liegt im Elektrolyten, der bei Lithium-Ionen-Akkus flüssig ist, bei Lithium-Polymer-Ausführungen aus einer gelartigen Folie auf Polymerbasis besteht. Dadurch sind Lithium-Polymer-Akkus in verschiedenen Bauformen möglich, sogar gewinkelt oder gebogen. Doch egal, welcher Akku Ihr Mobilgerät antreibt – es gibt einige Grundregeln, die Sie im Umgang damit einhalten sollten.

Ladestand und Lagerung des Akkus

Da ein Akku umso schneller altert, je höher seine Zellenspannung ist, sollten Sie den Stromspender Ihres Smartphones nicht ständig auf 100 Prozent Ladekapazität halten. Im Allgemeinen nimmt man an, dass eine Ladung von 55 bis 75 Prozent optimal ist. Dazu kommt, dass Sie den Akku möglichst kühl bei 10 bis 15 Grad verwahren sollten. Zum Vergleich: Bei Zimmertemperatur (etwa 20 Grad) verliert ein Akku pro Monat etwa 3 Prozent seiner Ladung.

Akku laden über USB oder Netzstecker?

Es gibt grundsätzlich zwei klassische Methoden, um das Smartphone aufzuladen: mit dem beiliegenden USB-Kabel über die USB-Buchse am PC oder direkt an der Steckdose über einen Ladeadapter und ein USB-Kabel beziehungsweise ein Ladenetzteil. Dabei bestehen allerdings einige wesentliche Unterschiede, was das Ladetempo angeht: Direkt über die Steckdose laden Sie am schnellsten auf, genauer gesagt, etwa dreimal so schnell wie beim Laden über den USB-Port des Computers.

Der Grund: Ein USB-2.0-Anschluss liefert nur maximal 500 mA aus. Daher dauert das Laden entsprechend lange, weil die Kapazität aktueller Smartphone-Akkus sehr viel höher ist. Mit USB 3.0 wurde die Stromstärke auf 900 mA erhöht, wodurch Sie das Gerät geringfügig schneller laden.

Das sollten Sie bei den Ladevorgängen beachten: Die optimale Ladespannung für Lithium- Ionen-Akkus liegt bei 4,2 Volt. Die meisten Ladegeräte liegen mit einer Ladespannung von etwa 5 Volt noch im Toleranzbereich, wodurch die Akkus nicht beschädigt werden. Darüber hinaus geben sie in der Regel eine Stromstärke zwischen 700 und 1000 mA weiter.

Der Ladestrom sollte ferner ungefähr das 0,6- bis 1-Fache der Akkukapazität in mAh aufbringen. Höhere Stromstärken können die Lebensdauer des Akkus reduzieren, niedrigere Stärken das Ladegerät überhitzen.

Wie sehr belasten Schnell-Ladetechniken den Akku?

Vor allem bei Smartphones werben die Hersteller häufig mit Schnell-Lade-Techniken wie Fast Charging oder Quick Charge, die den Akku in kürzester Zeit aufladen sollen. Grundsätzlich belastet das Laden bei hohen Spannungen und Temperaturen den Akku. Die Smartphone-Hersteller wiederum verweisen darauf, dass sie beim schnellen Laden Spannung und Stromfluss so regulieren können, dass für den Akku keine schädlichen Temperaturen entstehen. Außerdem wird der Akku nur bis zu einem bestimmten Niveau sehr schnell geladen, zum Beispiel bis rund 60 Prozent, um den Akku nicht für längere Zeit zu belasten. Dafür müssen Akku und Ladegerät allerdings für das entsprechende Schnell-Ladeverfahren geeignet sein.

Tiefentladung – was tun?

Jeder Akku hat eine so genannte Entladeschlussspannung, also eine definierte Spannung, bei der die Entladung des Akkus automatisch beendet wird. Bei Lithium-Ionen-Akkus liegt die Entladeschlussspannung in der Regel bei etwa 2,50 Volt, bei Lithium-Polymer-Akkus bei 3,30 Volt. Da der Wert jedoch vom Hersteller vorgegeben wird, kann er auch anders ausfallen.

Fällt die Spannung unter diesen Wert, spricht man von Tiefentladung. Dieser Zustand kann den Akku dauerhaft schädigen, weil sich dadurch im Akku Kupferbrücken bilden können, die unter Umständen einen Kurzschluss verursachen, sobald Sie den Akku wieder aufladen möchten.

Gründe für die Tiefentladung können etwa ein fehlerhaftes Ladegerät oder ein veralteter Akku sein. Es kann aber auch vorkommen, dass die „Abschaltautomatik“ des Akkus nicht ordnungsgemäß funktioniert. Möchten Sie einen tiefentladenen Akku wieder in Betrieb nehmen, sollten Sie dabei aus den genannten Gründen äußerst vorsichtig zu Werk, um Schäden zu vermeiden.

Der richtige Umgang mit Akkus im Winter

Bei niedrigen Temperaturen reduziert sich die Akkulaufzeit. Um den Akkuverbrauch Ihres Mobilgeräts von Haus aus möglichst gering zu halten, lohnt es sich, die Energieoptionen des Smartphones zu überprüfen und gegebenenfalls anzupassen. Dann sind alle nicht benötigten Funktionen wie WLAN und Bluetooth ausgeschaltet, die die Akkulaufzeit unnötig verkürzen.

Sie können die Akkulaufzeit auch erhöhen, indem Sie Ihr Smartphone in eine Hülle mit Zusatzakku stecken. Beispielsweise gibt’s das Mophie Juice Pack für das Samsung Galaxy S4, S6, S6 und das S6 Edge in verschiedenen Farben. Kosten: zwischen 100 und 110 Euro. Eine Besonderheit für einige Samsung-Mobilgeräte bringt iPower heraus: So bietet der Hersteller für das Galaxy Note S3 und S5 sowie für das Galaxy Note 3 und 4 Hüllen mit eingebautem Akku an, der sich zum Teil per Solarpanel laden lässt. Auf Knopfdruck versorgen die Hüllen dann Ihr Smartphone mit Strom.

Wer sein Smartphone nicht unbedingt in die Sonne legen möchte, um von Solarenergie zu profitieren, der sollte sich von der österreichischen Firma Sunnybag das extrem kompakte und dünne Solarpanel Leaf für 99 Euro ansehen. Es eignet sich besonders für Skifahrer und Bergwanderer, da es sich am Rucksack befestigen lässt. Es wiegt gerade mal 180 Gramm und hat einen integrierten 2200-mAh-Akku, der wiederum seine Ladung per USB an Ihr Smartphone abgibt. Speziell für Smartphones geeignet ist auch dasPowertab , ein DIN-A4 großes Solarpanel zum Aufstellen (mit integrierter Leselampe), das eine Kapazität von 6000 mAh bietet. Einführungspreis: 65 Euro. Aber auch Rucksäcke und Taschen mit integrierten Solarpanels bietet Sunnybag an.

Möchten Sie auf spezielle Hüllen oder Solar-Gadgets zur Stromversorgung lieber verzichten? Dann nehmen Sie Ihren „Reservestrom“ am besten in Form einer Powerbankmit, also eines externen Akkus, der Ihr Smartphone je nach Kapazität bis zu dreimal wieder auflädt. Die Powerbank sollten Sie möglichst warm transportieren, damit sie ihre Ladung nicht verliert. Mehr zu Powerbanks verraten wir Ihnen in diesem Ratgeber .
Übrigens: Verfällt ein Akku in Kältestarre, wärmen Sie ihn mit den Handflächen auf. So können Sie ihm die restliche Ladung entlocken.

Akku schonen im Alltag

Neben dem richtigen Umgang mit dem Akku selbst, also der Hardware, gibt es auch unter Android verschiedene Einstellungen und Funktionen, mit denen Sie die Lebenszeit und die Arbeitsweise des Akkus deutlich optimieren können.

Energiefresser ausfindig und unschädlich machen

Damit der Akku möglichst lange durchhält, sollten Sie die größten Energieverbraucher bei Nichtgebrauch deaktivieren oder die Arbeitsintensität einzelner Features manuell herunterschrauben. Als Erstes reduzieren Sie in den Einstellungen manuell die Bildschirmhelligkeit. In Innenräumen reicht eine verringerte Helligkeit völlig aus. Gehen Sie ins Freie, können Sie die Helligkeit wieder leicht erhöhen.

Darüber hinaus können Sie die Ortung deaktivieren, solange Sie keine Navigation oder Ähnliches planen. Falls doch, und es nicht so genau sein muss, können Sie zumindest die Präzision verringern. Passen Sie dazu die Ortungsart unter „Einstellungen –> Standorte –> Modus“ an. Wählen Sie die „Stromsparfunktion“, damit das Smartphone nur via aktivem WLAN und 3G-Netz Ihren Standpunkt sucht. GPS verbraucht nämlich deutlich mehr Strom.

Sind Sie unterwegs und surfen dort über das 3G-Netz im Internet, brauchen Sie kein WLAN. Also sollten Sie die WLAN-Funktion ausschalten. Denn gehen Sie an Wohnhäusern, Restaurants oder öffentlichen Hotspots vorbei, scannt das Smartphone ständig die WLAN-Netze, um sich mit einem dieser verbinden zu können – und ja, auch das verbraucht unnötig Strom.

Weil Sie in der Regel nachts schlafen und nicht gestört werden wollen, können Sie sogar den Flugmodus Ihres Handys aktivieren. Daraufhin werden alle Funkverbindungen, darunter auch Bluetooth und NFC, die Sie im Normalfall ebenfalls stets deaktiviert haben sollten, gekappt.

Denken Sie unbedingt daran, die Vibration beim Tippen und die Tastentöne auszustellen. Vor allem wenn Sie viel chatten oder produktiv mit dem Gerät arbeiten wollen, verbrauchen Sie damit unnötig viel Strom. Sie könnten sogar noch mehr Funktionen einschränken, aber wir wollen den Energiesparmodi die Arbeit nicht ganz abnehmen.

Energiesparmodus „Doze“ in Android

Google hat mit Android 6 Lollipop auch eine neue Akkutechnik namens Doze vorgestellt. Diese kommt zum Tragen, wenn Sie ihr mobiles Device vom Ladegerät trennen, dieses nicht bewegen und auch der Bildschirm nicht aktiv ist. In diesem Fall geht das Smartphone oder Tablet in den Stromsparmodus, und das Betriebssystem unterbindet auch die Netzwerkkommunikation der Apps. Die Akkulaufzeit des Geräts hat in diesem Fall oberste Priorität. Sobald Sie das Gerät wieder aufwecken, funktionieren alle Apps weiter wie gewohnt. Auf diese Weise soll die Akkulaufzeit deutlich verbessert und teilweise sogar verdoppelt werden.

Energiesparmodi bei älteren Android-Versionen

Ab Werk bieten Android 5 und darunter keinen besonderen Energiesparmodus. Unter „Einstellungen –> Akkuschonfunktion“ können Sie jedoch zumindest die Synchronisation der im Hintergrund laufenden Anwendungen ausschalten. Beispielsweise beziehen Spiele, auch wenn Sie nicht aktiv ausgeführt werden, Daten aus dem Internet, um Ihnen etwa Werbungen oder Spielezusätze per Benachrichtigung anzuzeigen. Dieser ständige Datenaustausch kostet Strom, obwohl Sie das Gerät nicht aktiv nutzen. Deshalb gibt es Energiesparmodi, die den Stromverbrauch auf ein Minimum durch Abschaltung großer Energiefresser reduzieren.

Ultra-Energiesparmodus von Samsung

Mit dem Galaxy S5 hat Samsung vor einiger Zeit seinen neuen Ultra-Energiesparmodus eingeführt. Unter „Einstellungen –> System –> Energiesparmodus“ aktivieren Sie die Sparfunktion. Dabei wechseln Sie von der farbenfrohen Normalansicht und eine Schwarz-Weiß-Umgebung, in der Sie zwar bloß eingeschränkt, aber stromsparend arbeiten können. So steht nur noch ein abgespeckter Homescreen zur Verfügung, auf dem Sie ausgewählte Apps wie Telefon, SMS und Internet ablegen können, die daraufhin noch nutzbar sind. Alle anderen Anwendungen sind nicht ausführbar, und auch die Funkstandards werden abgestellt – außer das 3G-Netz, damit Sie weiterhin erreichbar bleiben, denn darum geht es schließlich. In der Praxis funktioniert der Modus tatsächlich sehr gut und lohnt sich vor allem, wenn lange keine Steckdose in Sicht ist, Sie aber für wichtige Anrufe erreichbar sein müssen.

Energiesparmodi bei HTC

HTC bietet einen ähnlichen Service in Form des extremen Energiesparmodus. Aktivieren Sie ihn in den Einstellungen unter „Power“. Tippen Sie auf „Extremer Energiesparmodus“, dann können Sie nachfolgend den Akkustand bestimmen, bei dem die Akkuschonung aktiviert werden soll. Zur Auswahl stehen 20, 10 und 5 Prozent.

Ist der Modus aktiviert, fährt die CPU ihre Leistung zurück, die Vibration schaltet sich ab, und nur dringend benötigte Apps sind ausführbar. Wie bei neuen Samsung-Smartphones blicken Sie nun auf eine neue Ansicht, allerdings in Farbe. Im extremen Energiesparmodus nutzen Sie, wie erwähnt, nur noch wichtige Anwendungen wie die Telefon- und Nachrichten-Funktion. Sie wollen schließlich trotz niedrigen Akkustandes erreichbar bleiben – dafür ist der Modus gedacht!

Energiesparmodi bei LG

Der Energiesparmodus von aktuellen LG-Smartphones lässt sich individuell anpassen. Unter „Einstellungen –> Allgemein –> Akku –> Energiesparmodus“ wählen Sie aus, bei welchem Akkustand dieser aktiviert werden soll. Entweder Sie starten ihn manuell sofort, oder Sie lassen ihn automatisch starten, wenn der Stand mindestens unter 50 Prozent fällt – spätestens aber bei 10 Prozent. Darüber hinaus können Sie die Funktionen auswählen, die abgestellt und verändert werden sollen, wenn sich die Ladung dem Ende zuneigt. Setzen Sie den Haken hinter den entsprechenden Elementen, werden diese deaktiviert. Darunter sind auch viele Features, die Sie manuell einstellen und anpassen können – wie wir bereits unter „Energiefresser ausfindig und unschädlich machen“ erklärt haben.

TEIL 2: SO VERLÄNGERN SIE DIE AKKU-LAUFZEIT BEI NOTEBOOKS

Natürlich wird Ihr Notebook-Akku genau dann leer, als Sie den letzten Feinschliff an Ihrer Power-Point-Präsentation machen. Vermeiden Sie diesen Ärger und befolgen Sie unsere fünf Tipps um die Laufzeit Ihres Laptops zu verbessern:

1. Einstecken wann immer es geht

Eine todsichere Methode sicherzugehen, dass Ihr Laptop immer bereit ist: Stecken Sie ihn so oft wie möglich in eine Steckdose. Das Gerät immer zu 70 bis 90 Prozent geladen zu halten, macht es weitaus wahrscheinlicher, dass sie immer ausreichend Saft haben, um Ihre Arbeit zu vollenden. Erwerben Sie auf jeden Fall mindestens ein zusätzliches Ladegerät, damit Sie immer eines in der Arbeit und eines in Ihrer Tasche für unterwegs haben. Falls Sie häufig zu Hause arbeiten, kaufen Sie sich ein weiteres Ladegerät.

Eines allerdings sollte Sie vermeiden: Das Notebook ständig an der Steckdose hängen zu lassen. In diesem Fall sollten Sie den Akku vorher entfernen. Das hilft auf jeden Fall, die Lebensdauer des Akkus zu verlängern. Allerdings ist das im Alltag nicht immer sinnvoll – sofern es überhaupt möglich ist, denn bei vielen aktuellen Laptops lässt sich der Akku gar nicht mehr ausbauen. Außerdem berauben Sie sich einer praktischen unterbrechungsfreien Stromversorgung, wenn Sie den Akku ausbauen: Denn ohne den Energiespender müssen Sie den Laptop immer herunterfahren, wenn Sie ihn an einem anderen Ort nutzen wollen, statt einfach nur das Ladekabel zu ziehen. Einen ausgebauten Lithium- Ionen-Akku lagern Sie an einem kühlen und trockenen Ort bei rund 15 Grad Temperatur. Er sollte dabei einen Ladestand von rund 40 Prozent haben.

Moderne Lithium-Zellen können Sie weder überladen, noch nehmen diese sonstwie Schaden. Und sie fangen auch nicht Feuer fangen, wenn sie ständig am Ladegerät hängen. Litihum-Ionen-Batterien hören von selbst auf sich weiter zu laden, sobald sie einmal aufgeladen sind.

Allerdings sollten Sie es zur Sicherheit vermeiden, dass sich der Notebook-Akku zu sehr entlädt, also bis unter zehn Prozent. Ebenso sollten Sie das ständige Vollladen vermeiden. Ideal ist eher ein Ladezustand von so um die 70 Prozent. Vermeiden Sie also einen ganz vollen oder einen ganz leeren Akku.

2. Stellen Sie die Bildschirmhelligkeit ein

Moderne Bildschirme mit LED-Technik sind eine enorme Verbesserung gegenüber den alten Röhrenbildschirmen, sowohl durch die bessere Bildqualität als auch durch den verringerten Energieverbrauch. Aber der Monitor verbraucht immer noch einen Großteil des Stroms, den das System benötigt. Deshalb kann es die Laufzeit Ihres Laptops erheblich erhöhen, wenn Sie die Helligkeit niedrig stellen. Sie sollten auch darauf achten, wo Sie arbeiten. Eine niedrige Helligkeit ist weit angenehmer in einem sanft beleuchteten Café als in einem hell erleuchtetem Raum.

Eine andere Möglichkeit den Energieverbrauch des Bildschirms zu senken, ist die automatischen Energiesparoptionen von Windows einzustellen. Öffnen Sie hierfür „Systemsteuerung, Hardware und Sound, Energieoptionen“ und wählen Sie dort das für Sie passende Schema beziehungsweise legen Sie von Hand fest, wie lange es zum Beispiel dauern soll, bis der Monitor bei Nichtbenutzung abgedunkelt wird.

3. Schließen Sie unbenutzte Programme und Anwendungen

Ein Übeltäter, der oft die Akkus leer saugt, sind Programme, die im Hintergrund unverhältnismäßig viel Energie benötigen. Ungenutzte Tools im Hintergrund oder eine nicht mehr richtig ausgeführte Anwendung kann auch diesen Effekt hervorrufen. Webbrowser sind anfällig dafür, da sie mit vielen Plug-Ins, Rendering- und Skriptmodulen ausgestattet sind.

Moderne CPUs sparen Energie, indem sie ihre Geschwindigkeit dynamisch an das minimal Mögliche anpassen. Aber das funktioniert nur wenn keine Anwendungen aktiv sind. Wenn Sie fehlerhafte Anwendungen nicht stoppen können, verbrauchen diese nicht nur Strom, sondern verlangsamen auch Ihr gesamtes System. Ein Indiz für eine laufende Anwendung ist, dass Ihr Kühler schnell läuft, obwohl das Gerät eigentlich ruhig sein sollte.

Die Lösung für dieses Problem ist relativ einfach: Drücken Sie Strg+Alt+Entf, starten Sie den Windows Task Manager und nutzen Sie diesen, um Prozesse zu finden, die eine unerklärbar hohe CPU-Auslastung anzeigen. Falls ein Programm sich nicht normal beenden lässt, schließen Sie den Prozess mit einem Rechtsklick und wählen Sie „Prozess beenden“. Bei Internet-Browsern sollte das in der Regel funktionieren. Falls das aber auch nicht hilft, führen Sie einen Systemneustart durch.

4. Schließen Sie strom-intensive Hintergrundanwendungen

Sie sollten auch Hintergrundprozesse, die den Prozessor oder das Netzwerk sehr beanspruchen, beenden, wenn Ihr Notebook nicht angesteckt ist. Sie sollten sicherstellen, dass Windows-Update oder andere Update-Programme nicht versuchen große Mengen Daten herunterzuladen.

Die Windows-Updatefunktion zu deaktivieren ist ganz klar zu drakonisch (ganz besonders wenn Sie vergessen diese danach wieder zu aktivieren). Aber Sie sollten hin und wieder nachsehen, wann Sie erhöhten Traffic haben und so rechtzeitig große Datentransfers unterbinden, um damit wertvolle Minuten der Batterielaufzeit zu retten.

5. Deaktivieren Sie unnötige Funktionen

Sie können unbenutzte Hardware-Optionen oder Anschlüsse deaktivieren, um ein paar Minuten mehr aus Ihrem Akku herauszuholen. Allerdings gibt es diese Möglichkeit nicht bei jedem Laptop. Fangen Sie an unnötige Kabellosverbindungen wie eingebaute Modems, WLAN und Bluetooth abzuschalten.

Das DVD-Laufwerk ist ein weiterer Energieverschwender, der die Batterie schnell entleeren kann. Lassen Sie deshalb keine DVD oder Blue-Ray im Laufwerk, wenn Sie diese nicht benötigen. Viele aktuelle Notebooks haben beleuchtete Tastaturen, welche großartig sind wenn Sie in dunkler Umgebung arbeiten, aber auf die Sie, wenn Sie im Batteriebetrieb arbeiten, verzichten sollten.

6. Längere Akku-Laufzeit am Notebook erzwingen

Bei einem Windows-Notebook oder -Tablet legen Sie in den Energieoptionen fest, wie es sich bei einer bestimmten Akkuladung verhält. Mit den richtigen Einstellungen können Sie hier eine längere Akkulaufzeit herausholen.

Wann ein Notebook Sie vor einem niedrigen Akkustand warnt, sich in den Ruhezustand begibt oder herunterfährt, richtet sich nach den Vorgaben in den Erweiterten Energieeinstellungen. Dort steht im Abschnitt „Akku“ unter „Niedrige Akkukapazität“ der Akkustand in Prozent, bei dem Sie eine erste Windows-Warnung erhalten, das Notebook an eine Stromquelle anzuschließen. Sie können die Zahl, die im Feld hinter „Auf Akku (%)“ steht beliebig verändern – je nachdem, bei welcher noch verbleibenden Akkukapazität Sie Windows über den Akkustand benachrichtigen soll. Wollen Sie überhaupt keine Windows-Meldung bekommen, stellen Sie die Option „Benachrichtigung bei niedriger Akkukapazität“ auf „Aus“.

Wichtiger ist die Einstellung bei „Kritische Akkukapazität“. Hat der Akku nur noch die dort angegebene Restladung, löst Windows umgehend eine bestimmte Aktion aus. Welche das ist, legen Sie unter „Aktion bei kritischer Akkukapazität“ fest. Hier stehen meist die Optionen „Ruhezustand“ oder „Herunterfahren“ zur Auswahl. Wollen Sie nun in bestimmten Situationen noch ein wenig mehr Akkulaufzeit herauskitzeln, können Sie den Prozentwert bei „Kritische Akkukapazität“ reduzieren.

Bei den meisten Notebooks wird das nicht funktionieren, da der Hersteller einen Minimalwert fest vorgibt: Sobald Sie die Zahl in den Energieeinstellungen ändern und auf „Übernehmen“ klicken, wird die Anzeige wieder auf den vorherigen Prozentwert springen. Die meisten Hersteller legen fünf Prozent als kritische Kapazität fest. In diesem Fall können Sie versuchen, den Wert über das Tool Powercfg.exe zu verändern. Öffnen Sie dafür die Eingabeaufforderung mit Admin-Rechten. Geben Sie folgenden Befehl ein, wenn Sie zum Beispiel das kritische Akkulevel für das derzeit verwendete Energieschema auf 3 Prozent ändern wollen:

powercfg -setdcvalueindex SCHEME_CURRENT SUB_BATTERY BATLEVELCRIT 3

Nach einem Neustart sollten Sie nun “3” beim Wert für die kritische Akkukapazität eingeben können.

Mit einem ähnlichen Befehl lässt sich auch die Aktion anpassen, die das Notebook ausführt, wenn es den kritischen Akkulevel erreicht. Sie können damit das Notebook anweisen auch beim Erreichen des kritischen Akkulevels keine Aktion auszuführen. In diesem Fall können Sie zwar dann wirklich bis zum letzten Moment im Akkubetrieb am Notebook arbeiten. Es wird sich dann aber einfach abschalten, wenn der Akku leer ist – Zeit, um Dateien zu speichern oder Programme zu schließen bleibt Ihnen dann nicht mehr.

Folgender Befehl fügt die Option „Nichts unternehmen“ beim aktuell verwendeten Energieschema hinzu:

powercfg -setdcvalueindex SCHEME_CURRENT SUB_BATTERY BATACTIONCRIT 0

Allerdings sollten Sie diese Tipps nur in Situationen anwenden, in denen Sie wirklich auf jede Minute Akkulaufzeit angewiesen sind. Denn wenn Sie den Akku ständig fast völlig entladen, verkürzen Sie die Lebensdauer des Akkus: Die Regel, den Akku immer möglichst vollständig zu füllen und zu entladen, gilt für aktuelle Lithium-Ionen-Akkus nicht.

7. Opera: Energiesparfunktion schont Notebook-Akku

Der Browser Opera besitzt seit der Anfang Juni 2016 erschienen Version 38 für Windows und MacOS eine Energiesparfunktion. Die neue Funktion soll beim Einsatz des Browsers den Akku des Notebooks schonen. Die Funktion schaltet sich automatisch ein, sobald sich der Laptop im Akkumodus befindet.

Laut Angaben der Opera-Entwickler kann die Aktivierung des Energiesparmodus die Akkulaufzeit des Notebooks um bis zu 50 Prozent verlängern. Außerdem erhitze sich das Gerät weniger, was in den Sommermonaten wichtig ist. Bis zu 3 Grad kühler bleibe der Laptop, wenn die Funktion genutzt werde.

Die Entwickler betonen, dass das Einschalten der Funktion keinerlei Auswirkungen auf die Surfgeschwindigkeit habe. Die Nutzer surfen also gewohnt schnell mit Opera. Geschont werde der Akku durch eine Reihe von Optimierungen im Hintergrund. So würden beispielsweise die Systemaufgaben wie Hintergrund-Tabs und andere Browseraktivitäten reduziert.

Blick in die Zukunft: Kommt bald der viel bessere Akku?

Kaum eine Woche vergeht, in der keine Meldung über einen neuen Superakku die Runde macht. Doch Alternativen zum Lithium- Ionen-Akku sind bisher entweder teurer als die aktuelle Technik oder unsicherer oder beides. Die Entwicklung konzentriert sich deshalb darauf, die Lithium-Ionen-Technik zu verbessern: Akkus sollen durch neue Materialien für Anode, Kathode und Elektrolyt besser formbar sein, durch höhere Ladespannungen schneller laden und dank höherer Energiedichte eine längere Laufzeit bei gleicher Größe bieten. Doch bis zur Serienreife von wie Lithium-Schwefel-Akkus, Lithium-Luft-Akkus oder Festkörperakkus dauert es noch.

So funktionieren virtuelle PCs mit Virtualbox

Für den Start in die Virtualisierung empfiehlt sich Virtualbox als Plattform. Mithilfe dieses Workshops erstellen Sie Ihren ersten virtuellen PC im Handumdrehen.

Egal, ob Sie sich einen risikolosen Surf-PC oder einen Testrechner für Programme und Webseiten einrichten wollen – für den Einstieg in die Virtualisierung empfiehlt sich die Open-Source-Plattform Virtualbox . Sie ist kostenlos, bietet nahezu den identischen Leistungsumfang für Windows, Linux und Mac-OS und lässt sich dank einer bedienfreundlichen Konsole gut einrichten.

Dabei kann Virtualbox mit 32- und 64-Bit-Rechnern als Host und als Gast umgehen, erkennt USB-2.0- sowie USB-3.0-Anschlüsse und beherrscht das Einbinden von Laufwerken als virtuelle Datenspeicher. Als Gastsysteme sind unter anderem alte Windows-Versionen ab 3.1, Linux-Distributionen ab Kernel 2.4, Mac-OS X und Open BSD zulässig. Über Austauschordner lassen sich Daten zwischen Haupt- und Gast-PC austauschen. Und per Snapshot-Funktion halten Sie den Stand der virtuellen Maschine im Handumdrehen fest. Dieser Workshop führt Sie durch die wichtigsten Punkte.

Hardwarevoraussetzungen

Grundsätzlich funktioniert eine virtuelle Maschine mit jedem Rechner, vorausgesetzt, er ist nicht allzu betagt. Damit jedoch Vorgänge flüssig laufen, sollten Sie Mindestvoraussetzungen an Prozessor und Arbeitsspeicher kennen.

CPU: Einer virtuellen Maschine sollte sich mehr als ein Prozessorkern zuweisen lassen. Deshalb lässt sich eine VM ab der Dualcore-Generation mit Hyper-Threading (etwa Intel Core i3-530) zwar betreiben, ist jedoch mit einem Vierkernprozessor (etwa Intel Core i7-4790) erst wirklich empfehlenswert. Zudem sollte die CPU die Hardware-Virtualisierungserweiterungen beherrschen, die bei Intel VT-x (Virtualization Technology), bei AMD AMD-V (AMD Virtualization) genannt werden. Wissen Sie nicht genau, ob das bei Ihrem Rechner der Fall ist, können Sie Ihre genaue Prozessorbezeichnung im Internet suchen, um die Spezifikationen zu studieren. Schneller bekommen Sie mit einem Tool Klarheit – bei Intel über das Processor Identification Utility , bei AMD über RVI Hyper V Compatibility Utility . Im Intel-Tool finden Sie die Angabe, wenn Sie den Reiter „CPU Technologies“ wählen und unter „Supporting Advanced Intel Processor Technologies“ nachsehen. Steht neben „Intel(R) Virtualization Technology” ein „Yes”, eignet sich Ihre CPU fürs Virtualisieren und kann die vorhandenen Ressourcen effizient zwischen den parallel laufenden Betriebssystemen aufteilen.

Bis auf einige Atommodelle können die CPU-Generationen der letzten Jahre eigentlich immer mit Virtualisierungserweiterungen umgehen. Allerdings kommt es oft vor, dass die Funktion ab Werk im Bios deaktiviert ist. Ein Bios-Check lohnt sich. Auch wenn sich die Menüs je nach PC-Hersteller stark unterscheiden, finden Sie die Einstellung oft unter „Advanced Settings“. Ist die Funktion ausgeschaltet, aktivieren Sie sie und speichern die Änderung, bevor Sie das Bios verlassen.

Arbeitsspeicher: Wie ein normaler Computer belegt die virtuelle Maschine RAM. Ein Betriebssystem in der VM arbeitet damit etwas langsamer als bei einer klassischen Systeminstallation, auch wenn gleich viel RAM zugewiesen ist. Bei aktueller Hardware bemerken Sie den Tempounterschied in der Praxis kaum. Allerdings können Sie nicht mehr Arbeitsspeicher zuordnen als physikalisch im Hostsystem vorhanden ist. Haben Sie mehrere virtuelle Maschinen im Einsatz, addieren sich die zugeordneten RAM-Größen. Rechnen Sie für jede virtuelle Maschine mit zwei bis vier GB Arbeitsspeicher. Es gibt VMs, die dynamisch mit Arbeitsspeicher umgehen können – etwa Microsoft Hyper-V. Dann belegt die virtuelle Maschine nur so viel RAM, wie sie gerade benötigt. Den freien Speicher kann das Wirtssystem verwenden.

Festplatte: Als Speicherort für eine VM bietet sich eine SSD (Solid State Disk) an. Denn wie bei klassischen Installationen kommt auch virtuellen Maschinen das Tempoplus einer SSD gegenüber einer herkömmlichen Magnetfestplatte zugute.

Installation von Virtualbox

Zur Installation bringt Virtualbox einen praktischen Setup-Assistenten mit, der sich öffnet, sobald Sie doppelt auf die Exe-Datei klicken. Über „Weiter“ kommen Sie zum Schritt „Benutzerdefiniertes Setup“. Hier können Sie die Voreinstellungen übernehmen oder den Speicherort nach eigenen Wünschen anpassen. Die restlichen Einstellungen lassen Sie am besten unverändert und klicken auf „Weiter“. Nun haben Sie die Wahl, ob Virtualbox Desktop- und Schnellstartverknüpfungen einrichten soll. Haben Sie die Optionen definiert und auf „Weiter“ geklickt, sehen Sie eine Warnung, dass das Programm die Netzwerkverbindungen kurz trennt, um die eigenen Einstellungen vorzunehmen. Bestätigen Sie mit „Ja“, und starten Sie die Installation.

Ist Virtualbox aufgespielt, installieren Sie zusätzlich das „ VM Virtualbox Extension Pack “. Damit unterstützt Ihre Plattform etwa USB-Anschlüsse, Webcams, Festplattenverschlüsselung und Remote- Display-Protokoll, um Ihre VM im Heimnetz von einem anderen Rechner fernzusteuern. Virtualbox muss geöffnet sein, wenn Sie per Doppelklick auf das Extension Pack die Installation starten.

Erste virtuelle Maschine

Um in Virtualbox eine virtuelle Maschine zu erstellen, klicken Sie auf den Neu-Button. Es öffnet sich ein Assistent, in dem Sie Namen, Betriebssystem und Version Ihrer VM festlegen – etwa „Windows 7 Test, Microsoft Windows, Windows 7 (64 Bit)“. In den nächsten beiden Schritten legen Sie die Größen für RAM und Festplatte fest. In vielen Fällen können Sie die Voreinstellungen übernehmen. Wenn Sie im Einsatz merken, dass Sie mehr Platz oder Leistung vom Host-PC benötigen, lassen sich diese später anpassen. Als Dateityp belassen Sie „VDI (Virtualbox)“ und „dynamisch alloziert“. Mit dem Klick auf „Erzeugen“ ist Ihre erste virtuelle Maschine erstellt und wird im linken Bereich des Konsolenfensters angezeigt.

Im nächsten Schritt müssen Sie das Betriebssystem laden, das Sie als VM verwenden wollen. In unserem Beispiel handelt es sich um eine Windows-7-Installation, die Sie entweder über eine Installations-DVD oder ein ISO-Abbild einspielen. Dazu starten Sie den virtuellen PC, indem Sie ihn markieren und auf das grüne Pfeilsymbol klicken. Im Fenster „Medium für den Start auswählen“ definieren Sie Ihre Quelle und beginnen das Setup. Die Installation gleicht in Dauer und Ablauf dem Vorgang auf einem echten PC.

CPU-Kerne festlegen

Weitere Einstellungen für Ihren virtuellen PC legen Sie in der Virtualbox-Konsole fest. Markieren Sie die VM, und klicken Sie auf „Ändern“. Im nächsten Fenster sehen Sie die Bereiche, die Sie anpassen können – etwa „System“. Hier können Sie der VM weitere CPU-Kerne zuordnen. Für das Beispiel einer Windows-7-VM sind zum flüssigen Arbeiten mindestens zwei Kerne ratsam, Virtualbox weist im Setup jedoch eventuell nur einen Kern zu. Wählen Sie „System –› Prozessor“ aus. Bei „Prozessoren:“ finden Sie die verfügbaren Kerne Ihres Hostsystems angezeigt. Im Kästchen rechts verändern Sie die Anzahl der verwendeten Kerne. Bestätigen Sie die Eingabe mit „OK“.

Passen Änderungen nicht, warnt Sie Virtualbox mit einem Hinweis am unteren Fensterrand. Hier sehen Sie, welche Optionen nicht kompatibel sind und wie sie verändert werden müssen. Reicht beispielsweise der Grafikspeicher für Ihre VM nicht aus, werden Sie auf den Bereich „Anzeige“ verwiesen, um das zu ändern.

Mausfänger definieren

Haben Sie Ihre VM das erste Mal gestartet, blendet Virtualbox Hinweise zur Mausführung und der Tastaturhandhabung ein. Da Sie sich in einem geschlossenen System bewegen, sind Maus und Keyboard üblicherweise darin gefangen. Das bedeutet, dass sich alle Aktionen, die Sie per Tastendruck oder Mausklick ausführen, auf die VM und nicht den Host-PC beziehen. Um auf den Host-PC zu wechseln, ist eine Tastenkombination nötig – etwa Strg-Pfeil-Rechts.

Manche VMs beherrschen Maus- und Tastaturintegration. Dann können Sie zwischen VM und Host-PC per Maus wechseln. Da sich nicht alle Programme bei Aktionen mit Maus- und Tastaturintegration korrekt verhalten, können Sie die Einstellung jederzeit ändern. Klicken Sie dazu auf „Eingabe“ und dann wahlweise auf „Tastatur“ oder „Maus“.

Snapshot anfertigen

Bevor Sie mit dem virtuellen PC arbeiten, sollten Sie den Urzustand als Sicherungspunkt (Snapshot) festhalten. So können Sie jederzeit dorthin zurückkehren, sollte etwas schiefgehen. In Virtualbox gelingt Ihnen das auf unterschiedliche Weise. Ist die VM ausgeschaltet, gehen Sie neben dem Hammersymbol auf den kleinen Pfeil und wählen zuerst „Sicherungspunkte“, danach „Erstellen“ aus. Alternativ kommen Sie zu der Funktion, wenn Sie mit der rechten Maustaste auf den Eintrag „Aktueller Zustand“ klicken und aus dem Kontextmenü „Erzeugen“ auswählen. Läuft die virtuelle Maschine, wählen Sie darin den Menüpunkt „Maschine“ und „Sicherungspunkt erstellen…“. Allerdings wird beim Sichern im laufenden Betrieb auch der zugewiesene Arbeitsspeicher gespeichert, was die Sicherungsdatei vergrößert.

Geben Sie einen Namen für den Snapshot ein – etwa „Sicherungspunkt Windows 7 neu“. Benötigen Sie sehr viele Snapshots, können Sie ihn unter „Beschreibung des Sicherungspunktes“ genauer definieren. Mit einem Klick auf „OK“ starten Sie den Vorgang. Eine Übersicht der erstellten Snapshots finden Sie im Bereich „Sicherungspunkte“. Beim Klick auf „Eigenschaften“ sehen Sie die Details zum Snapshot.

Wollen Sie einen alten Zustand wiederherstellen, schalten Sie zuerst das Gastsystem aus. In der Konsole markieren Sie in der Liste der Sicherungspunkte Ihrer VM den gewünschten Snapshot und klicken auf „Wiederherstellen“. Bevor Sie auf „Zurückkehren“ klicken, achten Sie darauf, dass das Häkchen bei „Sicherungspunkt des aktuellen VM-Zustands erstellen“ gesetzt ist.

Internetzugriff überprüfen

Der virtuelle PC als sichere Surfstation ist ein beliebtes Einsatzszenario. Klappt der Internetzugriff nicht, müssen Sie das Netzwerk anpassen. Markieren Sie in der Konsole Ihre VM, und klicken Sie auf „Ändern –› Netzwerk“. Als Zugriffsmethode ist meist „NAT“ vordefiniert. Das Kürzel steht für Network Access Translation und verwendet die Host-IP-Adresse für den virtuellen PC. Der Gastrechner hat über eine interne IP-Adresse Zugriff auf das Netzwerk. Von außen ist die virtuelle Maschine nicht erreichbar.

Überprüfen Sie unter „Erweitert“, welcher Adaptertyp eingestellt ist – etwa „Intel Pro/1000 MT Desktop“. Bevor Sie einen anderen Adapter ausprobieren, checken Sie, ob bei „Kabel verbunden“ ein Häkchen gesetzt ist. Es fehlt etwa dann, wenn Sie mit Ihrem Host-PC per WLAN ins Internet gelangen. Über „OK“ schließen Sie die Konfiguration ab.

Bildschirmauflösung einstellen

Betreiben Sie Ihren virtuellen PC auf einem hochauflösenden Bildschirm – etwa einem UHD-Schirm –, ist die Anzeige des Gastsystems oft sehr klein. Sie lässt sich im laufenden Betrieb unter „Anzeige –› virtueller Monitor“ anpassen. Die möglichen Auflösungen werden sofort umgesetzt. Unter „Anzeige –› Skalierung“ können Sie auch den Zoomfaktor festlegen. So lassen sich Schriften und Icons bis maximal 200 Prozent vergrößern.

Treten in der aktiven Sitzung Probleme mit der Anzeige auf, haben Sie zu geringe Ressourcen definiert. Änderungen nehmen Sie in der Konsole unter „Ändern –› Anzeige“ vor. Bei „Bildschirm“ können Sie mehr Grafikspeicher zuteilen oder die Anzahl der Bildschirme sowie den Skalierungsfaktor verändern. Markieren Sie „3D-Beschleunigung aktivieren“ und „2D-Video-Beschleunigung aktivieren“, kann Ihre VM erweiterte Darstellungsmöglichkeiten nutzen. Bestätigen Sie Ihre Eingaben mit „OK“.

Peripherie nutzen

Auch im Gastsystem ist es praktisch, auf Peripheriegeräte wie Speichersticks zuzugreifen, die in der Regel per USB mit dem Rechner verbunden sind. Damit Virtualbox die USB-Anschlüsse erkennt, muss der Controller aktiviert sein. Verbinden Sie USB-Geräte mit dem Hostrechner. Im nächsten Schritt wechseln Sie in die Virtualbox-Konsole. Markieren Sie das Gastsystem und klicken Sie auf „Ändern –› USB“. Setzen Sie vor „USB-Controller aktivieren“ ein Häkchen. Nun definieren Sie den Controllertyp – USB 1.1, 2.0 oder 3.0. Im Fenster „Filter für USBGeräte“ ergänzen Sie die angesteckte Peripherie, indem Sie auf den USB-Stecker mit dem Pluszeichen klicken und die USB-Geräte aus der Liste auswählen.

Starten Sie das Gastsystem, wird es in der Regel die Treiber für die USB-Geräte nachladen. Dass der USB-Controller aktiviert ist, sehen Sie in der Virtualbox-Leiste am aktiven USB-Symbol. Ob sich die angesteckte USB-Peripherie korrekt nutzen lässt, überprüfen Sie, indem Sie im Dateimanager nachsehen. Läuft alles korrekt, erhält Ihre USB-Peripherie Laufwerksbuchstaben und ist im virtuellen PC genauso einsetzbar, wie Sie es vom Hostrechner gewohnt sind.

Austauschordner anlegen

Für den Datenaustausch zwischen dem virtuellen PC und dem Host ist ein gemeinsames Verzeichnis praktisch, auf das Sie von beiden Systemen aus Zugriff haben. Zuerst legen Sie auf Ihrem Host-PC einen Ordner an und merken sich den Verzeichnispfad.

Wechseln Sie zum Virtualbox-Manager, und markieren Sie den virtuellen PC, für den das Verzeichnis gelten soll. Klicken Sie zuerst auf „Ändern –› Gemeinsame Ordner“, danach am rechten Rand auf das Ordnersymbol mit einem Pluszeichen und im nächsten Fenster auf den Pfeil neben „Ordner- Pfad“. Wählen Sie hier „Ändern“, und navigieren Sie zum Verzeichnis auf Ihrem Hostrechner. Setzen Sie noch ein Häkchen bei „Automatisch einblenden“, und bestätigen Sie Ihre Eingaben mit „OK“. Unter „Ordner der virtuellen Maschine“ sehen Sie jetzt den vorher eingegebenen Pfad. Bei „Zugriff“ sollte „Voll“ angezeigt sein. Der Austauschordner wird im Dateimanager des Gastsystems als Netzlaufwerk angezeigt.

Die Vorteile der unterbrechungsfreie Stromversorgung

Mit einer unterbrechungsfreien Stromversorgung (USV) vermeiden Sie nicht nur Schäden durch Stromausfall, sondern fangen auch gefährliche Spannungsspitzen ab. Dieser Artikel erklärt die Vorteile einer USV im Detail.

Längst hat die IT auch privat das Ruder übernommen. Wir nutzen nicht nur PC, Notebook & Co. um von zuhause zu Arbeiten und mit der Außenwelt zu kommunizieren, sondern setzen auch im TV-Bereich auf smarte Geräte, die wir für Gaming, Bildershows und Home Entertainment mit dem PC verbinden. Auf internen und externen Festplatten haben wir unsere private Welt abgelegt. Unser Smart Home gleicht kleinen Rechenzentren, die besonderen Schutz benötigen. Die fortschreitende Digitalisierung und die rasante Zunahme des Datenvolumens in allen Lebensbereichen stellen uns zusätzlich vor neue Herausforderungen.

Sicherer Datentransfer und sicherer Zugriff auf die Daten erfordern wiederum einen erhöhten Strombedarf und einen exzellenten Schutz vor Datenverlusten. Um hierbei die Datenverfügbarkeit jederzeit zu gewährleisten und die Daten vor Verlusten zu schützen, wird der Einsatz von unterbrechungsfreier Stromversorgung (USV) immer wichtiger und komplexer.

Bei einem möglichen Stromausfall hört der Spaß auf. Und der Konsument hat das Nachsehen: Daten verloren, teure Hardware kaputt und Freunde verärgert.

Physikalische Absicherung ist wichtig

Denn genauso wichtig wie die Absicherung der Software vor Trojanern, ist die physikalische Absicherung des teuren IT-Equipments. Kommt es zu Stromschwankungen oder gar Stromausfall, haben die gespeicherten Daten das Nachsehen. Fehler am Datenträger, der Festplatte, führen zu Verlusten der gespeicherten Daten. Besonders ärgerlich wird es bei privaten Bildern und Filmen. Schnappschüsse aus dem letzten Urlaub sind unwiederbringlich weg, die investierte Zeit und das Geld, das wir in den Download unserer Lieblingsfilme und Musikstücke gesteckt haben, sind für immer verloren. Geht es dann auch noch um rechtswirksame Daten wie Steuererklärungen, offizielle Briefwechsel etc. ist der Ärger unermesslich. Dabei sind unsere Daten leicht zu schützen, mit einer unterbrechungsfreien Stromversorgung (USV). Diese ist die Lebensversicherung für alle angeschlossenen IT-Geräte und deren Inhalte. Bei einigen wenigen USV-Herstellern bekommt der Verbraucher beim Kauf einer USV gleich eine Produktversicherung dazu.

Was bewirkt eine unterbrechungsfreie Stromversorgung?

Noch sind unsere Stromnetze vor Stromausfällen sicher. Aber mit der Energiewende und dem Einsatz von Glasfasernetzen, kann es zukünftig zu erhöhten Ausfällen kommen. Stromschwankungen und Spannungsspitzen gibt es immer – diese sind von uns kaum wahrnehmbar, jedoch je hochentwickelter unser IT-Equipment wird, umso feinfühliger wird es auch gegen Stromschwankungen, was schlimmstenfalls einen Verlust von Daten und die Schädigung der Festplatte nach sich zieht.

Wenn es nun zu Kurzschlüssen kommt, springt die USV dank ultraschneller Reaktionszeit innerhalb weniger Millisekunden ein. Ein Warnton und eine rote Signal-LED melden dem Verbraucher: Jetzt versorgt der Hochleistungs-Akku seine angeschlossenen Geräte wie PC, Smart TV, Festplattenrekorder, aber auch die Telefonanlage. Das verschafft ihm wertvolle Minuten – je nach angeschlossenen Geräten bis zu 20 Minuten. Zeit genug, seine Dateien zu speichern und den PC sicher herunterzufahren. So können teure Schäden vermieden und die Daten gerettet werden. Sobald der Strom wieder da ist, klinkt sich die USV aus und lädt die integrierte Batterie wieder auf – alles vollautomatisch. Schon steht sie für den nächsten Notfall bereit. Das praktische Kraftpaket hält zudem schädliche Stromschwankungen und sogar die Wirkung von Blitzschlag von teurer Hardware fern! Das sichert die Lebensdauer der wertvollen Geräte.

USV-Modelle gibt es in verschiedenen Größen und Leistungsbereichen. Die Einstiegs-USV ist bereits unter 100 Euro zu bekommen. Für den professionellen Bereich zur Absicherung kompletter Netzwerke müssen die Verbraucher mit mehreren hundert Euro rechnen. In Design passen sich die USV-Modelle immer mehr den Consumer-Produkten an. Wer wissen will, welche USV für ihn die richtige ist, der findet bei den führenden Herstellern so genannte USV-Rechner, die nach Eingabe der zu schützenden IT-Geräte die passende USV vorschlägt. Wer auch bei den USV-Lösungen Energie sparen möchte, der sollte genau darauf achten, ob in das USV-Modell eine Stromspar-Technologie integriert ist. Diese spart ihm nicht nur Stromkosten, sondern verringert auch den CO2-Ausstoß. Die USV-Systeme im kleinen und mittleren Leistungsbereich sind leicht anzuschließen und zu bedienen und sind wartungsfrei. Wer sich also für eine USV entscheidet, hat keinen Grund mehr, sich über Stromausfälle zu ärgern.

Der Autor:

Christian Pirch ist Director Business Development der CyberPower Systems GmbH – das taiwanesische Unternehmen stellt USV-Systeme und Computerzubehör im unteren und mittleren Leistungsbereich her.

So war Windows 3.1 – ein Rückblick

Microsoft hat gerade das Frühjahr-2019-Update für Windows 10 veröffentlicht. Aber erinnern Sie sich noch an Windows 3.1? Microsofts ersten Versuch, MS-DOS hinter sich zu lassen? Wir werfen einen Blick zurück und stellen Ihnen den Klassiker und Ur-Ahnen von Windows 8.1 vor.

Stellen Sie sich eine Windows-Welt ohne Start-Button vor. Vielleicht erinnern Sie sich dann tatsächlich noch an Windows 3.1. 1992 veröffentlichte Microsoft Version 3.1 seines Betriebssystems MS-DOS, diesmal mit grafischer Benutzeroberfläche. Windows 3.1 wurde zum ersten Betriebssystem, das im großen Stil mit neuen PCs ausgeliefert wurde und festigte damit die Vormachtstellung von Microsofts Betriebssystemen auf dem Markt. Das Goldene Zeitalter von Windows wurde eingeläutet. Tipp: Falls Sie den Windows-3.xx-Nachfolger Windows 95 sogar ausprobieren wollen: Windows 95 mit Doom – Update steht bereit.

PC-Welt lädt Sie ein auf eine nostalgische Bildergalerie-Strecke durch Windows 3.1 (alle Abbildungen stammen von unserer Schwesterpublikation PC-World).

1) Programm-Manager

Vor dem Windows Explorer gab es den Programm-Manager, wo sich Anwendungen auf jede erdenkliche Weise gruppieren und sammeln ließen. Ein recht primitiver Programm-Organizer – denn Dateien anschauen konnte man stattdessen mit dem File Manager. Der Programm-Manager funktionierte gut, doch das Jonglieren mit den einzelnen Fenstern stellte sich als knifflig heraus – und am Ende konnte man durchaus mit 50 Programmfenstern auf einem Bildschirm enden…

2) File Manager

Der File Manager ließ Sie das System Ihres Computers visuell erkunden – mit Hilfe eines Verzeichnis-Baums und einer Icon-basierten Ansicht. Das Kopieren einzelner Dateien zwischen Ordnern war ebenso einfach wie Drag&Drop, was insbesondere viele PC-Neulinge anlockte. Erst in Windows 95 vereinte Microsoft den File Manager und den Programm-Manager zum Windows Explorer. Seitdem ist diese Struktur nahezu unverändert.

3) TrueType Fonts

Das TrueType-Font-System stellt die wichtigste visuelle Neuerung in Windows 3.1 dar. Eigentlich wurde TrueType von Apple Computer entwickelt, das die Technologie samt Lizenz dann aber – man lese und staune – kostenlos an Microsoft übergeben habe. Warum? Apple wollte eben nicht, dass Adobe die digitale Schriftart monopolisiert. Anstatt blockartige Pixel in einer Bitmap zu benutzen, beschreibt TrueType die Fonts in Kurven und Linien. So war es endlich auch möglich, die Schriften bequem auf nahezu jede Größe zu skalieren und vor allem erstaunlich hochwertige Ausdrucke zu produzieren – einer der wichtigsten Gründe, warum Windows 3.1 als Desktop-System so erfolgreich war. Windows 3.1 verfügte über insgesamt 15 Fonts mit Bezeichnungen, die auch heute noch geläufig sind: Arial, Courier, System und Times New Roman.

4) Vorinstallierte Bildschirmschoner

Wenn Sie in Zeiten vor Windows 3.1 Ihren Monitor vor der berüchtigten CRT-Einbrennung bewahren wollten, mussten Sie ihn entweder ausschalten oder einen Dritthersteller-Bildschirmschoner wie After Dark installieren. In Windows 3.1 integrierte Microsoft erstmals mehrere eigene Bildschirmschoner: einen leeren Bildschirm (ui!), fliegende Windows-Fenster, Marquee (einen Satz Ihrer Wahl, der über den Bildschirm fliegt) und Starfield Simulation (ein simulierter Flug durchs Weltall). Natürlich konnten Nutzer auch weitere Bildschirmschoner nach Belieben installieren.

5) Minesweeper und Solitaire

Damals, als man noch keinen einfachen Zugang zu News-Blogs und Browser-Games hatte, vertrieb sich mancher Büroarbeiter die kleinen Pausen mit Spielen wie Solitaire und Minesweeper. Solitaire tauchte zum ersten Mal bereits in Windows 3.0 auf, doch das brandneue Minesweeper löste in Windows 3.1 das weniger beliebte Reversi ab. Einige Nutzer beschuldigen Microsoft sogar, Windows‘ Solitaire verschlinge mehr produktive Arbeitsstunden als jede andere PC-Anwendung.

6) Die Registry

Windows 3.1 brachte viele Verbesserungen mit sich – aber es führte auch eine neue Funktion ein, die zum Fluch vieler Windows-Nutzer werden sollte: die Registry. Wir alle wissen doch nur allzu gut, wie einfach sich diese Datenbank voller versteckter Systemeinstellungen durcheinander bringen lässt und dann unser gesamtes System verwüstet. Trotzdem überlebte die Registry jede noch so große Beschwerde: Sogar hinter dem modernen Metro-Interface des neuen Windows 8 werkelte die Registry noch.

7) Das Control Panel

Zu Zeiten von Windows 3.1 brauchte man sage und schreibe zwölf Icons im Control Panel, um alle Facetten von Windows zu konfigurieren. Zum Vergleich: Unser Windows 7 Control Panel zählt 52 Icons. Windows 3.1 war die erste Windows-Version mit einem modularen Control Panel. Soll heißen: Man konnte neue Felder im Fenster hinzufügen, indem man einfach eine spezielle CPL-Datei in den Windows-System-Ordner kopierte.

8) Einbinden und verlinken

Windows 3.1 führte eine systemweite Methode ein, wie sich verschiedene Arten von Dateien miteinander verlinken und einbinden ließen. Was bedeutet das genau? Zum Beispiel konnte man ein Paintbrush-Bitmap-File kopieren und es in eine Word-Datei einfügen, wie im Bild zu sehen ist. Wenn man die Bitmap-Datei hingegen verlinkte, wird jede auch im Nachhinein erfolgte Änderung an der Grafik auch im Word-File dargestellt. Heutzutage ist eine solche Funktion für uns selbstverständlich – vor 20 Jahren galt sie als echter Komfort.

9) Öffnen und speichern

Vor Windows 3.1 mussten Programmentwickler für jede ihrer Anwendungen eigene Öffnen- und Speichern-Dialogboxen programmieren. Das Resultat: Absolut verwirrende Uneinheitlichkeit. Microsoft behob diesen Mangel in Windows 3.1, indem ein systemweites Öffnen- und Speichern-Dialogbox-System eingeführt wurde. Programmierer durften dieses System ab sofort in ihre Anwendungen einfügen, um Windows ein einheitlicheres Äußeres zu verschaffen.

10) Multimedia-Unterstützung

Microsoft unterstützte erstmals Sound- und Video-Wiedergabe als Teil von Windows 3.0 mit Hilfe des Programms Multimedia Extensions – veröffentlicht 1991, allerdings nur auf neuen Maschinen. Für Windows 3.1 wurden diese Erweiterungen zum Standard und erlaubten es Nutzern damit, qualitative, digitalisierte Audio-Dateien über eine Soundkarte abzuspielen und aufzuzeichnen – zum Beispiel mit Hilfe der beliebten SoundBlaster Pro. Der allseits bekannte Media Player machte es möglich, AVI-Videos anzuschauen – sofern die Hardware des Systems die Videos überhaupt ruckelfrei wiedergeben konnte.

11) Notepad und Rechner

Weder das Notepad noch der Taschenrechner wurden mit Windows 3.1 eingeführt, trotzdem sind diese viel benutzten Helferlein einen Retro-Blick wert. Die Optik des Notepad sollte den meisten modernen Windows-Nutzern bekannt sein; die flachen, bunten Tasten des Rechners im Bild könnten vielen jedoch seltsam vorkommen. Diese Tasten sind ein Überbleibsel aus der Zeit, bevor die scharffierte 3D-Button-Optik der 1990er Version von Windows 3.0 Standard wurde. Windows 95 führte dann drei Jahre später einen Rechner ein, der schon deutlich mehr nach Windows aussah.

12) Task List

In modernen Versionen von Windows öffnet man durch gleichzeitiges Drücken von Strg, Alt und Entf den Task Manager. Unter Windows 3.1 startete man mit Strg und Esc beziehungsweise mit einem Doppelklick auf den Desktop die sogenannte Task List. Das Programm zeigte alle derzeit geöffneten Anwendungen an, die bei Bedarf von dort aus beendet werden durften – genau wie der heutige Task Manager also. Allerdings war die Anwendung damals weitaus weniger nützlich als heute: Die meisten Programmabstürze führten ihrerzeit auch gleichzeitig zum kompletten Windows-Absturz.

13) Paintbrush

Wir beenden unsere Retro-Tour durch Windows 3.1 mit diesem abstrakten Gemälde aus Paintbrush – dem Vorgänger des heute noch bekannten Paint. Zu einer Zeit, als die meisten Windows PCs nur 16 Farben unterstützten, war Paintbrush eine Art wandlungsfähiges Schweizer Taschenmesser für schnelle, grafische Aufgaben.

NAS-Server einrichten – so ist der Speicher aus dem Web erreichbar

Der Router trennt das Netzwerk in ein öffentliches und ein privates. Das ist gut so, solange Sie nicht vom öffentlichen Netz den Zutritt in Ihr privates brauchen. Aber wenn Ihr NAS hinterm Router hängt, müssen Sie Anpassungen vornehmen.

Kleine NAS-Server oder selbstgebaute Daten-Server auf Basis einer Raspberry-Platinebieten viel Speicherplatz, und die Daten sind hier sicherer aufgehoben als bei Cloud-Anbietern. Um einen Cloud-Speicher ersetzen zu können, muss Ihr Server allerdings auch von außerhalb erreichbar sein, also etwa vom Arbeitsplatz oder vom Urlaubsort.

Für dieses Ziel sind mehrere Konfigurationsschritte erforderlich. Dabei geht diese Anleitung davon aus, dass Sie keinen professionellen FTP-Server betreiben, der von vielen Kunden genutzt wird, sondern einen FTP- oder auch SSH-Zugriff für sich persönlich einrichten wollen: Ihre heimischen Daten sollen für den Fall der Fälle auch weltweit über das Web erreichbar sein, aber eben nur für Sie.

Öffentliche und private IP-Adresse: Das müssen Sie wissen

Das heimische Netzwerk ist vor ungebetenen Anfragen aus dem Internet geschützt, weil PCs, Tablets oder NAS-Geräte gar nicht mit dem Internet kommunizieren, sondern nur mit dem Router. Dies funktioniert durch die Trennung in einen öffentlichen und privaten Adressraum.

Öffentliche IP-Adresse: Der Router erhält bei der täglichen Verbindung zum Internet-Provider aus einem vorgegebenen Pool eine Zufalls-IP-Adresse.

Mit dieser einen öffentlichen IP-Adresse gehen dann sämtliche Geräte, die sich hinter dem Router im Heimnetz befinden, ins Internet. Mit dieser öffentlichen IP-Adresse kommt man dann auch, nach den hier erklärten Maßnahmen, vom Internet auf die heimischen Daten.

Private IP-Adresse: Jedes netzwerkfähige Gerät hinter dem Router wie PC, Tablet oder Smartphone erhält beim Start eine interne, „private“ IP-Adresse typischerweise aus dem Adressraum 192.168.0.xxx oder 192.168.1.xxx. Diese privaten Adressen dienen der Absprache der Geräte untereinander und mit dem Router, haben aber mit der öffentlichen IP-Adresse nichts zu tun. Die Geräte kennen die öffentliche IP nicht einmal, und es gibt daher auf PC-Betriebssystemen keine eingebaute Funktion, um die öffentliche IP zu ermitteln: Die einzige Möglichkeit ist eine Anfrage im Internet nach dem Motto „Hallo, wer bin ich da draußen?“ (etwa bei www.browsercheck.pcwelt.de oderwww.wieistmeineip.de ).

Der Router dazwischen: Der Router vergibt und kennt die privaten IPs und natürlich auch die öffentliche IP. Er zeigt letztere auch in der Konfigurationsoberfläche an. Leider gibt es keinen zuverlässigen Weg, diese Information des Routers über einen PC automatisiert auszulesen. Im Prinzip geht das zwar über einen Telnet-Client (etwa Putty /Kitty ), aber dazu müsste der Router einen Telnet-Server besitzen (bei vielen Providern absichtlich entfernt), ferner der Telnet-Server des Routers über einen Telefoncode eingeschaltet werden. Eine zuverlässige und automatisierte Abfrage der öffentlichen IP ist auf diesem Weg nicht möglich.

Erlaubte und verworfene Webanfragen: Jedes Internet-Paket, das der Router über die öffentliche IP erhält, wird konsequent verworfen, sofern es nicht vorher durch eine private IP angefordert wurde. HTML-Seiten oder Downloads einer beliebigen Internet- IP erhalten Eintritt, wenn der Router eine IP-Adresse im privaten Adressbereich vermerkt hat, die genau diese Anforderung gestellt hatte. Für die richtige Verteilung der IP-Pakete von außen an die diversen Auftraggeberund Empfängergeräte im lokalen Netz sorgt die NAT-Komponente („Network Address Translation“). Damit ist das Netzwerk nach außen geöffnet, aber nach innen versperrt.

Portfreigabe: Öffnung für NAS-Webanfragen

Sobald Sie im eigenen Netzwerk einen Daten-Server oder ein NAS verwenden, der über das Internet erreichbar sein soll, ist die Abschottung des heimischen Netzwerks kontraproduktiv. Auch mit der Kenntnis der öffentlichen IP-Adresse kommen Sie aus den genannten Gründen nicht aus dem Web an Ihren Server: Es handelt sich um eine Anfrage von außen, für welche der Router keinen inneren Auftraggeber in seiner NAT-Tabelle protokolliert hat und die er deshalb verwirft.

Damit ein Server von außen erreichbar wird, müssen Sie von innen ein wohldefiniertes Loch bohren. Dafür gibt es die „Portfreigaben“ im Router, je nach Router auch als „Portweiterleitung“, „Portmapping“ oder „Virtueller Server“ bezeichnet.

Für die Netzwerk-Kommunikation stehen theoretisch 65 536 Ports zur Verfügung, wobei vielgenutzte Protokolle vordefinierte Standardports verwenden. Die für den Zugriff auf Daten-Server relevanten Protokolle FTP und SSH nutzen Port 21 (FTP) und Port 22 (SSH):

Beispiel SSH: Um SSH-Anfragen aus dem Internet auf einen Rechner in das Heimnetz zu gestatten, muss also der Port 22 freigegeben werden. Außerdem muss der Router wissen, an welches Gerät er solche Anfragen schicken muss. In jüngeren Fritzboxen finden Sie die Einstellungen unter „Internet > Freigaben > Portfreigaben“. Nach „Neue Portfreigabe > Andere Anwendungen“ geben Sie als Protokoll „TCP“, neben „von Port“ die Zahl 22, neben „an Port“ ebenfalls die 22 ein. Das heißt: Was über die öffentliche IP an Port 22 ankommt, wird an den Port 22 eines Heimgeräts geschickt. Um welches Gerät es sich handelt, tragen Sie neben „an Computer“ und „an IP-Adresse“ ein.

Das Prinzip der Portfreigabe ist bei allen DSL- und Kabel-Routern identisch: Ein Port der öffentlichen IP wird geöffnet und an den (der Einfachheit halber) gleichen Port einer privaten IP geleitet.

Der Konfigurationskomfort der Router ist unterschiedlich: So bietet nicht jeder Router für die Angabe des Zielgeräts die angenehm lesbaren Rechnernamen an, sondern erwartet die private IP-Adresse des Geräts. Das scheint weniger komfortabel, ist aber die sauberste Methode. Sie setzt allerdings voraus, dass Ihr Server eine verlässliche, feste private IP besitzt. Da es sich hier um einen wichtigen Aspekt handelt, empfehlen wir eintiefergehendes Einlesen in das Thema Portfreigabe .

Feste IP-Adresse vergeben: Jeder Rechner mit Server-Aufgaben sollte statt einer Zufalls-IP eine feststehende Adresse verwenden. Das vereinfacht die Administration im lokalen Netz und garantiert das richtige Routing bei der Portweiterleitung. Bei PCs und NAS-Geräten ist oft am einfachsten, diese feste IP am Rechnersystem selbst einzustellen. Der systematischere Weg, der unabhängig vom Gerät und seinem System immer funktioniert, führt aber wieder zum Router: Die Fritzbox zeigt unter „Heimnetz“ alle Geräte und bietet nach dem Klick auf die „Bearbeiten“-Schaltfläche die Option „Diesem Netzwerkgerät immer die gleiche IPv4-Adresse zuweisen“. Bei anderen Routern ist die betreffende Einstellung unter „DHCP-Reservierung“ zu finden oder ähnlich lautend.

Beispiel FTP: Für einen via Internet zugänglichen FTP-Server gelten wieder die gleichen Grundregeln: Eine feste private IP-Adresse ist Pflicht. Ansonsten wird in diesem Fall im Router statt Port 22 der Port 21 an den lokalen Server geleitet. FTP verdient dennoch diesen Extra-Abschnitt, weil die Öffnung und Weiterleitung von Port 21 meist nicht ausreicht. Um passives FTP zu ermöglichen, das auch beim Fernzugriff hinter Firewalls funktioniert, benötigen Sie eine zusätzliche Weiterleitungsregel im Router. Leiten Sie in diesem Fall auch den Portbereich 55536 bis 55663 an die private IP-Adresse des FTP-Servers weiter. Für solche Portbereiche sieht die Fritzbox zwei Eingabefelder vor („von Port“ und „bis Port“). Bei Routern, die nur ein Feld anbieten, funktioniert die Eingabe mit Bindestrich „55536-55663“.

Zwangstrennung und öffentliche IP

Mit einer Portfreigabe ist der heimische Server im Prinzip im Internet erreichbar. Sie müssten jetzt auf einem entfernten FTP-Client wie etwa Filezilla als Server lediglich die öffentliche IP Ihres Netzwerks eintragen – und natürlich Benutzer und Passwort. Gleiches gilt für den SSH-Zugriff mit Putty oder einem Linux-SSH-Client. Beachten Sie, dass für einen öffentlich zugänglichen Server rigorosere Sicherheitsansprüche gelten sollten als für Freigaben im privaten Heimnetz. Mit anderen Worten: Das Passwort muss relativ komplex sein, und der Benutzer sollte nicht unbedingt „root“ heißen.

Bleibt eine wesentliche Hürde: Wie ermitteln Sie aus der Ferne, welche öffentliche IP-Adresse Ihr Heimnetz besitzt? Erschwerend kommt hinzu, dass DSL- und Kabelanbieter die Verbindung einmal am Tag trennen und dann eine neue öffentliche IP vergeben. Diese Zwangstrennung soll den Betrieb privater Daten- und Webserver erschweren, hat aber immerhin auch den positiven Nebeneffekt, dass Brute- Force-Attacken auf Passwörter privater Server nur ein Tag Zeit bleibt.

Exkurs Dyn DNS: Eine bewährte Abhilfe bieten Dyn-DNS-Anbieter wie dyndns(kostenpflichtig), noip(kostenlos), dlinkddns (kostenlos für D-Link-Router) oder myfritz (kostenlos für AVM-Fritzbox). Daneben gibt es noch weitere Gratis-Alternativen. Das funktioniert so, dass der Router bei Erhalt einer neuen öffentlichen IP diese sofort an den Dyn-DNS-Dienst meldet. Wohin genau, müssen Sie dem natürlich Router mitteilen – bei der Fritzbox unter „Internet > Freigaben > Dynamic DNS“. Beim Dyn-DNS-Dienst ist dann wiederum eine Pseudo-Domain wie „apfelboeck.dlinkddns.com“ hinterlegt, und alle Anfragen an diese Pseudo-Adresse werden an die aktuelle IP umgelenkt. So kommen Sie trotz wechselnder IP zuverlässig zu Ihrem Router und dort je nach Weiterleitungsregeln an heimische Server. Die folgenden Tipps zeigen, dass Sie auch ohne Hilfe eines dynamischen DNS-Dienstes auskommen.

Die öffentliche IP auf der Homepage

Als Besitzer einer eigenen Homepage sind Sie auf keine Fremdhilfe angewiesen: Sie brauchen auf der Homepage nur ein PHP-Script, das die öffentliche IP Ihres Heimnetzwerks feststellt und als Textdatei ablegt. Die Abbildung auf dieser Seite zeigt zwei Beispiel-Scripts. Die Textdatei „ip.txt“ wird hier im Verzeichnis des PHP-Scripts abgelegt. Falls Sie in Ihrem Heimnetz hinter einem Proxy-Server arbeiten, verwenden Sie das zweite, geringfügig umfangreichere Script.

Nun geht es nur noch darum, dieses PHP-Script jeden Tag zuverlässig aufzurufen – und zwar unbedingt aus dem heimischen Netzwerk. Dafür gibt es diverse Optionen: Wenn ein Windows- PC täglich gestartet wird, genügt ein Autostart-Script etwa mit dem Kommandozeilen-Tool Wget:

wget -q http://meineseite.de/pfad/ip-heute.php

Da aber ein PC wahrscheinlich gerade dann nicht gestartet wurde, wenn Sie unterwegs an Ihre Daten möchten, ist es logischer, das Script am Daten-Server selbst auszulösen. So kann jedes NAS-System tägliche Downloads zum gewünschten Zeitpunkt erledigen. Durch den Quasi-Download des PHP-Scripts wird der Code ausgelöst und die IP frisch gespeichert. Auf einem Platinen-Server wie Raspberry Pi oder Odroid benötigen Sie einen Cron-Job. Verwenden Sie SSH (Putty unter Windows) für die Server-Administration, und geben Sie in der SSH-Konsole

crontab –e

ein. Nach den Kommentarzeilen schreiben Sie:

0 7 * * * wget -q http://meineseite.de/pfad/ip.php

Das hinterlegt die öffentliche IP täglich um sieben Uhr auf Ihrer Homepage. Als Trennzeichen zwischen den insgesamt sechs Crontab-Parametern verwenden Sie Blanks oder Tabulatoren.

Die öffentliche IP in der Cloud

Ohne eigene Homepage können Sie Ihre öffentliche IP täglich auf einem Cloud-Speicher hinterlegen. Abgesehen vom Cloud-Anbieter selbst geht es hier nicht ganz ohne Fremdhilfe, weil Sie auch die IP über einen Webdienst abfragen müssen. Das kann etwa ein täglich gestartetes Windows mit einer Batch-Datei im Autostart erledigen:

cmd.exe /c curl ifconfig.me >%userprofile%\dropbox\ ip.txt

Vom lokalen Sync-Ordner geht die Textdatei mit der IP dann nach kurzer Zeit automatisch in die Cloud. Das für den Befehl notwendige Tool Curl sollte auf keinem System fehlen. Aber auch hier gilt, dass diesen Job am besten der ständig laufende Server erledigen sollte. Die meisten NAS-Geräte müssen hier passen. Auf Raspberry Pi und sonstigen Platinen ist es hingegen kein Problem, per Cron-Job (siehe oben) täglich einen Curl-Befehl abzuschicken oder die öffentliche IP anders zu erfragen. Erste Wahl unter Linux-Systemen ist das Info-Tool Inxi, das mit der gezielten Abfrage

inxi -i -c0 > /home/ha/ Dropbox/ip.txt

die IP schneller liefert als viele andere Services. Inxi ist auf Linux-Systemen nicht Standard, aber mit

sudo apt-get install inxi

sofort nachinstalliert.

Inxi ist von Google gesponsert, das theoretisch auf diesem Weg neben den sonstigen Big Data eben auch öffentliche IPs einsammeln kann. Das Tool ist top, aber Google-Hasser sollten sich anders behelfen. Internetseiten, welche mit Curl die Abfrage der IP auf der Kommandozeile erlauben, sind unter anderen ifconfig , checkip dyndns ,whatismyip akamai oder icanhazip .

Wichtige Voraussetzung für die Cloud-Lösung: Der Cloud-Speicher muss im lokalen Dateisystem eingebunden sein, damit Sie die mit Curl oder Inxi ermittelte IP-Adresse dort ablegen können. Cloud-Anbieter wie Strato Hidrive , Microsoft Onedrive , Dropboxund weitere bieten solche Sync-Ordner am lokalen Rechner. Typischerweise liegen die Sync-Ordner im Benutzerprofil, also unter „/home“ auf Linux-Servern. Für Linux-basierte Server ist Dropbox erste Wahl. Das technisch noch bessere Strato Hidrive ist nicht mehr kostenlos (ab 1,49 Euro pro Monat). Beachten Sie bei Dropbox, dass nicht jedes Linux-System einen Dropbox-Client anbietet. Wenn Sie eine Cloud-Lösung mit Dropbox anstreben, sollten Sie für Ihren Daten-Server ein Ubuntu-basiertes Linux-System auswählen.

Tipp: So optimieren Sie den NAS-Zugriff

Nach den beschriebenen Maßnahmen liegt die öffentliche IP Ihres Heimnetzwerks auf einem global zugänglichen Speicherort im Internet – entweder auf der eigenen Homepage oder auf einem Cloud-Speicher. Für den Zugriff auf den Daten-Server müssen Sie lediglich die IP von dort aus der Textdatei kopieren und dann in Ihren SSH- oder FTP-Client als Server-Adresse einfügen.

Ob alles wie gewünscht funktioniert, sollten Sie einmal von außen unter realen Bedingungen überprüfen – also von einem Gerät, das nicht im eigenen Netzwerk hängt. Eine hierfür oft übersehene Option ist ein Android-Smartphone, an dem Sie das heimische WLAN abschalten und sich über 3G verbinden („Mobile Daten“). Eine kostenlose Android-App für den SSH-Zugang ist der Serverauditor SSH/SFTP Client, der dauerhaft einen Platz auf dem Smartphone verdient. Für den FTP-Zugang verwenden Sie am besten die Android-Version des Total Commander mit dem FTP-Plug-in.

Sobald der Zugriff reibungslos funktioniert, können sich Script-Kundige die Sache noch bequemer machen: Der Filezilla-FTP-Client speichert die Server-Daten im Klartext in der Datei „sitemanager.xml“. Der SSH-Client Kitty (Putty schreibt in die Windows-Registry) legt im Unterverzeichnis „Sessions“ ebenfalls für jeden konfigurierten Server eine Klartextdatei ab. Insofern ist es auf Windows- und Linux-PCs keine große Herausforderung, diese Dateien vor dem Start des Client automatisch mit der aktuellen Server-IPAdresse zu füllen. Vorausgehen müsste der Download der abgelegten Textdatei, ihm folgt das Auslesen der enthaltenen IP, dann das Eintragen dieser IP an der richtigen Stelle der Konfigurationsdateien. Zum Abschluss des Scripts wird dann das Client-Programm gestartet.

Eine interessante Alternative für NAS-Nutzer stellt übrigens Owncloud dar . Für den Zugriff auf Ihre Daten unterwegs steht sogar eine eigene Smartphone-App parat.

So testen Sie Notebooks beim Kauf im Laden

Sie wollen sich beim Notebook-Kauf nicht nur auf die Handbuch-Angaben verlassen? PC-WELT zeigt Ihnen Schritt für Schritt, wie Sie ein Notebook beim Kauf im Laden testen.

Im Laden Ihrer Wahl finden Sie auf Anhieb drei Modelle, die Ihnen zusagen – aber wie entscheiden Sie sich vor Ort für das richtige und nicht für das, was Ihnen der Angestellte verkaufen will? Für diesen Zweck haben wir einige Leistungstests zusammengestellt, die Sie selbst im Geschäft durchführen können. So kristallisiert sich schnell heraus, welches Notebook sein Geld wert ist und welches vielleicht nur hübsch aussieht.

Vergessen Sie dabei aber nicht, dass unsere Tests nur einen Teil der Informationen liefern, die für Sie in die Kaufentscheidung mit einfließen sollten. Am besten eignen sich unsere Tests also, wenn Sie bereits mehrere Laptops gefunden haben, die alle Ihre gewünschten Grund-Spezifikationen mitbringen. Bedenken Sie auch, dass die Anzahl der Tests, die Sie durchführen können, stark von Ihrem gewählten Laden abhängig ist. In einigen Geschäften sind die Ausstellungs-Notebooks voll funktionsfähig, anderswo ist ein Großteil der Geräte abgeschaltet oder für bestimmte Aktionen gesperrt. Wir empfehlen daher den Kauf in einem Geschäft, in dem man vorher wirklich Hand an das Notebook anlegen kann, das man zu kaufen gedenkt.

1) Bootzeit und Betrachtungswinkel

Messen Sie bei einem ausgeschalteten Gerät zunächst die Zeit, die es zum Hochfahren benötigt. Dazu eignet sich entweder eine Stoppuhr oder eine passende Zeitstopp-App für Ihr Smartphone. Gemessen wird die Zeit zwischen dem Betätigen des Power-Knopfes und dem Anzeigen des Login-Bildschirms. Sollte es diesen nicht geben, zählt die Zeit bis zur Anzeige des Desktops.

Betrachten Sie den Bildschirm nun aus allen möglichen Winkeln, vertikal und horizontal. Achten Sie bei diesem Test vor allem darauf, ob sich die Farben des Displays verändern und manche Bereiche des Bildschirms verschwimmen oder verdunkeln. Ist das der Fall, spricht das nicht unbedingt für die Qualität des Displays.

2) Display

Besuchen Sie auf dem Test-Laptop eine Webseite mit Monitor-Testrastern, zum Beispiel indiev.org . Behalten Sie nun die Raster im Auge, während Sie die Helligkeit des Bildschirms verändern. Werden nach wie vor alle Farben und Kontraste gut dargestellt? Wie hell lässt sich das Display einstellen, um es vielleicht auch unter Sonneneinstrahlung zu benutzen? Oder ist der Bildschirm dafür ohnehin zu glänzend und reflektierend?

3) Tastatur

Tastaturen sind eine sehr subjektive Angelegenheit: Unterschiedliche Nutzer – mit schlanken oder dickeren Fingern – bevorzugen unterschiedliche Tastaturen. Stellen Sie also sicher, dass Sie sich mit der Tastatur des Laptops wohl fühlen. Öffnen Sie dazu Word oder ein anderes Textverarbeitungsprogramm und tippen Sie ein paar Zeilen. Wie schnell und einfach lässt es sich auf der Tastatur tippen? Wenn der Laptop im Laden mit dem Internet verbunden ist, können Sie auch einen kostenlosen, einminütigen Tipptest auf typingtest.com durchführen. Der vergleicht die Anzahl Ihrer getippten Wörter pro Minute mit dem Durchschnitt aller Nutzer.

4) Anwendungen

Schauen Sie nach, welche Programme bereits auf dem Test-Laptop installiert sind und starten Sie sie wahllos, gerne auch mehrere auf einmal. Wie schnell öffnen sich die Anwendungen? Sofern es Programme gibt, die auf allen in Frage kommenden Notebooks installiert sind, starten Sie sie und überprüfen Sie so, welches System die Anwendung am schnellsten startet. Wichtig bei diesem Test ist, dass sich die Programme auch wirklich auf der Festplatte des Laptops befinden und keine Internetverbindung voraussetzen.

5) Touchpad

Testen Sie, wie gut es sich mit dem Touchpad steuern lässt, indem Sie durch verschiedene Webseiten, Ordnerstrukturen und Textdokumente scrollen und navigieren. Bewegen Sie den Mauszeiger herum, vergessen Sie das Klicken nicht, insbesondere den Rechtsklick. Ist das Touchpad akkurat genug? Lässt es Sie exakt dorthin navigieren und klicken, wo Sie es wollen? Reagiert das Touchpad fälschlicherweise auf Ihre versehentlich abgelegten Handballen?

So testen Sie einen Computer beim Kauf

Sie wollen einen neuen Desktop-Rechner kaufen? Wir geben Ihnen eine Anleitung an die Hand, mit der Sie Schritt für Schritt den richtige Computer finden.

Sie brauchen einen neuen Desktop-PC. Im Geschäft sehen Sie drei verschiedene Modelle, die in Frage kämen, aber Sie wissen nicht, welches davon am besten für Sie geeignet ist. Mit den folgenden Tests finden Sie direkt im Geschäft den richtigen Rechner.

All-In-One

Bei einem All-In-One-PC sollten Sie sicherstellen, dass die Touch-Bildschirme gut auf Ihre Eingaben reagieren. Dies bewerkstelligen Sie wie folgt:

Navigieren Sie durch die unterschiedlichen Funktionen des Betriebssystems. Wischen Sie durch ein paar Beispielbilder. Diese finden Sie, wenn Sie auf Start drücken und zu den Benutzer-Ordnern navigieren. Öffnen Sie einen Browser und surfen Sie auf ein paar Webseiten.

Außerdem sollten Sie die eingebauten Lautsprecher des All-In-Ones testen, indem Sie die bei Windows integrierte Beispielmusik abspielen. Auch diese finden Sie im entsprechenden Benutzer-Ordner. Anschließend sollten Sie die Lautsprecherqualität bewerten und entscheiden, ob Sie Ihren Anforderungen entspricht.

Computer-Lautstärke

Um herauszufinden, wie laut ein Rechner ist, legen Sie Ihr Ohr an die Seite des Gehäuses und achten auf ungewöhnlich laute Geräusche. Wenn es Ihnen möglich ist, sollten Sie versuchen die Lüftung auf der Rückseite zu hören. Im Geschäft selbst ist es wahrscheinlich recht laut, weshalb Sie den Geräuschpegel des Computers am besten mit den anderen vergleichen sollten. Sie sollten darauf achten, dass Ihr Wunsch-Computer leiser ist als der durchschnittliche PC.

Hochfahr-Zeit

Mit einer Stopp-Uhr oder alternativ mit einer Stopp-App auf Ihrem Handy können Sie die Zeit messen, die der Computer zum Hochfahren benötigt. Starten Sie die Uhr, wenn Sie den Ein-Schalter betätigen und stoppen Sie die Zeit, wenn der Rechner voll einsatzfähig ist.

Komponenten-Leistung

Das alte, aber immer noch weit verbreitete Windows 7 hat ein Diagnose-Werkzeug, dasWindows-Leistungs-Index genannt wird. Dieses Programm testet die CPU, die Festplatte, den Arbeitsspeicher und die Grafik-Leistung und bewertet den Computer anschließend mit einer Gesamt-Punktzahl.

Media Playback

Öffnen Sie eines der Videos, die bei Windows enthalten sind (Rechtsklick mit der Maus auf den Start-Button, Windows-Explorer öffnen, Bibliotheken, Videos). Öffnen Sie den Video-Ordner, klicken Sie doppelt auf ein Video und achten Sie während des Abspielens auf Pixelfehler oder Ruckler im Video.