Kontakte und Daten von iPhone auf Android übertragen

Wir zeigen Ihnen, wie Sie Ihre Daten wie Kontakte von einem iPhone auf ein Android-Handy wie dem Galaxy S9 übertragen.

Der Smartphone-Wechsel mit sämtlichen Daten ist zum Glück kein Problem mehr – selbst systemübergreifende Umzüge von iOS zu Android sind ein Kinderspiel – okay, zumindest fast. Der Datenumzug ist ohne größeren Datenverlust möglich.

Daten von iPhone auf Android übertragen mit Smart Switch

Hersteller wie Samsung und Sony bieten eigene Programme an, um Daten von einem iPhone auf Android-Geräte zu übertragen. Die Software-Oberflächen sind größtenteils selbsterklärend – Sie verbinden immer Ihr Smartphone mit dem PC, wählen als wiederherzustellenden Inhalt das iOS-Backup aus und importieren dieses. Nachfolgend erklären wir Ihnen, wie der Umzug mit der Samsung-Software Smart Switch funktioniert – auch ganz ohne PC.

Mit der Software Smart Switch können Sie die Inhalte Ihres alten Handys auf ein neues Galaxy-Modell übertragen – zum Beispiel auf das Galaxy S9 (Test) oder das Galaxy Note 9 (Test) . Es gibt in diesem Fall drei Möglichkeiten, iOS-Inhalte auf das Galaxy-Smartphone umzuziehen: Via iCloud-Import, direkte USB-Verbindung zum Smartphone oder über den PC.

iCloud-Import: In den iOS-Einstellungen auf Ihrem iPhone unter „iCloud“ legen Sie fest, welche Daten in der iCloud gesichert werden sollen. Um diese auf Ihr neues Galaxy-Gerät zu übertragen, laden Sie die App Smart Switch Mobile auf Ihr Samsung-Handy herunter. Bei den meisten aktuellen Smartphones wie dem Galaxy S9 ist die Anwendung bereits vorinstalliert und im System integriert. Wenn sich die Anwendung nicht im App-Menü befindet, versteckt sich Smart Switch in den Einstellungen unter „Cloud und Konten“. Starten Sie die App auf Ihrem Galaxy-Handy und wählen Sie „Drahtlos – Empfangen – iPhone/iPad“ aus. Anschließend melden Sie sich in iCloud mit Ihren Zugangsdaten an. Wählen Sie die zu übertragenen Inhalte aus und tippen Sie auf „Importieren“. Zur Auswahl stehen unter anderem Kontakte, Kalender, Fotos und Videos.

Via USB: Die Datenübertragung von iPhone zu Samsung via USB funktioniert genau wie beim iCloud-Import. Nur wird in diesem Fall Fall das iPhone mit einem USB-Kabel an das Samsung-Gerät über einen OTG-Adapter angeschlossen wird. Ein solcher liegt dem Galaxy S9 bei.

Sobald das iPhone über USB an das Galaxy-Handy angeschlossen ist, öffnet sich automatisch Smart Switch. Tippen Sie auf Ihrem iPhone bei der Meldung „Diesem Computer vertrauen?“ auf „Vertrauen“ und auf Ihrem Galaxy-Device auf „Weiter“. Anschließend scannt die Software den Inhalt des iPhones und überträgt dann die von Ihnen ausgesuchten Inhalte. Achtung: Das iPhone darf nicht via iTunes verschlüsselt sein, sonst klappt der Transfer nicht.

Über den PC: Stellen Sie sicher, dass sich eine lokal gespeicherte System-Sicherung Ihres iPhones auf dem Computer befindet, die Sie mit iTunes angelegt haben. Achten Sie darauf, dass das Backup durch kein Passwort geschützt ist. Nun laden Sie sich dasDesktop-Programm Smart Switch auf Ihren Windows- oder Mac-Computer herunter und starten es – die Download-Links befinden sich ganz unten auf der Webseite. Verbinden Sie Ihr Galaxy-Smartphone mit dem PC und klicken in Smart Switch auf die Schaltfläche „Wiederherstellen“, danach auf „Sicherungsdaten auswählen“. Stellen Sie „Von iTunes sichern“ ein, wählen das entsprechende iOS-Backup aus und bestimmen dann die zu übertragenen Inhalte aus – Kontakte, Lesezeichen, Bilder, Videos und eine App-Liste. Das Programm zeigt Ihnen eine zu den iOS-Apps passende Liste mit Android-Apps, die Sie auf Ihrem Galaxy-Gerät installieren können.

Kontakte vom iPhone mit Google synchronisieren

Falls Sie kein Google-Konto besitzen, sollten Sie spätestens jetzt eins anlegen. Ein solches benötigen Sie auf Ihrem Android-Handy sowieso, um es vollumfänglich bedienen zu können. Tippen Sie in den iOS-Einstellungen Ihres iPhones auf „Accounts & Passwörter – Account hinzufügen“ und melden sich dann mit Ihrem Google-Konto an, das Sie auch auf Ihrem Android-Handy nutzen. Wählen Sie aus, welche Daten synchronisiert werden sollen – allen voran die Kontakte – und stellen Sie sicher, dass Sie über eine aktive Internetverbindung verfügen. So übertragen Sie alle Kontakte sicher auf das neue Android-Gerät. Die Kontakte sind auf den Google-Servern gesichert, weshalb sie auf allen Android-Geräten sowie am PC nutzbar sind. Kontakte verlieren war gestern!

Fotos vom iPhone auf Android direkt übertragen

Um die vielen mit Ihrem iPhone geknipsten Fotos auf ein Android-Gerät zu bringen, schließen Sie das iPhone an den Computer an. Nun können Sie am PC auf den Speicher des iPhones zugreifen und den Bilder-Ordner „DCIM“ entweder direkt auf ein via USB angeschlossenes Android-Gerät übertragen oder die Fotos zunächst auf dem PC zwischenspeichern.

Auf Android umsteigen mit Drittanbieter-Software

Ein Umzug klappt auch mit dem Programm MobileTrans von Wondershare , mit dem Sie Kontakte, SMS-Nachrichten und Multimedia-Dateien auf das neue Telefon schieben. Allerdings bietet die kostenlose Testversion nur eingeschränkte Versionen. Um das vollständige Programm zu nutzen, müssen Sie zahlen. Die Vollversion kostet für ein Jahr für 1 bis 5 Geräte und einen PC 35 Euro. Die lebenslange Lizenz für genauso viele Geräte kostet 39,99 Euro. Und das lebenslange Familienpaket mit 6 – 10 Geräten und einem PC kostet 67,99 Euro.

Voraussetzung: Sie müssen auf Ihrem Computer die Apple-Verwaltungssoftware iTunes installiert haben, damit Sie Dateien von oder auf ein iOS-Gerät senden können. Darüber hinaus aktivieren Sie bei Ihrem Androiden „USB-Debugging“ unter „Einstellungen -> Entwickler-Optionen -> Debugging –> USB-Debugging“.

Danach wählen Sie die zu kopierenden Daten aus. In diesem Fall können Sie alle Inhalte bis auf Apps und Anruflisten übertragen. Klicken Sie auf „Kopieren“, sendet das Programm den Datenbestand des iOS-Telefons auf den Androiden.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Hardware-Trends 2019: WLAN & Mobilfunk

Ein aktueller WLAN-Router sollte zu schnellen Internetanschlüssen ebenso passen wie zu einem großen WLAN. Wenn Sie aber mehr Tempo und Reichweite im Funknetz brauchen, sollten Sie auf ein Mesh-System setzen.

Die klassische Heimnetzausstattung in Deutschland beinhaltet einen WLAN-Router mit Modem passend zum Internetanschluss. Der Wechsel der Anschlussart oder Anschlussgeschwindigkeit ist deshalb ein guter Zeitpunkt, über einen neuen Router nachzudenken. Dafür bietet AVM das umfassendste Angebot: Die Fritzbox 7590 unterstützt Super-Vectoring für DSL-Tarife mit bis zu 250 MBit/s, wie sie beispielsweise 1&1 (DSL 250), Telekom (Magenta Zuhause XL) und Vodafone (Red Internet & Phone 250 DSL) anbieten. Sie verfügt dabei über 11ac-WLAN mit 1733 MBit/s (5 GHz) plus 800 MBit/s (2,4 GHz) und kostet rund 230 Euro. Eine günstigere Alternative ist mit 130 Euro die etwas schlechter ausgestattete Fritzbox 7530 : Ihr WLAN arbeitet mit maximal 866 sowie 400 MBit/s.

Jeweils rund 20 Euro kostengünstiger sind die ähnlich ausgestatteten DSL-Modemrouter von TP-Link: Den Archer VR2800V für Super-Vectoring gibt es für rund 210 Euro und denArcher VR600 für Vectoring mit bis zu 100 MBit/s für rund 110 Euro. Ebenfalls empfehlenswert ist der Asus DSL-AC87VG . Wenn Sie keinen Umstieg auf einen neuen Onlinetarif planen und den Modemrouter behalten möchten, weil Sie ihn kostenfrei oder stark vergünstigt vom Provider erhalten, können Sie mit einem reinen WLAN-Router das Funknetz beschleunigen. Für kleine Netzwerke reicht ein Gerät mit 2×2- Übertragung, das auf maximal 866 (5 GHz) und 400 MBit/s (2,4 GHz) kommt, wie die Fritzbox 4040 für rund 70 Euro. Sie bringt des Weiteren vier Gigabit-Ports für kabelgebundene Geräte mit und einen USB-3.0-Anschluss, über den Sie einen Stick oder eine Festplatte als Netzspeicher einbinden können. Zukunftssicherer sind allerdings schnellere WLAN-Router mit 3×3 oder 4×4 sowie auch Unterstützung für Multi-User-MIMO (MU-MIMO): Diese Technik nutzen auch immer mehr Smartphones und Notebooks, damit sie der Router gleichzeitig anstatt wie im Netzwerk üblich hintereinander bedienen kann. Hierdurch erhöht sich die Datenrate im gesamten Funknetz. Diese Ausstattung bieten zum Beispiel der Asus RT-AC86U und der Netgear Nighthawk X4S – beide kosten rund 180 Euro.

Preis-Leistungs-Tipp: AVM FRITZBOX 7590

Preis: rund 230 Euro

Ausstattung: Internetanschluss: VDSLSupervectoring / WLAN: 11AC 4×4 (5 GHz: 1733 MBit/s; 2,4 GHz: 800 MBit/s) / LAN: 4x Gigabit / Telefonie: DECT-Basisstation, 2 Telefonanschlüsse (a/b oder TAE) / NAS: 2x USB 3.0 / Besonderheiten: MU-MIMO

Das braucht der Technikfan

WLAN-Abdeckung und Reichweite sind im Heimnetz mittlerweile deutlich wichtiger als Höchstgeschwindigkeit für einzelne Geräte. Weil immer mehr Notebooks, Smartphones und Tablets Anschluss an das Funknetz suchen, reicht ein einzelner WLAN-Repeater wie der AVM Fritz-Repeater 1750E (rund 65 Euro) nicht mehr aus, auch wenn er mit bis zu 1300 MBit/s (5 GHz) beziehungsweise 450 MBit/s (2,4 GHz) arbeitet. Zur lückenlosen WLAN-Abdeckung empfehlen sich deshalb Mesh-Systeme, die es inzwischen von sämtlichen wichtigen Routerherstellern gibt. Je nachdem, wie groß die Wohnung oder das Haus ist, das Sie mit WLAN versorgen wollen, müssen Sie zwischen 100 und 400 Euro ausgeben.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Ethik und Künstliche Intelligenz: Die Zeit drängt – wir müssen handeln

Künstliche Intelligenzen und Roboter werden in unserem Leben immer selbstverständlicher. Was erwarten wir von den intelligenten Maschinen, wie verändert ihre Präsenz in unserem Alltag und die Interaktion mit ihnen unser Selbstverständnis und unseren Umgang mit anderen Menschen? Müssen wir Roboter als eine Art menschliches Gegenüber anerkennen? Und welche Freiheiten wollen wir den Maschinen einräumen? Es ist dringend an der Zeit, die ethischen und rechtlichen Fragen zu klären.

»Die Menschheit steht an der Schwelle zu einer Ära, in der immer raffiniertere Roboter, Bots, Androiden und andere Formen Künstlicher Intelligenz bereitstehen, um eine neue industrielle Revolution zu entfesseln, die keinen Stein unserer Gesellschaft auf dem anderen lassen wird. Die Entwicklung von Robotik und Künstlicher Intelligenz wirft rechtliche und ethische Fragen auf, die eine unmittelbare Intervention auf der Ebene der Europäischen Union erfordern«.

Das Europäische Parlament hat es im vergangenen Jahr ganz drastisch formuliert. Eine neue industrielle Revolution steht an, welche die bestehenden Verhältnisse umpflügen wird.

Wer die Nachrichten aufmerksam verfolgt, erfährt täglich von neuen faszinierenden Leistungen, erbracht von intelligenten Maschinen, die nicht nur unsere Art zu arbeiten verändern werden, sondern unsere gesamte Lebensweise und Lebensmöglichkeiten zu revolutionieren versprechen.

Die gesamte Entwicklung weist eine hohe Dynamik auf, die es schwer macht, im Vor- und Nach-Denken über die Implikationen und Folgen dieses Technologieschubs den Überblick zu behalten und zu angemessenen, zeitgemäßen Urteilen zu kommen.

Für rechtliche und ethische Regularien ist es noch schwieriger. Bis ein Gesetz alle Hürden genommen hat und in Kraft getreten ist, hat sich die Technik unter Umständen schon wieder grundlegend verändert. Und so schleichen sich neben die Verheißungen unüberhörbar auch Stimmen ein, die warnen und uns zum Nachdenken, Umsteuern und Handeln aufrufen.

Die Robotik in Verbindung mit Künstlicher Intelligenz wird nicht nur unsere Arbeitswelt verändern – was sich bereits jetzt beobachten lässt. Sie betrifft nicht allein den Bereich klassischer Industriearbeit, wo zumeist schwere und repetitive Arbeiten ausgeführt werden.

Die neuen Robotergenerationen stehen sowohl in der Industrie wie auch im Service zur Verfügung. Sie kommen – ausgerüstet mit Künstlicher Intelligenz – dem Menschen immer näher und ›erlernen‹ nun zunehmend Tätigkeiten, die dem Zwischenmenschlichen, dem Privaten, wenn nicht sogar Intimen zugeordnet werden.

Es ist nicht zuletzt diese Nähe, Beziehung und Abhängigkeit, die zwischen Mensch und Maschinen entsteht, die aufmerksame Beobachter nach öffentlichen Debatten und entsprechenden Regulierungen rufen lassen.

Dieser Beitrag gibt einen kurzen Überblick über den Stand der ethischen Fragen, die sich mit diesen Entwicklungen verbinden.

Roboter ist nicht gleich Roboter

Das Wort »Roboter« hat seinen Ursprung im Slawischen, wo rab Sklave bedeutet. Rabotaist im Russischen die Arbeit und rabotnik der Arbeiter. 1921 brachte Karel Čapek sein Theaterstück Rossum’s Universal Robots auf die Bühne, in der – allerdings auf biologischem Wege – künstlich hergestellte Menschen als billige Arbeitskräfte dienten.

Damit war der Begriff des Roboters in der Welt. Die Maschinen, die zunehmend menschliche Arbeit übernahmen, folgten erst mit einiger Verzögerung. 1954 wurdeUnimate, der erste Industrieroboter , von George Devol entwickelt [1]. Insbesondere in den 1970er Jahren haben viele produzierende Gewerbe eine Roboterisierung ihrer Arbeit erfahren (beispielsweise die Automobil- und Druckindustrie).

Mittlerweile sind diese Industrieroboter aus den Käfigen ihrer Fertigungsstraßen entlassen worden und arbeiten ›Hand in Hand‹ mit Menschen in der Produktion zusammen. Angesichts ihrer physischen Mächtigkeit müssen sie nun ›vorsichtiger‹ konzipiert werden und das menschliche Gegenüber in seinen Gesten, Bewegungen und idealerweise auch Intentionen erkennen, um so die Kooperation ungefährlich für den Menschen zu gestalten und eine höhere Produktivität und Wertschöpfung zu erreichen.

Neben den Industrierobotern, die vor allem der Produktion wirtschaftlicher Güter dienen, haben sich mit fortschreitender Technik auch Serviceroboter etabliert, die Arbeiten ausführen, die für Menschen zu schwer, belastend oder gefährlich sind; etwa Melkmaschinen oder Maschinen zur Entfernung von giftigen oder verstrahlten Objekten.

In der nächsten Entwicklungsstufe kommen nun solche Roboter hinzu, die Dienstleistungen mit und am Menschen erbringen sollen: Haushalts- und Pflegeroboter , Operations- oder auch Sexroboter, die die Leistungen von Menschen unterstützen, verbessern oder kompensieren oder auch völlig neue Möglichkeiten schaffen.

Solche ›technischen Helfer‹ dienen nicht nur Menschen mit einem rechtlich anerkannten Unterstützungsbedarf, sondern stellen ein Angebot an alle auf einem Markt dar. Besondere ethische Aufmerksamkeit erhalten gegenwärtig solche technischen Systeme, die die im Abbau begriffenen oder ganz verlorengegangenen menschlichen Fähigkeiten (Orientierung, Mobilität, Kommunikation) kompensieren oder ersetzen sollen, etwa intelligente Tagesbegleiter (Avatare) oder soziale Roboter.

In allen Fällen müssen die Schnittstellen zwischen Menschen und Maschinen sehr viel flexibler und die Roboter auf eine komplexe, nicht vollständig berechenbare Interaktion ausgelegt werden.

Im Bereich der Industrierobotik können die Aktionen des Roboters relativ klar programmiert und die Umgebung so gestaltet werden, dass Menschen oder andere Güter nicht gefährdet werden.

Bei Servicerobotern im nicht-sozialen Bereich werden eine zielgerichtete Ausführung der Arbeiten und der Ausschluss von Gefährdungen weitgehend durch eine (Fern-)Steuerung des Roboters durch den Menschen gewährleistet.

Bei Servicerobotern allerdings, die (teil-)autonom mit Menschen zum Beispiel in deren Häuslichkeit interagieren sollen, ist eine jede Aktion eindeutig festlegende Programmierung der Roboter ebensowenig möglich wie eine Fernsteuerung. Die Programme und robotischen Aktionen müssen flexibel und ›semantisch‹ ausgelegt werden, d. h. sie müssen sich auf die menschlichen Handlungen (Sprache, Gestik, Mimik) in den jeweiligen Kontexten interpretierend beziehen und kontextspezifische Interaktionen ermöglichen. Um die direkte Mensch-Roboter-Interaktion möglichst sicher und effektiv zu gestalten, müssen die Roboter vom Menschen als Interaktionspartner akzeptiert werden.

Das bedeutet, dass sie vom Menschen als etwas anderes angesehen werden als die technischen Geräte oder Maschinen, die sie bisher instrumentell eingesetzt haben. Im instrumentellen Umgang mit Werkzeugen und Maschinen hatte der Mensch die Handlungshoheit hinsichtlich der Handlungsziele und weitgehend auch der Wege, um diese Ziele zu erreichen.

In dem Maße aber, in dem Roboter zu Handlungspartnern werden mit einem eigenen Anteil an ›Entscheidungen‹ und ›Handlungen‹, in dem Maße muss sich der Mensch auf ein Gegenüber einstellen und ein zunehmendes Maß von Eigenständigkeit dieses Gegenübers akzeptieren.

Es stellt sich die Frage, ob wir Menschen diese Roboter als soziales Gegenüber anerkennen müssen, und was das für unser soziales Miteinander insgesamt bedeutet. Das ist eine ähnliche Frage, wie wir sie menschheitsgeschichtlich bereits für den Umgang mit Tieren – auf eine bisher nicht immer befriedigende Weise – beantworten mussten.

In Bezug auf die Maschinen steht nun aber weniger deren Leidens- und Beziehungsfähigkeit zur Debatte als vielmehr deren ›Rationalität‹ und (simulierte) ›Emotionalität‹. Hier scheint eine Ähnlichkeit vorzuliegen, die Fragen nach Anerkennung von und Umgang mit diesen Maschinen aufwirft.

Das mag auf den ersten Blick weit hergeholt erscheinen, wenn man sich die technische Definition eines Industrieroboters in der ISO 8373 (2012) vergegenwärtigt: »Ein Roboter ist ein frei und wieder programmierbarer, multifunktionaler Manipulator mit mindestens drei unabhängigen Achsen, um Materialien, Teile, Werkzeuge oder spezielle Geräte auf programmierten, variablen Bahnen zu bewegen zur Erfüllung der verschiedensten Aufgaben«.

Warum sollten wir diese Manipulatoren, die zunächst einmal nichts anderes sind als eine Ansammlung aus anorganischer Materie, Elektronik und Software, als soziales Gegenüber anerkennen, ihnen gar so etwas wie Rechte zubilligen oder uns ihnen moralisch verpflichtet fühlen?

Ein zweiter Blick und weitere Überlegungen führen uns zu dem, was einen sozialen Roboter auszeichnet: »Eine physische Entität, die in einem komplexen, dynamischen und sozialen Umfeld ausreichend befähigt ist, um sich auf eine Weise zu verhalten, die förderlich ist für die eigenen Ziele und die der Gemeinschaft«. Das ist ein Definitionsversuch , der schon sehr viel näher an das heranführt, was wir bei Menschen ›soziales Verhalten‹ nennen. Das sind nicht mehr nur komplexe Manipulatoren, sondern Wesen, die ein gewisses Eigeninteresse und einen Bezug auf die Gemeinschaft haben und damit zunehmend auch als ›eigenmächtige‹ Gegenüber auftreten.

Folgt man dieser Spur noch einige Schritte weiter, dann stößt man auf die Tatsache, dass robotische Funktionen von uns Menschen wie Handlungen interpretiert werden, was ein Grundbegriff ethischer Theorien ist und uns nötigt, die Roboter und die Künstliche Intelligenz, die mit ihnen ›auftritt‹, unter ethischer Perspektive genauer zu bedenken.

Und so ist die Forderung des EU-Parlaments auch verständlich, dass wir uns Gedanken machen sollten, welche Erwartungen wir an solche Roboter und Künstliche Intelligenzen heften, welche Entwicklungen wir vermeiden wollen und welche Konstruktionen und Regulierungen daraus erwachsen müssen.

Ethisch gesprochen sind damit die beiden Richtungen aufgerufen, in denen wir uns orientieren und – mit guten Gründen – entscheiden müssen: »wer wir sind und was für Menschen wir sind« und »in welcher Gesellschaft wir leben«. [2]

Ethische Überlegungen zu Robotik und Künstlicher Intelligenz

Versucht man sich einen Überblick über die verschiedenen ethischen Probleme zu verschaffen, die mit dem Aufkommen von ›intelligenten‹ und in jeder Hinsicht (Präzision, Geschwindigkeit, Kraft, Kombinatorik und Vernetzung) immer mächtigeren Robotern verbunden sind, so ist es hilfreich, diese Probleme danach zu unterscheiden, ob sie

1. das Vorfeld der Ethik,

2. das bisherige Selbstverständnis menschlicher Subjekte (Anthropologie) oder

3. normative Fragen im Sinne von: »Was sollen wir tun?« betreffen.

Die folgenden Überlegungen geben einen kurzen Aufriss, mit welchen Fragen wir uns jeweils beschäftigen sollten, wie die verschiedenen Fragenkreise zusammenhängen, und woran wir uns in unseren Antworten orientieren können.

1. Fragen im Vorfeld der Ethik

Betrachtet man die gegenwärtigen Entwicklungen mit ein wenig Abstand, so ist es augenfällig, dass Roboter wie eine langersehnte Antwort auf viele und sehr verschiedene Herausforderungen erscheinen. Ob es um präzisere Operationsmethoden in der Chirurgie, eine bessere Diagnostik in Kliniken und Arztpraxen, die Unterstützung von hilfebedürftigen Menschen , verbesserte Produktion und Logistik, die Erforschung fremder Planeten oder die Befriedigung sexueller Bedürfnisse geht: In allen Bereichen werden Roboter als Lösung entwickelt und angeboten.

Betrachtet man die ökonomischen Erwartungen, die sich mit der Robotik verbinden, und die Programme der Forschungsförderung, so lassen sich für die nächsten Jahrzehnte kräftige Zuwachsraten errechnen.

Zugleich ist jedoch zu fragen, ob mit der starken Fixierung auf robotische Lösungen andere Optionen unter Umständen vernachlässigt und am Ende sogar abgeschnitten werden.

Die Situation in der Pflege mag das illustrieren: Gegenwärtig ist die Rede von einem großen Fachkräftemangel von mehreren zehntausend Menschen. Da diese im Moment realistischerweise nicht zu finden sind, komme man gar nicht umhin, so wird argumentiert, robotische Lösungen mit ins Spiel zu bringen, um die großen gesellschaftlichen Herausforderungen zu bewältigen, die sich in der Pflege aufgrund des demographischen Wandels in den nächsten Jahrzehnten noch verschärfen werden. Dementsprechend wird in vielen Projekten an robotischen Grundfertigkeiten geforscht, die es ermöglichen sollen, dass Roboter in einigen Jahren Tätigkeiten wie Waschen, Umlagern, Essen anreichen oder anderes übernehmen.

Das könnte die Personalsituation tatsächlich entspannen, zugleich aber dazu beitragen, dass immer weniger Menschen sich für diesen Beruf noch interessieren bzw. dafür überhaupt angeworben werden.

Eine Frage in diesem Zusammenhang lautet: Wie steuern wir diese Entwicklung so, dass sie uns mehrere Handlungsoptionen eröffnet anstatt uns vorzeitig welche zu verschließen?

2. Anthropologische Fragen

Eine Frage betrifft die Veränderungen, die sich für uns Menschen dort ergeben, wo wir über uns selbst und unsere Stellung in der Welt nachdenken. Der Mensch galt lange als das einzige Wesen, das Freiheit in Bezug auf seinen Willen, seine Entscheidungen und seine Handlungen hat und deshalb überhaupt moralisch ansprechbar ist. Erst aus der Freiheit für das eine und gegen das andere erwachse dem Menschen die Forderung, moralisch zu denken, zu entscheiden und zu handeln. Das betrifft nicht alle Entscheidungen und Handlungen, sondern solche, die es mit dem moralisch Guten zu tun haben. Nur der Mensch könne sich in solchen Fragen aufgrund seiner Rationalität für das Gute und Gerechte entscheiden.

Diese sehr vereinfacht dargestellte Annahme, die sich bereits hinsichtlich Tieren als diskutabel erweist [3], wird nun durch die Leistungen der Roboter und der Künstlichen Intelligenz erneut und hinsichtlich bestimmter Formen von ›Rationalität‹ in Frage gestellt. Es scheint so, dass es offenbar auch diese Wesen gibt bzw. in naher Zukunft geben wird, die solche ›Freiheiten‹ besitzen und qua ›Künstlicher Intelligenz‹ wohlberechnet einsetzen (beispielsweise autonomes Fahren ).

Zum anderen scheinen bestimmte Formen von Moralität und Rationalität von Maschinen sogar besser erfüllt zu werden als vom Menschen. Maschinen mit Künstlicher Intelligenz können schneller, präziser und unbestechlicher bestimmte Aufgaben ›entscheiden‹.

Auch dies soll an einem Beispiel erläutert werden: Im Rahmen von Behandlungsentscheidungen in Kliniken werden zunehmend Expertensysteme eingesetzt, die die Entscheidungen des behandelnden Teams vorstrukturieren, wenn nicht vorentscheiden. Solche Expertensysteme bestehen aus Rechnern, die mit speziellen Algorithmen weltweit die relevanten Datenbanken nach einem ähnlichen Befund, verschiedenen Behandlungsweisen und -erfolgen durchsuchen und daraus ›Behandlungsempfehlungen‹ ableiten. Nachdem im Krankenhaus Regress-Forderungen aufgrund von Fehlbehandlungen ausgeschlossen werden sollen, ist es naheliegend, den ›Empfehlungen‹ des technischen Systems zu folgen. Die Legitimation einer Entscheidung durch Daten erscheint als die fundiertere.

Man mag mit Fug und Recht einwenden, dass Menschen sich auch in anderen Handlungsfeldern (etwa der Autopilot im Flugzeug) auf die maschinellen Berechnungen und ›Entscheidungen‹ verlassen – und das durchaus mit Erfolg. Hinsichtlich bestimmter Entscheidungskalküle werden wir Menschen von ›unseren‹ Maschinen zunehmend übertroffen – und es kann durchaus ethisch geboten sein, diesen ›Berechnungen‹ zu folgen.

In diesen Feldern geraten wir in eine Abhängigkeit von ihnen, die uns unter Umständen unsicherer und entscheidungsschwächer machen wird. Es kommt hinzu, dass Menschen mit der Delegation von Tätigkeiten an Roboter auch bestimmte kognitive oder manuelle Fertigkeiten verlieren werden. Unter Umständen wird man das mit dem Abstand einiger Jahrzehnte oder Jahrhunderte nostalgisch betrachten. Es könnte aber auch sein, dass wir Menschen uns auf diese Weise um Fertigkeiten bringen, die uns eines Tages auf fundamentale Weise fehlen werden.

Deshalb sollten solche Fragen gründlich bedacht werden, bevor Entscheidungen uns an einen Punkt bringen, den wir als Gattung bedauern müssten.

Überlegungen führen zu einer zweiten Kategorie von Problemen, die sich auf uns Menschen in unserem Selbstverständnis, Selbstverhältnis und unserem Verhältnis zu anderen beziehen.

Technische Geräte, insbesondere Automaten (man denke an den Schachspielenden Türken und die mechanischen Tiere von Vaucanson ) und Roboter haben in der Kultur- und Technikgeschichte der Menschheit immer auch als Spiegel und Medium der Selbstverständigung gedient, was der Mensch sei im Vergleich und im Unterschied zu diesen Maschinen. [4]

Dabei zieht sich eine grundlegend ambivalente Haltung gegenüber diesen Maschinen durch. Das zeigt sich in der Mythologie (Pandora, Golem von Prag) bis zu den jüngsten Science-Fiction-Erzählungen (etwa Real Humans oder Westworld).

Wo Menschen Maschinenwesen schaffen, geht es um die Erweiterung der eigenen menschlichen Lebensmöglichkeiten, die Steigerung der eigenen Mächtigkeit durch sie und zugleich um die Furcht vor der Überwältigung durch diese mächtig gemachten Maschinen.

In ihrer künstlich hergestellten Ähnlichkeit und zugleich Andersartigkeit liefern die Roboter eine ideale Projektionsfläche für menschliche Phantasien über die eigene »Vervollkommnung und Unverbesserlichkeit« [5].

Wie aber verändern die Präsenz von Robotern in unserer Alltagswelt und die Interaktion mit ihnen unser Selbstverständnis, Selbstverhältnis und den Umgang mit anderen?

Vordergründig betrachtet wird es zu einer Übertragung von Erwartungen kommen: solchen, die wir an Menschen haben und nun auf Roboter projizieren, und solchen, die wir an Roboter haben und auf Menschen projizieren.

Bereits jetzt ist erkennbar, dass die kommunikative Zurückhaltung der Künstlichen Intelligenz gegenüber menschlicher Unachtsamkeit oder sogar Rüpelei weitgehend folgenlos bleibt. Wenn Kinder so etwas im alltäglichen Umgang mit Alexa & Co erlernen , dann hat das Auswirkungen auf den sozialen Umgang zwischen Menschen.

Man möchte sich damit trösten, dass das im Wortsinn Kinderkrankheiten sind, die sich mit sozialem Lernen der Menschen und entsprechender Algorithmen-Verfeinerung bei den Maschinen in den nächsten Jahren auswachsen werden. Ein Blick auf Tendenzen einer sozialen Verrohung im Internet sollten einen jedoch vor zu großem Optimismus bewahren.

Schaut man genauer hin, zeigt sich, dass die Erwartungen an den Menschen sich verschieben. Wenn Maschinen stets unaufgeregt, freundlich und sozial akzeptabel auf ihr Gegenüber reagieren, dann wird das für Menschen in vergleichbaren Situationen vermutlich normativ werden. Dass Maschinenbegriffe und -konzepte (Information, Update, Neustart, das Gehirn als CPU) zur Selbstbeschreibung herangezogen werden, deutet an, dass und wie sehr wir uns zum Teil durch die Maschine sehen und zu verstehen suchen.

Eine weitere Frage betrifft die Erscheinung von Künstlicher Intelligenz: Was bedeutet es, wenn sie nicht mehr zwingend verkörpert auftritt, sondern verbaut ist in Wände, Autos, Smartphones?

Intelligenz als Vermögen, in einer Situation problemorientiert zu agieren, ist bei Menschen immer an Leiblichkeit gebunden, also an die Tatsache, sich in dieser Welt qua Körper und mit allen Sinnen zu orientieren und in und mit diesem Körper auch zu agieren.

Künstliche Intelligenz hingegen ist ubiquitär und kann sich für ihre ›Umsetzung in Handlungen‹ ganz verschiedener Organe bedienen. Die Verbindung von Körper und Geist, die den Menschen ausmacht – und die ihm immer wieder auch Probleme bereitet – ist für Künstliche Intelligenz nicht mehr zwingend.

Für den Umgang zwischen Mensch und Technik ist also hier zu fragen, ob und welchen Unterschied es macht, einer verkörperten Künstlichen Intelligenz zu begegnen, beispielsweise im Roboter, oder mit einer körperlosen Künstlichen Intelligenz zu interagieren.

So oder so dürfte diese Andersartigkeit den Menschen in seinem Selbst- und Weltverhältnis herausfordern. Es ist klar, dass der Einsatz von Robotern und Künstlicher Intelligenz eine andere Bedeutung und Konsequenz hat als der Einsatz einer Brille oder eines Smartphones. Letztere können wir als Erweiterung bzw. Kompensation unserer körperlichen und geistigen Fähigkeiten verstehen und instrumentell einsetzen. Dabei werden sie uns über die Zeit so vertraut und so nahe, dass wir sie irgendwann gar nicht mehr als fremd verstehen.

Für Roboter jedoch, die uns als ein eigenständiges, verkörpertes Wesen gegenübertreten, wird diese Anverwandlung nicht möglich sein. Und auch für eine körperlose Künstliche Intelligenz ist das in dem Maße illusorisch, in dem sie sich über selbstlernende Algorithmen und eine weit vernetzte Datenbasis unserer Kontrolle und Zielsetzung entzieht.

Kritisch wird derzeit diskutiert, dass der Mensch in immer mehr Handlungsfeldern die Vorherrschaft verlieren könnte, weil die Maschinen in ihrer Performanz einfach besser sind und zunehmend die Standards setzen. Der Mensch darf sich zwar als Schöpfer dieser großartigen Maschinen sehen. Der Stolz darauf hält sich allerdings in Grenzen. »Prometheische Scham«, wie Günter Anders das Gefühl genannt hat – von der eigenen Schöpfung überrundet und als zu leicht befunden zu werden. [6]

Wie werden wir Menschen damit umgehen? Mit Aggression, Autoaggression, Regression oder auch Konstruktion? Müssen wir Menschen uns selbst ebenfalls aufrüsten, um mit den immer leistungsfähigeren Maschinen noch mithalten zu können? [7]

Die weitere Entwicklung ist keineswegs ausgemacht – und es wird der gemeinsamen menschlichen Anstrengung bedürfen, hier einen konstruktiven Weg zu finden, der uns weder mit Maschinenstürmerei noch mit Unterwerfung unter die Technik überreagieren lässt.

Gefragt ist wohl vielmehr ein erneuertes Selbstverständnis des Menschen, bei dem wir

a) Korrekturen an einem wohl etwas zu optimistischen Selbstbild hinsichtlich unserer menschlichen Einzigartigkeit, rationalen und moralischen Fähigkeit vornehmen und

b) überlegen, welchen Platz wir den intelligenten Maschinen in dieser Welt neben Tieren, Menschen und Göttern zubilligen wollen – oder auch einräumen müssen.

3. Normative Fragen

Der dritte Fragenkreis bezieht sich auf konkrete Situationen und Handlungen, die wir Menschen moralisch bewerten als beispielsweise »gut«, »schlecht«, »vorzugswürdig« oder »unzuträglich«.

Aufgabe der Ethik ist es, solche moralischen Meinungen auf ihre Begründung und Geltung hin zu befragen und so zu einem geschärften ethischen Urteil zu kommen, das idealiter vor der Allgemeinheit moralischer Subjekte verantwortet werden kann und in seiner Umsetzung ein »gelungenes Leben mit und für die Anderen, in gerechten Institutionen« [8] ermöglicht. Das ist eine erste vage Richtungsangabe.

Normative Fragen lassen sich am Ende nur ganz konkret anhand einer bestimmten Situation bearbeiten. Entsprechend liefert die Ethik hier keine pauschalen Urteile wie: »Roboter sind gut/schlecht«, »Künstliche Intelligenz dient dem guten Leben/ist dem guten Leben abträglich«.

Vielmehr muss es bei der ethischen Reflexion darum gehen, ein konkretes »sozio-technisches Arrangement« [9], also das Zusammenwirken von Menschen und Maschinen in seinen Zusammenhängen mit moralischen Orientierungen (wie Gerechtigkeit, Freiheit, Verantwortung) zu evaluieren und auf den entsprechenden Ebenen (etwa Forschung, Anwendung, politische Regulierung) zu tragfähigen Urteilen einschließlich ihrer Umsetzung zu kommen.

Eminente Fragen der Gerechtigkeit erwachsen uns beispielsweise im Bereich der Arbeit, wo Roboter und Künstliche Intelligenz immer mehr Arbeiten übernehmen können und Menschen aus diesen Tätigkeiten herausdrängen.

Dass Technik menschliche Arbeitskräfte verdrängt, ist kein neues Problem. Allerdings sieht es in diesem Fall so aus, dass auf diesem Wege nicht mehr neue Arbeitsplätze entstehen bzw. solche, die völlig neue und höhere Qualifikationen erfordern (Up-skill-Effekt) oder den Menschen die ›übriggebliebenen‹ niederen Tätigkeiten überlässt (Down-skill-Effekt).

Darüber hinaus kommt die Wertschöpfung aus robotischer Arbeit nur wenigen zugute, so dass hier ein weiteres Gerechtigkeitsproblem auftritt. Die Frage kann dann nicht lauten: Sollen wir Roboter überhaupt entwickeln, sondern: Welche Typen von Robotern wollen wir in welchen Einsatzbereichen entwickeln und wie unterbinden wir so gut wie möglich Formen des Missbrauchs und unerwünschte Folgen? Wie gestalten wir sie so, dass ein gutes Leben für den Einzelnen und das Zusammenleben der Vielen in gerechten Institutionen ermöglicht wird?

Fazit

Am Schluss dieser tour d’horizon soll eine aufschließende Überlegung stehen.

Die Technik – und solche sind Roboter und Künstliche Intelligenz nach wie vor – macht nicht das gute Leben. Wir dürfen von der Technik keine Dinge erwarten, die sie nicht leisten kann. Sie kann ein Mittel sein, wenn wir Menschen uns selbst darüber klar sind, was wir als das gute Leben begreifen wollen.

So lange wir das nicht wissen oder dieser Frage ausweichen, wird uns Technik nicht weiterhelfen, sondern sie wird uns womöglich auf Pfade führen, von denen wir irgendwann sagen müssen: Das war’s nicht. Aber dann sitzen wir auf diesen Pfaden fest und werden von ihnen nur schwer herunterkommen.

Der Informatiker Jürgen Schmidhuber hat jüngst in einem Interview prognostiziert, dass es nur noch wenige Jahre dauern werde, bis die technische Intelligenz die menschliche übertreffen und sich das Gefälle zwischen Mensch und Maschine umkehren werde. Er beruhigte aber auch und meinte, es werde für den Menschen gut ausgehen, weil sich die Maschinen uns gegenüber verhalten würden wie wir uns gegenüber unseren Hauskatzen. [10]

Nach welchem Bilde konstruieren wir die neuen intelligenten Maschinen, wieviel Freiheit schreiben wir ihnen ein? Wie können wir uns darauf vorbereiten, dass sie sich ihre Freiheit nehmen werden – auch wenn das nicht in unserem Interesse ist?

Die hier skizzierten Fragen sollten meines Erachtens nicht auf eine Debatte im Kreis der Experten eingeschränkt werden. Forschung, Entwicklung und Einsatz – und nicht zu vergessen: die Entsorgung – von Robotern betreffen die gesamte Gesellschaft.

Im Wortsinn geben wir der Gesellschaft mit den Entscheidungen, die wir in dieser Sache treffen, ein neues Gesicht. Und es liegt an unser aller Achtsamkeit, Verantwortlichkeit und Gestaltungswillen, dass es keine Fratze, sondern ein menschenfreundliches Antlitz ist.

Literatur

[1] Dittmann, Frank (2016): Mensch und Roboter – ein ungleiches Paar. In: Manzeschke, Arne und Karsch, Fabian (Hrsg.): Roboter, Computer und Hybride. Was ereignet sich Menschen und Maschinen?, Baden Baden: Nomos, S. 17–46

[2] Böhme, Gernot (1997): Ethik im Kontext. Über den Umgang mit ernsten Fragen, Frankfurt am Main: Suhrkamp, S. 17

[3] De Waal, Frans (2015): Der Mensch, der Bonobo und die zehn Gebote, Stuttgart: Klett-Cotta

[4] Meyer-Drawe, Käte (1996): Menschen im Spiegel ihrer Maschinen, München: Wilhelm Fink

[5] Kamper, Dietmar und Wulf, Christoph (1994): Einleitung: Zum Spannungsfeld von Vervollkommnung und Unverbesserlichkeit. In: Dies. (Hrsg.): Anthropologie nach dem Tode des Menschen, Frankfurt/Main: Suhrkamp, S. 7-12

[6] Anders, Günter (1956): Die Antiquiertheit des Menschen. Über die Seele im Zeitalter der zweiten industriellen Revolution, München: C. H. Beck

[7] J. C. R. Licklider (1960): Man-Computer Symbiosis. In: IRE Transactions on Human Factors in Electronics, volume HFE-1, pages 4-11, March 1960

[8] Ricœur, Paul (2005): Ethik und Moral. In: Ders.: Vom Text zur Person. Hermeneutische Aufsätze (1970–1999), Hamburg: Meiner, S. 251–267, S. 252, Hervorhebung im Text.

[9] Manzeschke, Arne; Weber, Karsten; Rother, Elisabeth und Fangerau, Heiner (2013): Ergebnisse der Studie »Ethische Fragen im Bereich Altersgerechter Assistenzsysteme«, Berlin: VDI/VDE

[10] Wiedemann, Carolin (2017): Werden wir ihre Katzen sein? In: Frankfurter Allgemeine Sonntagszeitung vom 26. 11. 2017, S. 55

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

PC-Absturz: Gründe und Schutzmaßnahmen

Ein plötzlicher PC-Absturz ist der Super-Gau. Wir nennen typische Gründe dafür, weswegen der Rechenknecht streiken kann. Und geben Tipps als Schutzmaßnahmen gegen Abstürze.

Zunächst ist es nur ein kleines Stottern. Als nächstes stürzen Programme ab und merkwürdige Geräusche dringen aus Ihrem Arbeits-PC. Es folgt der obligatorische Bluescreen: Ihr PC ist gecrasht und Sie sitzen bloß da, warten einen Neustart ab und hoffen, dass all das keine ernsthaften Schäden hinterlassen hat. Zumal auf Ihrem Arbeits-PC alle Dateien liegen, die Sie für Ihr aktuelles Projekt dringend  benötigen. Und der Kunde wartet…

Für solche Horror-Szenarien gibt es viele mögliche Ursachen. Umso wichtiger ist es zu wissen, wie und warum ein PC zusammenbricht, um Abstürze in Zukunft zu vermeiden. Denn eines sollten Sie sich immer vor Augen halten: Der nächste Crash Ihres PCs könnte auch sein letzter sein.

Exklusiv: PC-Welt-Rettungs-DVD hilft bei jedem Windows-Notfall

Hardware-Konflikte

Die meisten Bluescreens sind das Resultat von Hardware- und Installations-Konflikten. Alle Ihre System-Komponenten brauchen IRQs (Interrupt Request Channels) wenn sie installiert werden und jede Komponente benötigt ihren eigenen Kanal, um richtig zu funktionieren. Wenn sich zwei Komponenten den gleichen Kanal teilen und gleichzeitig benutzt werden, kann es zu einem Absturz kommen.

Werfen Sie einen Blick in Ihren Geräte-Manager (bei Windows 7 finden Sie diesen unter „Systemsteuerung, Hardware und Sound“) und suchen Sie nach Geräten, die mit einem gelben Ausrufezeichen markiert sind. Hier liegen die Probleme, die sich oft allein mit einem Treiber-Update beheben lassen. Suchen Sie einfach auf der Webseite des Geräteherstellers nach den neuesten Treibern oder installieren Sie notfalls die betroffene Hardware neu.

RAM-Fehler

Fehler beim Arbeitsspeicher können ebenfalls die Ursache zahlreicher Bluescreens und Boot-Fehler sein. Zum Glück gehören Ihre RAM-Module zu den am einfachsten zu überprüfenden und auch auszutauschenden Komponenten.

Bemühen Sie zunächst die kostenlose Software Memtest86+ um sicherzugehen, dass der Problemherd tatsächlich Ihr RAM ist. Wenn Fehler entdeckt werden, müssen Sie als nächstes herausfinden, welcher Ihrer RAM-Riegel betroffen ist. Entfernen Sie dazu alle Riegel aus Ihrem System bis auf einen, den Sie in den primären Speicherslot stecken. Wenn das System nun ordnungsgemäß bootet und Memtest86+ keine Fehler entdeckt, fahren Sie nach dem gleichen Schema mit den verbleibenden RAM-Riegeln fort. Dabei immer nur einen Riegel gleichzeitig in den RAM-Slot stecken und booten, bis das System entweder Boot-Fehler produziert, oder Memtest86+ ein Problem entdeckt.

Wenn Sie herausgefunden haben, welches Modul die Probleme verursacht, können Sie es einfach durch einen neuen Riegel ersetzen. Achten Sie aber darauf, dass er kompatibel zu Ihrem Motherboard und den anderen RAM-Modulen ist.

Ihr Feind: Die Hitze

Computer erhitzen sich. Das wissen wir spätestens, wenn der Lüfter im Desktop-PC mal wieder besonders laut rotiert, oder sich unsere Beine nach ein paar Stunden unter dem Laptop wie frisch gegrillt anfühlen. Alles im Innern eines PCs erzeugt Abwärme. Und Hitze kann dazu führen, dass Komponenten instabil werden und Ihren PC zum Absturz bringen. Zum Glück, muss man fast sagen; denn PCs sind so gebaut, dass sie sich bei zu großer Hitzeentwicklung automatisch abschalten, um bleibende Hitzeschäden an Komponenten zu vermeiden.

Wenn Sie das Gefühl haben, Ihr PC leitet die Wärme nicht ausreichend ab, überprüfen Sie zuerst alle verbauten Ventilatoren auf ihre Funktionstüchtigkeit. Wenn sich einer gar nicht oder zu langsam bewegt, sehen Sie nach, ob alle Kabelverbindungen richtig sitzen. Wenn die Kabel richtig angeschlossen sind und sich der Lüfter trotzdem nicht bewegt, ist es besser, ihn auszutauschen. Als nächstes stellen Sie sicher, dass alle Lüftungsschlitze, Gitter und Filter in Ihrem PC frei von Staub, Tierhaaren und anderen Materialien sind und die Luft so ausreichend zirkulieren kann. Diese Stellen sind wahre Brutstätten für Hitzebildung. Wenn Sie stark verstaubte oder anderweitig blockierte Komponenten entdecken, reinigen Sie sie mit einem speziellen Luftdruckspray.

Wenn Sie einen Laptop besitzen, achten Sie darauf, dass dieser beim Arbeiten stets auf einem harten, flachen Untergrund steht, der die Lüftungsschlitze nicht verschließt oder behindert. Sie können die Temperatur Ihres Systems mit kostenlosen Tools, etwa dem PC Wizard , überwachen. Zusätzlich zu ein paar anderen nützlichen Infos zeigt es Ihnen die Echtzeit-Temperatur aller Ihrer Komponenten an. Wenn in puncto Luftzirkulation alles tiptop ausschaut und Ihr PC sich trotzdem überhitzt, werfen Sie einen Blick in Ihre BIOS-Einstellungen. Wenn Sie während einer Übertaktungs-Eskapade an den Volt-Einstellungen herumgespielt haben, setzen Sie diese wieder auf ihre Ursprungswerte zurück. Je mehr Volt einer Komponente zugefügt, desto heißer wird sie.

Vielleicht haben Sie auch kürzlich eine neue CPU eingebaut? Dann könnte die Ursache für die Abstürze darin liegen, dass Sie die Wärmeleitpaste falsch aufgetragen haben. Entfernen Sie das Wärmeleitblech also wieder, reinigen Sie die Oberflächen mit einem Wattebausch und Isopropyl-Alkohol und versuchen Sie es erneut. Für das Auftragen von Wärmeleitpaste gibt es verschiedene Theorien, das Ziel ist jedoch stets das gleiche: Die Wärmeleitpaste legt sich zwischen die mikroskopisch kleinen Hügel und Täler auf der Oberfläche der CPU und der Wärmeleitplatte, um den bestmöglichen Kontakt zwischen beiden Komponenten herzustellen. Die Paste wirkt nicht, wenn zu wenig davon aufgetragen wurde und ebenso bleibt sie wirkungslos, wenn zu viel benutzt wurde. Arbeiten Sie also am besten nach der „Erbsen-Methode“: Setzen Sie einen kleinen, erbsengroßen Tropfen der Paste in die Mitte der CPU und setzen Sie dann das Wärmeleitblech direkt darauf. Der natürliche Druck verteilt die Paste gleichmäßig.

Fehlerquellen Netzteil und Festplatte

Es ist zwar immer befriedigend, wenn man einen alten PC mit neuen, leistungsstärkeren Komponenten aufrüsten kann. Und auch das (leichte) Übertakten der CPU führt oft zu erstaunlichen Performance-Ergebnissen. Doch Sie sollten nur so weit upgraden, wie die Leistung Ihres Netzteils hierfür ausreicht. Ansonsten kann Ihr PC instabil werden und unerwünschte Neustarts provozieren.

Es ist nicht einfach herauszufinden, welche Komponenten am meisten Strom verbrauchen. Die Webseite des jeweiligen Geräteherstellers kann aber Aufschluss geben. So können Sie zumindest in etwa den gesamten Stromverbrauch Ihres PCs errechnen und mit der Leistung Ihres Netzteils vergleichen. Wenn sich herausstellt, dass Ihr Netzteil die Summe der Strom verbrauchenden Komponenten nicht stemmen kann, müssen Sie eine Entscheidung treffen. Wenn Sie Ihre CPU übertaktet haben, können Sie den Prozessor wieder in seinen Ursprungszustand versetzen, um Strom einzusparen. Alternativ ersetzen Sie einige besonders stromhungrige Teile durch sparsamere Komponenten. Oder Sie bauen ein leistungsstärkeres Netzteil ein. Ein 500- bis 650-Watt-Netzteil reicht in aller Regel für einen PC mit durchschnittlicher Leistung aus.

Fragmentierte Festplatten

Jedes Mal, wenn Sie eine Datei speichern, ein Programm installieren oder etwas löschen, wird Ihre Festplatte ein klein wenig fragmentierter – und dadurch instabiler. Das verlangsamt sie nicht nur, es kann Ihrem Betriebssystem auch Probleme bereiten, wenn es darum geht, systemrelevante Dateien für den Betrieb zu finden. Nicht selten wird Ihr System dabei aufgeben und es nochmal versuchen wollen – mit einem Absturz.

Ungefähr wöchentlich sollten Sie deshalb Ihre Festplatten (HDD) defragmentieren. Der Prozess dauert je nach Festplattengröße und Dateienmenge allerdings unangenehm lang und ist ausgesprochen hinderlich, wenn Sie nebenbei gerade am PC arbeiten müssen (während des Defragmentierens können Sie keine Dateien abspeichern). Starten Sie den Vorgang also lieber, wenn Sie Ihre Arbeit beendet haben – zum Beispiel nach Büroschluss.

Wichtig: Das Defragmentieren ist bei Solid State Drives (SSDs) nicht notwendig. SSDs speichern alle Daten bereits in einer fortlaufenden Reihenfolge (statt zufälliger Reihenfolge) und sind anfällig für Schäden, wenn sie trotzdem defragmentiert werden.

Unordentliche Registry

Die Registry Ihres PCs ist eine weitläufige Bibliothek von Systemeinstellungen. Die manchmal auch zu Bluescreens und anderen Fehlern führen können. Denn selbst wenn Sie ein Programm deinstallieren, können Registry-Einstellungen zurückbleiben. Diese Einstellungen sind im alltäglichen PC-Gebrauch nutzlos, können aber Systemfehler und Konflikte beinhalten. Denn Ihr PC wird die fehlerbehafteten Registry-Einträge wieder und wieder scannen – und verlangsamt so andere Prozesse. Zu viel davon und Ihre System-Stabilität geht endgültig den Bach runter.

Ein guter Registry-Cleaner – etwa Free Wise – ist das perfekte Tool, um den ganzen Abfall loszuwerden. Free Wise scannt Ihre Registry, findet die Probleme und beseitigt sie – und Ihre Registry ist wieder sauber.

Der gefürchtete Virus

Ja, auch Malware ist ein wichtiger Verursacher von Bluescreens. Zum Glück ist die Lösung simpel: Starten Sie das Antivirus-Programm Ihres Vertrauens, stellen Sie sicher, dass es auf dem aktuellsten Stand ist und scannen Sie Ihr System mit dem gründlichsten Scan, den das Programm zu bieten hat.

Wenn der Virus Sie daran hindert, Ihre Antiviren-Software zu starten, starten Sie Ihren Rechner im abgesicherten Modus neu, indem Sie beim Bootprozess F8 drücken, bevor das Windows-Logo auftaucht. Der abgesicherte Modus hindert alle irrelevanten Programme und Treiber daran, zu starten – nur das Kernsystem wird geladen. Im abgesicherten Modus sollten Sie in der Lage sein, Ihr Antiviren-Programm zu starten und den Scan durchzuführen.

22 Antivirus-Programme unter Windows 7 im Test

Hinweise sammeln, Probleme beheben

Jede Information, die Sie aus einem Bluescreen ziehen können, hilft Ihnen dabei, die Lösung für Ihr spezielles Problem zu finden. Wenn Sie also ein Bluescreen plagt, schreiben Sie sich so viel davon auf, wie Sie können und suchen Sie dann online nach Informationen zu den einzelnen Fehlermeldungen. Diagnostizieren Sie das Problem und lösen Sie es – denn das Problem einfach nur zu ignorieren, wird es auf lange Sicht verschlimmern.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Was ist was im Netzwerk – Router, Switch, Hub und Co.

Router, Repeater, Switch, Bridge, Access Point, Hub und Netzadapter sorgen dafür, dass Datenpakete dort ankommen, wo sie hin sollen. Wir erläutern, wie die Netzwerkgeräte funktionieren, was sie voneinander unterscheidet und worauf Sie beim Einsatz achten müssen.

Ohne sie kommt kein Netzverkehr zustande: Router, Repeater, Switch und Hub machen den Datenaustausch erst möglich. Sie sind die Schaltstellen, an denen Datenpakete auflaufen. Allen gemein ist, dass sie die Daten weiterleiten. Dazu bedienen sich diese Geräte unterschiedlicher Methoden, je nachdem, auf welcher Schicht des standardisierten OSI-Referenzmodells sie arbeiten. Dass gerade Switches, Router und Hubs trotzdem häufig verwechselt werden, liegt einerseits an falsch verwendeten Begrifflichkeiten und andererseits an der sehr ähnlichen Arbeitsweise. Dieser Beitrag klärt auf über die Gerätegattungen und die unterschiedlichen Einsatzzwecke.

Router

Router leiten Datenpakete weiter (Routing) oder blocken sie ab. Datenpakete sind zwischen 64 und 1518 Byte lang; in den ersten sechs Byte steckt die Zieladresse, in den letzten vier Byte eine CRC-Prüfsumme. Geroutete Datenpakete kommen dann entweder direkt im Zielnetzwerk an oder bei einem anderen Router , der seinerseits die Datenpakete weiterleitet. Zum Weiterleiten der Pakete orientiert sich ein Router an einer Routing-Tabelle. Diese kann für IPv4 unter Windows ebenso wie unter Linux mit dem Befehl „netstat -r“ angezeigt werden. In IPv6-Netzwerken benutzt man unter Windowsden Befehl „netsh interface ipv6 show route“, in Unix zum Beispiel „netstat -A inet6 -r“. Anhand der Routing-Tabelle bestimmt der Router, über welche Schnittstelle er die Datenpakete weiterleitet. Als Schnittstellen werden real existierende ebenso wie virtuelle in einem Router eingesetzt.

Router arbeiten auf der Vermittlungsschicht (Schicht 3) des OSI-Referenzmodells, ebenso wie Layer-3-Switche. Das Weiterleiten der Datenpakete geschieht somit beispielsweise per IP-Adressierung und nicht, wie etwa in der darunterliegenden Schicht 2, hardwareunterstützt (etwa anhand von MAC-Adressen) oder mit dem früher in Windows genutzten NetBEUI -Protokoll. Heute werden fast nur noch Router auf IP-Basis genutzt, weil die anderen Netzwerkprotokolle kaum noch eine Rolle spielen.

Es gibt Router in verschiedenen Ausprägungen: Hardware-Router sind für das Routing optimierte Geräte, die für den Dauerbetrieb ausgelegt sind. Sie besitzen meist redundante Netzteile und andere Hardware, um Ausfälle sehr gering zu halten. Komponenten können oft im laufenden Betrieb gewechselt werden. Unterhalb dieses Highend-Bereichs verschwimmen die Grenzen: Hier findet man auch Layer-3-Switche, die als Router, Switch oder beides arbeiten. Im Gegensatz dazu stehen die Software-Router. Das sind Workstations oder Server , die mit MacOS X, Unix oder Windows laufen und per Software zum Router werden. Nachteilig ist hier vor allem der hohe Stromverbrauch, sodass sich gerade im Heimbereich ein Software-Router nicht lohnt.

Wer nicht die Übertragungsgeschwindigkeit eines Hardware-Routers benötigt, kann kostengünstiger auch einen sogenannten Routing-Cluster einsetzen. Solche Lösungen kommen häufig in Universitäten und Schulen vor. Dabei werden beispielsweise Software-Router über einen Profi-Switch miteinander verbunden, dessen Datendurchsatzrate die des gesamten Clusters vorgibt.

Am unteren Ende stehen die DSL- und WLAN-Router . Diese Geräte vereinen DSL-Modem (oder Access Point beim WLAN-Router), Switch und Router. Oftmals handelt es sich dabei allerdings nicht um komplette Router. Sie sind lediglich für den Internetzugang geeignet und können nur mit aktiviertem PPPoE und NAT-Routing eingesetzt werden. Fehlt beim WLAN-Router der WAN-Port, ist das lediglich eine Brigde und kein Router.

Switch

1990 kam der erste Switch auf den Markt. Er wurde angeboten von der Firma Cisco , die damals noch unter dem Namen Kalpana firmierte. Der Switch verfügte über sieben 10-Mbit-Ethernet-Ports, bot einen höheren Datendurchsatz als Ciscos Highend-Router und war erheblich günstiger. Das Gerät hatte aber noch einen weiteren entscheidenden Vorteil: Innerhalb des Netzwerks waren keine Änderungen erforderlich, Switches wurden transparent in bestehende Netze integriert. Damit begann der bis heute anhaltende Erfolg dieser Gerätegattung. In aktuellen 10-Gbit-Netzwerken wird mittlerweile alles geswitcht; auf Hubs wird verzichtet, und selbst große Netzwerksegmente mit tausenden Computern können über Switches verbunden werden.

So funktioniert ein Switch

Switches sind die Weiterentwicklung von Bridges, die üblicherweise nur zwei Ports haben. Switches haben zwischen vier und mehreren Dutzend Ports. Sie arbeiten auf dem Data Link Layer (der Sicherungsschicht 2) des OSI-Modells. Es gibt auch die sogenannten Multilayer-Switches, die auf der Netzwerkebene (Schicht 3) arbeiten. Verwaltet und gesteuert werden Switche entweder über die Kommandozeile, über eine Weboberfläche oder über eine entsprechende Steuersoftware.

Ein Switch muss allerdings üblicherweise nicht konfiguriert werden. Zu den Datenpaketen speichert ein Switch die MAC-Adresse, von der gesendet wurde, und den Port, an dem das Paket ankam, in der sogenannten Source-Address-Table (SAT). Die Pakete werden dann an den entsprechenden Port weitergeleitet, falls dieser bereits bekannt ist. Sollte das nicht der Fall, sendet der Switch das Paket an alle aktiven Ports. Dabei arbeitet ein Switch nahezu transparent, ist also fast unsichtbar. Ein Problem dabei: Werden Pakete an andere Netzwerksegmente geleitet, kann sich die Kommunikation verzögern. Das wird dann meist über Protokolle wie TCP in höheren Schichten ausgeglichen.

Switches können Datenpakete unterschiedlich behandeln. Bessere Switches nutzen das Fast-Forwarding-Verfahren. Sie leiten die Pakete sofort nach Erhalt weiter. Die Fehlerprüfung muss dann von anderen Geräten übernommen werden. Nicht ganz so schnell ist die Fragment-Free-Methode. Auch sie beherrschen nur die besseren Switches. Sie leiten Datenpakete erst weiter, wenn diese mindestens eine Länge von 64 Byte haben. Der Grund: Kleinere Pakete sind oft nur die Trümmer von Datenkollisionen im Netz. Alle Switches beherrschen die langsame Store-and-Forward-Methode. Hierbei wird das gesamte Paket empfangen und erst nach der CRC-Prüfung weitergeleitet. Eine Kombination aus mehreren der genannten Methoden ist das Error-Free-Cut-Through- oder Adaptive-Switching. Dabei bleibt eine Kopie des Datenpakets im Switch, um die Prüfsumme zu berechnen. Fehler werden gezählt, und bei zu vielen wird in einen langsameren Modus gewechselt.

Die Ports von Layer-2-Switches empfangen und senden Daten unabhängig voneinander. Sie sind entweder über einen Hochgeschwindigkeits-Bus oder kreuzweise miteinander verbunden. Neuere Modelle sowie alle Gbit-Ethernet-Switches können die Sende- und Empfangsleitungen selbstständig ermitteln. AutoMDI(X) heißt diese Funktion – ob gekreuzte oder ungekreuzte Verkabelung, das ist solchen Geräten egal. Switches können in beliebiger Anzahl verbunden werden. Wie viele Rechner angeschlossen werden können, hängt von der Zahl der möglichen SAT-Einträge ab. Allerdings richten sich alle Switches in Bezug auf die Knotenanzahl nach dem kleinsten Switch. Werden mehr Rechner drangehangen, bricht die Leistung ein.

Auch die Fehlersuche kann schwieriger sein, da Datenpakete im Idealfall nur auf denjenigen Strängen sichtbar sind, die zum gewünschten Ziel führen. Ein Administrator kann den Netzwerkverkehr so nur schwer beobachten. Möglich ist es trotzdem, denn es gibt Switches, die sogenanntes Port-Mirroring erlauben. Dabei legt der Nutzer fest, welche Ports überwacht werden sollen. Die Pakete werden dann von einem Sniffer zur Auswertung aufgezeichnet. Ein weiterer Nachteil von Switches: Fällt einer aus, ist das gesamte Subnetz betroffen. Dem kann der Administrator entgegenwirken, indem er die Ports bündelt. Für das Failover genannte Verfahren benötigt man allerdings für jeden Rechner mindestens zwei Ethernet-Karten mit entsprechender Software. Der Rechner ist dann über beide Karten an zwei Switches angeschlossen.

Wireless Access Point

Wireless Access Points kommen bei kleineren bis großen Netzwerkinstallationen zum Einsatz. Dabei gleicht ihre Arbeitsweise einem Switch oder eine Netzwerk-Bridge und ist ebenfalls im Data Link Layer 3 (Sicherungsschicht 2) angesiedelt. Die Wireless-Zugangspunkte stellen quasi die Schnittstelle zwischen der kabellosen und kabelgebundenen Netzwerkinfrastruktur her. Dabei agiert der AP als Brücke, um entfernte Bereiche in das Netzwerk mit einzubeziehen. So kann ein Wireless Access Point dazu benutzt werden, einzelne entfernte Gebäudeteile mit in das Gesamtnetzwerk einzubinden. Darüber hinaus erleichtern APs mobile Geräte überall in einem Unternehmen zu nutzen, vorausgesetzt die Funkreichweite der APs reicht aus, um alle relevanten Stellen auszuleuchten.

Wirelesss Access Points – Einschränkungen

Im Vergleich zu Routern verfügen Wireless Access Points über einen reduzierten Funktionsumfang. So besitzen APs zum Beispiel keine Routing-Funktion, auch ein DHCP-Server und ist nicht integriert. In der Regel verfügen die Systeme über keine Sicherheitsfunktionen wie DoS (Denial of Service), Intrusion Detection mit SPI (Stateful Packet Inspection) sowie Content-Filtering. Allerdings integrieren viele mittlerweile viele Hersteller diese Funktionen mehr und mehr in die APs.

Die Access Points arbeiten nach dem Standard IEEE-802.11 und wird per sogenannter SSID (Service Set Identifier) von den Geräten im Netzwerk identifiziert. Die Funkverbindung erfolgt je nach Sicherheitsstufe entsprechenden den aktuellen Standards WEP, WPA oder WPA2 verschlüsselt.

Aktuelle AP-Geräte besitzen ein Set von unterschiedlichen Infrastruktur-Betriebsmodi. Dazu zählen Ethernet Bridge, Wireless Bridge, Wireless Repeater, Wireless Distribution System, Basic Service Set (BSS und das Extended Service Set (ESS). Je nach konfigurierter Funktion verhält sich ein Access Point. Mit Hilfe dieser Funktionen kann der Anwender sein Access-Point-Netzwerk entsprechend seinen Anforderungen konfigurieren beziehungsweise erweitern.

Repeater

Repeater verstärken Signale, um die Reichweite zu vergrößern. Sie sind Elemente der Schicht 1 des OSI-Modells. Wenn Repeater mehr als zwei Anschlüsse haben, heißen sie Hubs. Repeater werden in LANs ebenso wie in WLANs eingesetzt. In einem LAN in Bus-Topologie nutzt man Repeater, um die maximale Kabellänge zu erweitern. Dadurch wird das Netz zwar in zwei Segmente geteilt, aber die Bus-Topologie bleibt erhalten. Der Vorteil: Fällt ein Teil des Netzwerks aus, ist nur dieser Teil betroffen. In einer Bus-Topologie ohne Repeater fiele hingegen das gesamte Netzwerk aus. Größere Entfernungen in einem Netzwerk werden über sogenannte Link-Segmente überbrückt. Das sind zwei Repeater, die per Glasfaserkabel verbunden sind.

WLAN-Repeater

In einem WLAN dienen Repeater ebenso wie im LAN dazu, die Reichweite zu erhöhen. Allerdings werden Repeater wie jedes andere Gerät im WLAN behandelt: Sie teilen sich mit den anderen Clients die Daten übertragungsrate, sodass diese sich beim Einsatz eines Repeaters halbiert. Der Repeater selbst ist im WLAN nicht sichtbar, weil er üblicherweise dieselbe SSID wie der Access Point hat. Ein weiterer Client merkt dabei dank Roaming nicht, mit wem er sich gerade verbindet: dem Access-Point oder dem Repeater.

Einen Nachteil hat der Einsatz eines Repeaters allerdings: Eventuell muss beim Access-Point die automatische Kanalwahl ausgeschaltet werden. Mit einer festen Adresse kommen dem Benutzer aber eventuell andere WLANs in die Quere, die sich dann wiederum negativ auf die Daten übertragungsrate auswirken.

Netzwerk-Bridge

Eine Bridge (auf Deutsch: Brücke) verbindet zwei Teile eines Netzwerks . Bridges arbeiten wie Switches auf der Schicht 2 des OSI-Modells und dort entweder auf der MAC- oder der LLC-Unterschicht (LLC = Logical Link Control). Dementsprechend spricht man von MAC- oder LLC-Bridges. MAC-Bridges nutzt man vor allem, um die Last in großen Netzen zu mindern, denn jeder Strang erhält nur die Pakete, die für ihn bestimmt sind. Mit LLC-Bridges verbindet man Teilnetze mit unterschiedlichen Zugriffsverfahren. In einer LLC-Bridge werden die Parameter zwischen den Netzwerksträngen angepasst und übersetzt.

Arbeitet die Bridge transparent, speichert sie die Absender in eine Tabelle. So werden Datenpakete schneller ausgeliefert. Im Gegensatz dazu hat eine Source-Routing-Bridge keine Weiterleitungstabelle, da stellt der Paketabsender die Informationen bereit. Steht der Empfänger nicht in der Tabelle, verhält sich die Bridge wie ein Hub: Sie broadcastet an alle. Bevor eine Bridge Datenpakete versendet, muss erst das gesamte Paket fehlerfrei angekommen sein; darin unterscheiden sich Bridges von den meisten Switches.

Das ist auch ein Grund, warum Bridges langsamer sind als Switches. Darüber hinaus können Switches mehrere Pakete gleichzeitig zwischen verschiedenen Port-Paaren übertragen. Dafür können Switches nur auf der MAC-, nicht aber auf LLC-Schicht arbeiten. Das war früher ein wichtiger Grund zum Einsatz von Bridges: Denn sie können unterschiedliche Architekturen wie Ethernet und Token Ring verbinden.

Hub

Ein Hub verteilt ebenso wie ein Switch Datenpakete in einem Netzwerk . Hubs arbeiten auf der Bit-Übetragungsschicht 1 des OSI-Referenzmodells. Sie dienen damit einzig dem Verteilen. Im Gegensatz zu Switches broadcastet ein Hub an alle angeschlossenen Stationen und belegt alle Ports. So bekommen auch diejenigen die Datenpakete zugeschickt, die nicht der Empfänger sind. In die andere Richtung bedeutet das, dass die angeschlossenen Rechner auch nur dann Daten senden können, wenn der Hub nicht sendet. Das bedeutet auch, dass an einem Hub mithilfe eines Netzwerk-Sniffers Datenausgespäht werden können. Aus diesen Gründen setzt man normalerweise auch Switches ein, weil diese zwei Ports direkt verbinden.

Hubs und ihre Probleme

Hubs kann man über einen Uplink-Port oder ein gekreuztes Kabel verbinden, um die Anzahl der Stationen zu erhöhen. Das ist allerdings nicht beliebig fortzuführen, da bei Hubs ähnlich wie bei Repeatern die Bandbreite geteilt wird. Deswegen werden Hubs oft auch Multiport-Repeater oder Repeating-Hub genannt – aber auch, weil Hubs das Signal so wie Repeater verstärken. Wer Hubs kaskadiert, muss auch darauf achten, dass das Senden der Pakete nicht beliebig verzögert werden kann. Wird die sogenannte Round-Trip-Delay-Time (die Übertragungszeit für den Hin- und Rückweg zwischen den entferntesten Knoten) zu lang, kommt es zu Datenkollisionen, und die gesamte Performance des Netzwerks sinkt. Für den Administrator ist das oft ein Grund zum Haareraufen, denn die Störung lässt sich nur schwer lokalisieren und tritt unter geringer Netzwerkauslastung oft gar nicht auf. Beim Aufbau eines Netzes mit Hubs sollte daher unbedingt die 5-4-3-Regel wie bei Repeatern befolgt werden, um RTDT-Fehlern vorzubeugen. Oder man sollte eben, wie in Gbit-Netzwerken üblich, keine Hubs mehr einsetzen.

Physikalisch werden mit Hubs Sterntopologien aufgebaut, entsprechen aber einer Bustopologie, weil die Datenpakete an alle gesendet werden. Der Vorteil gegenüber einem Bus: Wird eine Verbindung unterbrochen, ist nicht das gesamte Netzwerksegment betroffen, sondern nur die eine Station.

Netzwerkadapter

Einen Netzwerkadapter gibt es heutzutage auf jedem Motherboard. Er ist so weit miniaturisiert, dass nicht mal mehr eine Steckkarte erforderlich ist. Manche Serverbesitzen gar schon zwei eingebaute Netzwerkadapter – und da wird es interessant. Denn diese doppelte Lösung bietet mehr Schutz vor Ausfällen von Netzwerkadapter, Kabel oder Switch .

Vorteile durch mehrere Netzwerkadapter

Die Adapter können im Teaming beziehungsweise Bonding genutzt werden. Dazu gibt es zwei empfehlenswerte Strategien: Beim sogenannten Adaptive Load Balancing werden die Adapter mit unterschiedlichen Switches verbunden. Das beugt allen drei genannten Fehlerquellen vor.

Die zweite Strategie ist die sogenannte IEEE 802.3ad Dynamic Link Aggregation (LACP). Dabei werden alle Netzwerkadapter mit einem Switch verbunden. Der Vorteil dieser Methode: Sie kann je nach Switch-Konfiguration dieselbe Fehlertoleranz aufweisen wie das Adaptive Load Balancing, hat aber eine bessere Lastverteilung.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Windows to Go! – So starten Sie Windows vom USB-Stick

Die Installation auf einem USB-Laufwerk bietet Windows 10 in seinem Setup-Programm von Haus aus nicht an. Doch mit alternativen Tools können Sie sich ein portables Zweitsystem anlegen, das auch auf anderen PCs startet.

Windows lässt sich standardmäßig nur auf einer internen Festplatte installieren, die in der Regel am SATA-Port hängt. Das Windows-Setup-Programm zeigt zwar auch USB-Laufwerke an, die lassen sich jedoch nicht als Ziel für die Installation angeben. Ein USB-Laufwerk mit einer Windows-Installation kann jedoch in vielen Fällen nützlich sein. Etwa als unabhängiges Zweitsystem für Software-Tests, als Testsystem für neue Windows-Versionen oder als portables System inklusive nützlicher Tools für die Analyse und Reparatur anderer PCs.

Microsoft sieht das ähnlich, eröffnet jedoch nur Administratoren im Firmenumfeld die Möglichkeit einer USB-Installation über den Windows-To-Go-Assistenten (siehe Kasten unten). Die Technik des Assistenten lässt sich jedoch auch für die Home- und Pro-Versionen von Windows 10 oder 8.1 nutzen. Mit geeigneten Tools richten Sie auch diese Versionen auf einem USB-Laufwerk ein. Wir stellen Ihnen unterschiedliche Verfahren vor, die jeweils Vor- und Nachteile bei den unterschiedlichen Einsatzgebieten haben.

1. Besonderheiten bei USB-Laufwerken unter Windows

Wenn Sie eine USB-Festplatte oder einen USB-Stick mit dem PC verbinden, erhalten diese einen Laufwerksbuchstaben. Die externen Laufwerke lassen sich dann genauso verwenden wie interne Festplatten. Es gibt jedoch Unterschiede. Klicken Sie ein Laufwerk im Windows-Explorer mit der rechten Maustaste an, sehen Sie bei USB-Sticks den Kontextmenüpunkt „Auswerfen“. Bei USB-Festplatten fehlt er. In den „Eigenschaften“ der Laufwerke steht auf der Registerkarte „Allgemein“ hinter „Typ“ bei allen Festplatten „Lokaler Datenträger“, bei einem USB-Stick jedoch in der Regel „USB-Laufwerk“ oder „Wechseldatenträger“.

Intern behandelt Windows USB-Festplatten und -Sticks also unterschiedlich. Aktuelle PCs sollen nach Microsofts Willen abgesichert durch Secure Boot im Uefi-Modus starten, was eine FAT32-Partion für Uefi und eine NTFS-Partition für das System erfordert. Auf USB-Festplatten können Sie mehrere Partitionen einrichten, bei USB-Sticks funktioniert das jedoch erst seit dem Creators Update (Windows 10, Version 1703). Die für Windows 10 Enterprise To Go zertifizierten USB-Sticks melden sich daher auch als „Lokaler Datenträger“ und damit als Festplatte (siehe Kasten unten).

Die Einschränkungen sind eher prinzipiell von Microsoft vorgegeben, technisch aber nicht erforderlich. Auch Windows 10 Version 1803 lässt sich auf einer einzelnen NTFS-Partition installieren und damit auch auf USB-Sticks. Damit Windows vom Stick bootet, müssen Sie dafür aber in den Firmware-Einstellungen neuerer PCs das Compatibility Support Module (CSM) aktivieren. Suchen Sie nach Optionen wie „CSM“ oder „Legacy Boot“, die meist unter Menüs mit Namen wie „Boot“ zu finden sind.

2. Mögliche Einschränkungen durch die PC-Hardware

Es kommen noch weitere Faktoren hinzu, warum Microsoft eine USB-Installation für alle Benutzer verhindert. Windows ist nur teilweise portabel. Es sind zwar bereits die wichtigsten Basis-Treiber enthalten, oft fehlen aber etwa Grafik- oder WLAN-Treiber. Zumindest Windows 10 lädt die passenden Treiber in der Regel automatisch herunter. Das funktioniert jedoch nicht immer, und Sie müssen die erforderlichen Treiber dann manuell installieren.

Auf jedem PC ist außerdem eine erneute Windows-Aktivierung nötig, da die Lizenz an die Hardware gebunden ist. Bei Windows 10 erfolgt das zwar automatisch, wenn die gleiche Edition (Home oder Pro) schon einmal installiert war, bei Windows 8.1 jedoch meist nicht. Nach einigen Gerätewechseln ist dann eine sehr umständliche, telefonische Aktivierung nötig.

Der USB-Port wurde ursprünglich eher für Peripheriegeräte wie Maus, Tastatur oder Drucker entwickelt. USB-Flashspeicher und -Festplatten mit viel Speicherplatz haben dann die schnelleren Standards USB 3.0 und 3.1 erforderlich gemacht. Die erreichbaren Transferraten sind mit denen von SATA-Festplatten vergleichbar, weshalb der Installation eines Betriebssystems auf einem USB-Laufwerk eigentlich nichts entgegensteht. Laufwerke am USB-Port arbeiten aber oft nicht so zuverlässig wie SATA-Festplatten. Einige PCs booten nicht von USB-Laufwerken oder erst nach Firmware-Updates oder geänderten Bios-Einstellungen. Oft sind Hardwarefehler, eine unzureichende Stromversorgung oder minderwertige Verlängerungskabel sowie USB-Hubs die Ursache von USB-Problemen. Würde Microsoft die Installation auf USB-Geräten offiziell unterstützen, wären wahrscheinlich zahlreiche Anrufe und Beschwerden bei der Support-Hotline die Folge, obwohl Windows nicht die Ursache der Fehlfunktionen ist.

Aus den genannten Gründen kann die direkte Windows-Installation auf einem USB-Gerät auch mit den von uns vorgeschlagenen Tools misslingen. Sie erhöhen die Erfolgsaussichten, wenn Sie das Gerät direkt mit dem PC verbinden und bei USB-Festplatten eine ausreichende Stromversorgung sicherstellen. USB-Sticks können ebenfalls funktionieren, USB-Festplatten arbeiten jedoch meist zuverlässiger. Sollten noch ausgemusterte Festplatten oder SSDs von der letzten Hardwareaufrüstung übriggeblieben sein, eignen sich diese optimal für den Betrieb an einem SATA-USB-Adapter. Geräte mit einer eigenen Stromversorgung (ab etwa 20 Euro) unterstützen auch 3,5-Zoll-Festplatten. Einfache Adapter für 2,5-Zoll-Festplatten gibt es schon für um die vier Euro. Lesen Sie in jedem Fall die Kundenrezensionen, um schlechte Erfahrungen anderer Benutzer nicht wiederholen zu müssen. Geben Sie besser ein paar Euro mehr für ein qualitativ hochwertigeres Produkt aus. Achten Sie außerdem auf die maximal unterstütze Festplattengröße. Einige Modelle unterstützen nur Festplatten bis 2 TB, andere bis 8 TB.

3. Vorbereitungen für die Windows-USB-Installation

Sie benötigen ein Installationsmedium mit der gewünschten Windows-Version. Für ein USB-Laufwerk empfiehlt sich die 32-Bit-Architektur, weil diese weniger Platz auf dem Laufwerk erfordert und auch etwas schneller startet. Wenn Windows später auch aktiviert werden soll, verwenden Sie die Version, für die Sie eine Lizenz besitzen. Ohne Aktivierung lässt sich Windows 10 eine Zeit lang ausprobieren, allerdings sind einige Einstellungen etwa unter „Personalisierung“ nicht verfügbar.

Ein aktuelles Windows 10 laden Sie sich beispielsweise über das Media Creation Tool von Microsoft herunter. Im Tool wählen Sie die Option „Installationsmedien (USB-Speicherstick, DVD oder ISO-Datei) für einen anderen PC erstellen“. Danach wählen Sie Sprache, Edition und Architektur aus (64 Bit oder 32 Bit) und anschließend die Option „ISO-Datei“. Geben Sie das Verzeichnis an, in dem Sie die ISO-Datei speichern wollen.

Mit Windows ISO Downloader können Sie Windows 10 und auch ältere Versionen wie Windows 7 und 8.1 herunterladen. Nach dem Start klicken Sie beispielsweise auf die Option „Windows 10“. Bei „Editionsauswahl“ wählen Sie unter „Windows 10 April 2018 Update“ (Version 1803) den Eintrag „Windows 10 Home/Pro“. Klicken Sie auf „Bestätigen“. Danach wählen Sie die Produktsprache und klicken wieder auf „Bestätigen“. Sie sehen dann die Schaltflächen für den Download der 32- und der 64-Bit-Version.

4. Windows-Setup-Medium bei Bedarf anpassen

Von Windows 10 gibt es zweimal im Jahr eine neue Ausgabe. Daher ist die heruntergeladenen ISO-Datei relativ aktuell. Wer Windows häufiger neu installiert – ob auf dem USB-Laufwerk oder einer SATA-Festplatte – sollte jedoch die verfügbaren Updates integrieren. Das spart Zeit und erübrigt einige Neustarts.

Für Windows 8.1 stehen deutlich mehr Updates bereit, weshalb es hier in jedem Fall sinnvoll erscheint, Windows-Updates vorab zu integrieren: Mit Ntlite bauen Sie Updates in das Windows-Setup-Medium ein und bei Bedarf zusätzlich Treiber. Außerdem entfernen Sie damit unnötige Komponenten für mehr Platz auf dem USB-Laufwerk. Für den Updates-Download verwenden Sie beispielsweise Wsus Offline Update oder WH Downloader .

Die genannten Tools sind als portable Version in PC-WELT Windows-Rebuilder enthalten. Sie finden sie nach Klicks auf „Updates“ beziehungsweise „Setup- Medium“.

5. Windows-Installationsvarianten für USB-Laufwerke

Windows 10 und 8.1 lassen sich auf einem USB-Laufwerk ähnlich einrichten wie auf einer Festplatte. Es gibt dann die üblichen Ordner wie „Windows“ oder „Benutzer“ und Sie haben auch von einem anderen System aus Zugriff auf das gesamte Dateisystem. Da Microsoft diese Installationsvariante – außer bei Windows 10 Enterprise – nicht offiziell unterstützt, ist sie experimentell. Es kann sein, dass das System etwa nach Updates nicht mehr vom USB-Laufwerk startet oder unzuverlässig läuft.

Installation in einer VHD-Datei: Bei einer VHD-Datei handelt es sich um eine virtuelle Festplatte in einer einzelnen Datei, die Windows in das Dateisystem einbindet und wie eine physikalisch vorhandene Festplatte behandelt. Die Installation aller Editionen von Windows 10 und Windows 8.1 in einer VHD-Datei („vhd native boot“) wird von Microsoft offiziell unterstützt und gilt daher als zuverlässig. Bei Windows 7 lässt sich das System nur aus einer VHD-Datei booten, wenn darin mindestens die Ultimate-Edition installiert ist. Systeme, die aus einer VHD-Datei starten, sind nur unwesentlich langsamer als bei einer herkömmlichen Installation.

Es gibt jedoch einen Nachteil: Windows-Updates lassen sich wie gewohnt installieren, aber keine Upgrades. Bei Windows 8.1 spielt das keine Rolle mehr, aber bei Windows 10, sobald das nächste Funktionsupgrade erscheint. Da sich VHDs in eine virtuelle Maschine einbinden lassen, können Sie Upgrades über einen Umweg dennoch durchführen (siehe Punkte 7 und 8).

Virtualisierungssoftware: Ein virtueller PC bildet einen eigenständigen Computer per Software nach, der weitestgehend unabhängig von der tatsächlich verbauten Hardware ist. Sie erreichen damit die größtmögliche Portabilität, denn die virtuelle Hardware bleibt immer gleich, egal, auf welchem PC Sie die virtuelle Maschine verwenden. Die Geschwindigkeit eines virtualisierten Betriebssystems liegt nur knapp unter dem einer Standardinstallation auf dem gleichen Gerät. Die virtuelle Grafikkarte bietet jedoch kaum 3D-Leistung. Beispielsweise PC-Spiele laufen in einer virtuellen Umgebung daher nur sehr langsam oder gar nicht.

Windows-PE verwenden: „PE“ steht für „Windows Preinstallation Environment“. Dabei handelt es sich um ein Mini-Windows, mit dem Sie etwa bei der Windows-Installation oder der Wiederherstellungsumgebung in Kontakt kommen. Ein PE-System mit dem gewohnten Windows-Desktop und vielen nützlichen Tools stellen Sie mit Win10PESE-2018-03 zusammen. Ein PE-System lässt sich zwar auf fast jeder Hardware starten, im laufenden System können Sie jedoch keine Treiber oder Software nachinstallieren. Wenn etwas fehlt, müssen Sie das PE-System neu zusammenstellen, und dabei die fehlende Software integrieren. Eine Alternative sind portable Apps, die Sie direkt vom USB-Laufwerk starten, beispielsweise über Portableapps Platform .

6. Windows mit Win To USB auf dem USB-Gerät installieren

Das für die private Nutzung kostenlose Tool Win To USB richtet die Windows-Bootumgebung ein und kopiert die Installationsdateien auf ein USB-Laufwerk. Soll ein USB-Stick das Installationsziel sein, müssen Sie die darauf befindlichen Daten sichern, weil Win To USB ihn formatieren muss. Eine USB-Festplatte muss nicht neu formatiert werden, aber auch hier sollten Sie sicherheitshalber ein Backup erstellen.

Wenn sich auf der USB-Festplatte nur eine NTFS-Partition befindet, lässt sich Windows davon später nur im Bios-Modus beziehungsweise nur bei aktiviertem Compatibility Support Module (CSM) booten. Es ist flexibler, eine kleine FAT-32 Partition mit etwa 100 MB zu erstellen und im verbleibenden Platz eine NTFS-Partition einzurichten. Dann lässt sich das System im Bios- und im Uefi-Modus booten. Verwenden Sie beispielsweise Aomei Partition Assistant , um die Partitionen anzupassen. Win To USB kann drei Installationsquellen nutzen, die Sie über die großen Schaltflächen auf der linken Seite auswählen. Wenn Sie eine ISO-Datei der gewünschten Windows-Version besitzen, klicken Sie die erste Schaltfläche an. Liegen die Installationsdateien auf einer DVD, verwenden Sie die zweite Schaltfläche. Über die dritte Schaltfläche klonen Sie das installierte System auf ein USB-Laufwerk. Das funktioniert jedoch nur, wenn das USB-Laufwerk dafür genügend Platz bietet. Bei ISO-Datei und DVD wählen Sie die Quelle für die Installationsdateien und danach das Ziellaufwerk. Im Klon-Modus geben Sie gleich das Ziellaufwerk an. Bei einem USB-Stick haben Sie die Wahl zwischen „MBR für BIOS“ und „GPT für UEFI“. Die Option „MBR für BIOS und UEFI“ steht in der kostenlosen Version nicht zur Verfügung. Nach einem Klick auf „Ja“ formatiert Win To USB den Stick mit dem gewählten Partitionsschema.

Im nächsten Schritt legen Sie Systempartition (Bootumgebung) und Bootpartition (Windows-Dateien) fest, indem Sie die gewünschten Partitionen anklicken. Darunter entscheiden Sie sich für die Option „Legacy“, wenn die Systemdateien direkt auf dem Laufwerk landen sollen. Oder Sie wählen „VHD“ zur Installation in einem VHD-Container und darunter die Größe des virtuellen Speichers. Das neuere Format „VHDX“ steht auch zur Verfügung, bietet für unseren Zweck aber keine Vorteile. Win To USB bietet nur die Optionen zur Auswahl, die zur jeweiligen Windows-Versionen und zum Typ des Ziellaufwerks passen. Bei der Kombination Windows 8.1/ USB-Stick beispielsweise ist nur die Installation in einer VHD-Datei möglich, bei Windows 10 auch „Legacy“.

7. Windows Bootmanager in eine VHD-Datei einbauen

Win To USB richtet auf dem USB-Laufwerk den Windows-Bootloader ein, der dann die VHD-Datei einbindet und Windows startet. Wenn Sie bei Windows 10 später ein Funktionsupdate durchführen oder das System alternativ auch in einer virtuellen Maschine (Punkt 8) starten wollen, benötigen Sie einen zusätzlichen Bootloader innerhalb der VHD-Datei.

Drücken Sie die Tastenkombination Win-X, gehen Sie auf „Datenträgerverwaltung“ und dann im Menü auf „Aktion –› Virtuelle Festplatte anfügen“. Geben Sie unter „Speicherort“ die VHD-Datei an, die Sie mit Win To USB erstellt haben, und klicken Sie auf „OK“. Ermitteln Sie in der Laufwerksübersicht, welchen Laufwerksbuchstaben die VHD-Datei erhalten hat, beispielsweise „K:“.

Öffnen Sie über Win-X eine Windows-Powershell als Administrator. Tippen Sie die folgenden zwei Befehlszeilen ein:

bcdboot K:\windows /s K: /l de-de /f all
bootsect /nt60 K: /mbr

Passen Sie den Laufwerksbuchstaben („K:“) für Ihr System an. Hängen Sie die virtuelle Festplatte im Windows-Explorer über den Kontextmenüpunkt „Auswerfen“ aus.

Windows 7 vom USB-Laufwerk starten

Als Windows 7 im Jahr 2009 auf dem Markt kam, gab es noch kein offizielles Windows To Go. Bastlern ist es jedoch immer gelungen, auch dieses System von einem USB-Laufwerk zu starten. Wer sich damit beschäftigen möchte, etwa weil noch eine nicht genutzte Lizenz für Windows 7 übrig ist, kann auch hier Win To USB wie in Punkt 6 beschrieben verwenden. Da in Windows 7 noch keine USB-3.0-Treiber enthalten sind, startet das System nur, wenn das USB-Gerät mit einem 2.0-Port verbunden ist. Sie können den erforderlichen Treiber aber mit Ntlite einbauen (Punkt 4). Bei unseren Test startete Windows 7 mit integriertem Service Pack 1 jedoch nicht und verabschiedete sich mit dem typischen Stop-Fehler „7B“: Windows findet die Systemfestplatte nicht. Ursache dafür ist, dass Windows 7 die USB-Treiber beim Start nicht rechtzeitig lädt.

An dieser Stelle helfen die Tipps aus diesem Artikel weiter. Die Startparameter der USB-Treiber ändern Sie schnell über „Win7_USB_Bootfix.bat“. Sie finden die Datei in der Installation von PC-WELT Windows-Rebuilder im Ordner „Tools“. Starten Sie die Batchdatei mit administrativen Rechten und tippen Sie dann den Laufwerksbuchstaben des USB-Laufwerks ein.

8. Windows in einer virtuellen Maschine starten

Die Virtualisierungssoftware Virtualbox lässt sich über das Tool Virtualbox Portable auf einem USB-Laufwerk installieren. Allerdings benötigen Sie Admin-Rechte, um Virtualbox zu starten. Bitte beachten: Portable-Virtualbox funktioniert nur korrekt, wenn Virtualbox nicht bereits auf dem PC installiert ist.

Starten Sie Portable-Virtualbox und geben Sie unter „Extract to:“ den Laufwerksbuchstaben Ihres USB-Laufwerks ein. Starten Sie das Programm „Portable-VirtualBox“ aus dem gleichnamigen Ordner. Wählen Sie über „Search“ die Sprachdatei „german.ini“ aus, und klicken Sie auf „OK“. Klicken Sie auf „Installationsdateien von Virtualbox herunterladen“ oder geben Sie über „suche“ den Pfad zur Virtualbox-Setup-Datei an.

Warten Sie, bis der Vorgang abgeschlossen ist. Setzen Sie ein Häkchen vor „Entpacke die Dateien für ein 32-Bit-System“ oder „Entpacke die Dateien für ein 64-Bit-System“ sowie ein Häkchen vor „Starte Portable- VirtualBox nach dem Entpacken und/ oder Komprimieren“. Klicken Sie auf „OK“. Danach sehen Sie das Virtualbox-Fenster. Schließen Sie das Fenster und starten Sie Portable-Virtualbox erneut. Kontrollieren Sie über „Datei –› Einstellungen“, ob der „Voreingestellte Pfad für VMs“ auf das USB-Laufwerk verweist, beispielsweise „K:\Portable-VirtualBox\data\.VirtualBox\Machines“. Wenn nicht, passen Sie den Pfad an. Standardmäßig lädt Portable-Virtualbox keine Netzwerktreiber. Eine Anleitung zur Aktivierung des Netzwerks und weitere Tipps finden Sie in der Datei „LiesMich.txt“ im Installationsordner.

Per Klick auf „Neu“ erstellen Sie eine virtuelle Maschine. Folgen Sie den Anweisungen des Assistenten. Im Fenster „Platte“ erzeugen Sie eine neue virtuelle Festplatte für das System. Wenn Sie in Punkt 6 eine VHD-Datei erstellt haben, lässt sich diese nach Auswahl der Option „Vorhandene Festplatte verwenden“ einbinden (beachten Sie Punkt 7). Andernfalls klicken Sie, nachdem Sie den Assistenten beendet haben, auf „Massenspeicher“ und wählen eine Windows-ISO-Datei aus. Klicken Sie auf „Starten“, und führen Sie die Windows-Installation oder das Funktionsupdate wie gewohnt durch.

9. Windows-PE auf dem Stick einrichten

Im Downloadbereich finden Sie das Toolpaket Win-10PESE , mit dem Sie ein Mini-Windows auf der Basis von Windows 10 erstellen. Als Vorbereitung entpacken Sie die ISO-Datei von Windows 10 mit 7-Zip beispielsweise nach C:\W10. Zurzeit können Sie nur Windows 10 1709 (Build 16299.15) oder eine ältere Version verwenden. Version 1803 wird noch nicht unterstützt.

Entpacken Sie Win10PESE in ein Verzeichnis mit einem kurzen Namen und ohne Leer- und Sonderzeichen, etwa nach „C:\Win10PE“. Suchen Sie im Ordner „C:\W10\Sources“ nach der Datei „Install. wim“. Ist lediglich die Datei „Install.esd“ vorhanden, müssen Sie diese zuerst in eine WIM-Datei konvertieren. Dazu benutzen Sie das Tool ESD File Converter . Es ist im Toolpaket PC-WELT Windows-Rebuilder enthalten („Tools –› ESD/UUPs konvertieren“). Löschen Sie die ESD-Datei, und kopieren Sie die WIM-Datei nach „Sources“.

Starten Sie BuilderSE.exe aus dem Ordner „C:\Win10PE“. Wählen Sie im Baum auf der linken Seite „Win10PESE“. Gehen Sie auf „Config Source“ und geben unter „Select Source“ den Ordner mit den Quelldateien an. Klicken Sie auf „Set Source“.

Setzen oder entfernen Sie unter „Apps“ Häkchen bei den Tools, die Sie verwenden beziehungsweise nicht nutzen möchten. Klicken Sie auf die blaue „Play“-Schaltfläche, um mit dem Build-Prozess zu beginnen. Die ISO-Datei liegt danach unter „C:\ Win10PE\ISO“. Sie sollten das System zuerst in Virtualbox testen. Einen bootfähigen USB-Stick erstellen Sie in Winbuilder über „Write Media –› Copy to USB-Device BCD BootMGR“. Stellen Sie das USB-Laufwerk unter „Please select the root directory of your USB-Device“ ein. Sichern Sie alle darauf befindlichen Daten, da der Stick neu formatiert werden muss. Klicken Sie auf „Copy to USB“.

Den Windows-To-Go-Assistenten nutzen

Geht es nur um Testinstallationen oder ein Reparatursystem, spielt die Windows-Version keine Rolle. Sie können dann auch Windows 10 Enterprise 1803 verwenden (Testzeitraum 90 Tage). Der Windows-To-Go-Assistent ist in der Systemsteuerung zu finden und bei Windows 10 Enterprise und in der Pro-Version etwa von Windows 10 1803 enthalten. Über den Assistenten lassen sich nur Windows 10 oder 8.1 Enterprise auf einer USB-Festplatte installieren. Es sei denn, Sie besitzen einen für Windows To Go zertifizierten und relativ teuren USB-Stick. Nach dem Start des Assistenten wählen Sie das Ziellaufwerk aus. Im nächsten Schritt geben Sie nach einem Klick auf „Suchort hinzufügen“ den Speicherort der ISO-Datei von Windows 10 oder 8.1 Enterprise an. Folgen Sie den weiteren Anweisungen des Assistenten. Die Installation und der erste Start dauern einige Zeit länger als bei einem mit Win To USB erstellen USB-Stick.

Im To-Go-Enterprise-System sind übrigens die lokalen Festplatten ausgeblendet. Um das zu ändern, öffnen Sie über Win-X die „Datenträgerverwaltung“, klicken den gewünschten Datenträger mit der rechten Maustaste an und wählen im Kontextmenü „Online“.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

LAN-Geräte ins Funknetz bringen – so geht’s

Smart-TV, Mediaplayer, AV-Receiver oder Spielekonsole: Viele Geräte besitzen eine Netzwerkbuchse, nicht aber WLAN. Es gibt verschiedene Wege, sie dennoch ins Funknetz einzubinden.

PCs, Server, Netzwerkspeicher, Internetradios und Smart-TVs: Netzwerkgeräte mit festem Standort arbeiten mit einem konventionellen LAN-Kabel zuverlässiger und schneller als über das WLAN. Geht es um die Übertragung großer Datenmengen, sind klassische Kabelverbindungen gegenüber schnurlosen Alternativen immer im Vorteil. Sie sind kostengünstig, einfach zu installieren und im Vergleich zu drahtlosen WLAN-Verbindungen weitgehend unempfindlich gegen Störungen.

Wann WLAN gegenüber einem LAN-Kabel im Vorteil ist

In vielen Situationen ist ein LAN-Kabel jedoch unpraktisch oder das Strippenziehen stört aus optischen Gründen, zum Beispiel beim Anschluss von Unterhaltungselektronik im Wohnzimmer oder beim Drucker, den Sie am liebsten in die Abstellkammer verbannen würden. Oft steht der WLAN-Router im Flur und so müssten umständlich lange Kabel verlegt werden, die sich leicht als riskante Stolperfalle erweisen. Nicht jeder möchte oder darf im Falle einer Mietwohnung Wände oder Decken aufschlitzen, durchbohren oder mit Kabelkanälen verunstalten. Selbst wenn sich alle Geräte im selben Raum befinden, kann das Kabelverlegen umständlich bis unmöglich sein. Dann ist Hardware mit WLAN praktisch. Was aber, wenn Sie netzwerkfähige Geräte ins WLAN einbinden möchten, die lediglich über einen LAN-Anschluss verfügen? In diesem Fall können Sie verschiedene Möglichkeiten in Betracht ziehen.

Geräte mit einer Media Bridge ins WLAN einbinden

Mit einer Media Bridge – alternative Bezeichnungen sind WLAN-zu-LAN-Adapter oder WLAN Ethernet Converter – erweitern Sie Ihr Funknetzwerk und können Smart-TVs, Spielekonsolen und Media Receiver mittels WLAN per Funk an den Router anschließen. Das ist auch in den Fällen praktisch, wenn die in der Regel vier verfügbaren LAN-Ports am Router bereits besetzt sind und Sie aufgrund eines zusätzlichen Geräts nicht extra weitere Hardware in Form eines Switches aufstellen möchten. Bei einer Media Bridge handelt es sich um einen Access Point, der ähnlich wie ein Router in den allermeisten Fällen mehrere Netzwerkanschlüsse bietet. Über ein integriertes WLAN-Modul baut die Bridge eine kabellose Verbindung zum Router auf, welche dann allen über die LAN-Ports verbundenen Geräten zur Verfügung steht. Diese werden dazu mit einem Ethernet-Kabel an die Bridge angeschlossen – Sie benötigen ein Kabel für jedes zu verbindende Gerät. Wegen des erforderlichen Kabels sollte der WLAN-zu-LAN-Adapter nach Möglichkeit in der Nähe der gewünschten Geräte stehen.

Media Bridges gibt es beispielsweise von Herstellern wie Asus ( EA-AC87 , RP-AC56 undRP-N12 ), Linksys ( WUMC710 Wireless-AC Bridge , WAP300N ), Deutsche Telekom (Speedport W 102 Bridge ) und weiteren Herstellern ab etwa 50 Euro.

So verbinden Sie die Bridge mit Ihrem Funknetz

Im Hinblick auf einen bestmöglichen Datendurchsatz empfehlen wir Ihnen ausschließlich Dual-Band-Bridge-Modelle der ac-und n-WLAN-Standards, die im 2,4-GHz-und 5-GHz-Frequenzband arbeiten. Diese Geräte setzen einen entsprechen-den ac-oder n-WLAN-Router voraus. Für das tempokritische Übertragen von Filmen und Musik eignen sich WLAN-Verbindungen im 5-GHz-Band besser. Denn in diesem Frequenzbereich treten im Unterschied zu dem oft ausgelasteten 2,4-GHz-Band kaum Beeinträchtigungen durch 5-GHz-WLANs in Ihrer Nachbarschaft auf.

Wenn an Ihrem Router WPS aktiv ist, können Sie die Media Bridge durch einen Tastendruck automatisch einbinden. Drücken Sie hierzu die WPS-Taste am Router sowie an der Bridge und warten Sie im Anschluss daran, bis die Verbindung zwischen den Geräten aufgebaut wurde. Die Daten übertragung erfolgt von diesem Zeitpunkt an verschlüsselt und damit auch abhörsicher. Ohne WPS-Unterstützung müssen Sie den WLAN-zu-LAN-Adapter gemäß Handbuch am Rechner konfigurieren.

Steht die kabellose Verbindung zum Router, haben die an die Bridge angeschlossenen Geräte Zugriff auf das Netzwerk. In der Bedienoberfläche der Bridge nehmen Sie bei Bedarf weitere Einstellungen vor, um den Zugriff auf die übrigen Geräte und Dienste im Heimnetzwerk zu steuern. Im Menü können Sie einzelnen Geräten bei Bedarf auch eine feste IP-Adresse zuweisen, andernfalls erfolgt die IP-Adressvergabe automatisch über DHCP.

Videostreaming im WLAN ohne Bildaussetzer

Ultra-HD-Fernseher (UHD) stellen mit einer 4K-Auflösung von 3840 x 2160 Bildpunkten das momentane Nonplusultra in Sachen Detailtreue, Farben und Kontrast dar. Netflix, Amazon Prime und Youtube bieten neben Full-HD-Videoinhalten auch Filme und Clips in 4K-Qualität, mit denen Sie die hochauflösenden Möglichkeiten eines UHD-Geräts ausreizen. Beim Videostreaming von 4K-Filmen über das WLAN zu Ihrem Smart-TV müssen Sie allerdings beachten, dass die Reichweite von Funkwellen und damit auch die Signalstärke maßgeblich von den örtlichen Gegebenheiten abhängt. Anders als bei einer Kabelverbindung fallen im WLAN die Nettodatenraten erheblich geringer aus, als die von den Herstellern angegebenen Brutto-Übertragungsraten. Im Idealfall erreicht die Nettodatenrate gerade einmal die Hälfte der beworbenen Bruttowerte.

Innerhalb von Wohnräumen behindern vor allem Stahlbeton, Metall, Gipswände und Glas durch Reflexion die Ausbreitung der Funkwellen. Je weiter Fernseher und Funkrouter auseinander liegen und je größer die Anzahl störender Wände, Decken oder Einrichtungsgegenstände ist, desto schlechter und damit geringer wird die erzielbare Nettodatenrate. Schnell kommt es dadurch bei der Wiedergabe von hochauflösenden 4K-Filmstreams zu nervigem Ruckeln und Aussetzern.

Erzielen Sie am Fernseher beim Abspielen von 4K-Streams trotz Optimierungsmaßnahmen wie Umpositionieren Ihres WLAN-Routers, WLAN-Kanalwechsel und der Nutzung eines WLAN-Repeaters keine fehlerfreie Wiedergabe, so überbrücken Sie den Weg vom WLAN-Router zum Fernseher mit einem Powerline-Set der Gigabit-Generation über das Stromnetz. Ein solches Set besteht aus zwei Powerline-Steckern: Einer kommt neben Ihrem WLAN-Router in die Steckdose und wird mit einem Ethernet-Kabel mit dem Router verbunden.

Zweiten Router als LAN-Verteiler nutzen

Besitzen Sie noch einen zweiten WLAN-Router, den Sie beispielsweise nach der Anschaffung eines neuen Routers mit besserer Ausstattung übrig haben? Dann können Sie Ihr Altgerät in den Repeater-Modus schalten und die LAN-Ports am Router für den Anschluss kabelgebundener Netzwerkgeräte nutzen. Als Repeater stellt Ihr Altgerät eine drahtlose Verbindung zum WLAN-Hauptrouter her und reicht die Datenpakete an die über Kabel an den Ethernet-Buchsen angeschlossenen Geräte weiter. Nicht alle Router bieten jedoch einen Repeater-Modus – Klarheit verschafft hier ein Blick ins Handbuch. Beachten Sie bitte, dass das Zwischenschalten eines Repeaters die WLAN-Übertragungsrate halbiert, da der Repeater zwei Verbindungsstrecken im selben Frequenzband bedienen muss.

Zum Einrichten des Repeater-Betriebes bringen Sie zunächst die Firmware beider Router auf den neuesten Stand. Verbinden Sie den Alt-Router danach über ein LAN-Kabel mit dem PC und sehen Sie in der Konfigurationsoberfläche des Routers nach, ob sich das Gerät in die Repeater-Betriebsart versetzen lässt. Der entsprechende Menüpunkt ist bei einigen Modellen auch mit „Bridge“ beschriftet. Nachdem Sie den Repeater-Modus aktiviert haben, wählen Sie Ihr Funknetzwerk aus der Liste der verfügbaren Netze aus und tragen Ihr WLAN-Passwort ein, damit der Repeater auf das WLAN zugreifen kann. Daraufhin startet der Router neu und erhält eine eigene IP-Adresse vom Hauptrouter. Jetzt können die an den LAN-Buchsen des Repeater-Routers angeschlossenen Geräte kabellos auf das Heimnetzwerk zugreifen.

Verfügt der für den Repeater-Betrieb vorgesehene Router über einen USB-Port zum Anschluss von Festplatten, USB-Sticks oder Druckern, so können Sie diese Geräte darüber auf elegante Weise in Ihr Heimnetzwerk einbinden. Dies ist von Vorteil, wenn sich Ihr Hauptrouter beispielsweise im Flur befindet, wo es an Stellfläche für entsprechende Geräte mangelt.

Gerät über Repeater-Buchse ins WLAN nehmen

Manche WLAN-Repeater wie der Fritz WLAN-Repeater 300E besitzen am Gehäuse eine praktische Ethernet-Buchse, an die Sie ein netzwerkfähiges Gerät anschließen können. Darüber erhält das angedockte Gerät Zugang zum Funknetzwerk und somit zum Internet. Für das betreffende Gerät erfolgt die Verbindung dabei transparent, als wäre es fest verkabelt mit dem Router verbunden – Sie brauchen also nichts umzukonfigurieren. Das ist vor allem bei Smart-TVs, DVD-und Blu-ray-Playern, Streamingboxen, Druckern, Netzwerkspeicher oder einer IP-Kamera von Vorteil.

An den LAN-Anschluss können Sie auch einen Switch hängen und auf diese Weise je nach Switch-Modell zusätzliche Anschlussmöglichkeiten für 4, 8, 16 und mehr Geräte mit Ethernet-Schnittstelle bereitstellen.

Unterstützt der Repeater wie bei den Fritz-Modellen auch den Bridge-Modus, in dem er als WLAN-Brücke arbeitet, so können Sie beispielsweise einen Powerline-Adapter ohne eingebautes WLAN-Modul andocken und damit einen WLAN-Hotspot außerhalb der bisherigen Reichweite Ihres Funknetzwerks betreiben. Auf diese Weise lassen sich entfernte Räume, Keller oder ein Dachgeschoss in das WLAN integrieren. Sie benötigen in diesem Fall einen zweiten Powerline-Adapter, der die Verbindung zum Router herstellt.

So kommt der Fernseher ins Funknetzwerk

Die neueste Generation flacher Fernsehgeräte ist „smart“, bietet also einen Netzwerkanschluss, über den sie etwa Inhalte aus Onlinevideotheken, den Mediatheken der TV-Sender, Youtube sowie weiteren Streamingangeboten beziehen, sodass sich Filme und Musik direkt übers Internet abspielen lassen. Über die Netzwerkverbindung greifen Smart-TVs überdies auf sämtliche andere Geräte im Heimnetzwerk zu, wie zum Beispiel den Computer im Arbeitszimmer oder eine Netzwerkfestplatte, auf der Ihre Foto-, Musik-und Videosammlung lagern. Denn nicht nur das Abrufen von Daten über Streamingdienste und Webseiten, sondern auch umfassende Wiedergabe-und Medienaustauschmöglichkeiten im lokalen Netz zeichnen Smart-TVs aus.

Damit Sie von der Fülle smarter Funktionen profitieren können, gilt es, das Fernsehgerät zunächst einmal in das heimische Netzwerk einzubinden. Die meisten Hersteller statten ihre aktuellen Smart-Modelle dual mit einer Ethernet-Buchse und einem integrierten WLAN-Funkmodul aus. Das Funknetz verschafft Ihnen beim Aufstellen des Fernsehgeräts jede Menge Bewegungsfreiheit. Sie müssen also keinerlei Netzwerkkabel durch die halbe Wohnung legen und können das Gerät bequem kabellos in Ihr Heim-LAN einbinden.

Verfügen Sie über einen älteren Smart-TV, der nur fest verkabelt ins Netzwerk kommt, oder sollten Sie sich ausgerechnet für ein neues Modell entschieden haben, das nicht ab Werk mit einem WLAN-Modul ausgestattet ist, stehen Ihnen für den Zugriff auf das Funknetzwerk zwei Optionen offen: ein WLAN-USB-Stick oder ein LAN-WLAN-Adapter. Die erste Variante funktioniert aber nur dann, wenn der Hersteller des TV-Geräts auch einen WLAN-USB-Stick als optionales Zubehör anbietet oder entsprechende Sticks von Drittanbietern unterstützt. Der Stick wird ganz einfach in eine beliebige – bei manchen Fernsehgeräten in die entsprechend gekennzeichnete – USB-Buchse des Fernsehers gesteckt. Von da an unterscheidet sich der WLAN-Zugang über den Stick nicht von einer internen Lösung: Über das TV-Menü wählen Sie Ihr Funknetzwerk aus, geben das Passwort ein und legen außerdem noch fest, ob sich das Fernsehgerät die Verbindung als Standard merken soll oder nicht.

Bei einem WLAN-Stick für Ihren Smart-TV sollten Sie aber nur zu dem Modell greifen, das der Hersteller explizit für Ihr TV-Gerät empfiehlt. Zwar lässt sich über die USB-Buchse auch ein beliebiger anderer WLAN-Stick andocken, doch fehlt dem Smart-TV dann in der Regel ein passender Treiber in der Firmware. Allerdings gibt es gerade mal eine Handvoll Hersteller von WLAN-Chips, sodass damit grundsätzlich die Möglichkeit besteht, dass auch kompatible, weil hardwareseitig weitestgehend identische Funksticks von Drittanbietern an Ihrem Fernseher funktionieren – eine Garantie dafür gibt es jedoch nicht. In den Support-Foren der TV-Gerätehersteller finden sich oft brauchbare Tipps, die bestimmte Gerätekombinationen erfolgreich einsetzen. Der Anschluss eines TV-Gerätes mit Ethernet-Buchse über einen LAN-WLAN-Adapter wie den Netgear WNCE2001 , den Hama 2 in 1 Wireless-LAN-Adapter oder einen Fritz-WLAN-Repeater mit integriertem Ethernet-Anschluss klappt dagegen stets. Diese Bridge-Geräte ab 40 Euro arbeiten herstellerunabhängig und benötigen keine bestimmte Fernseherfirmware. Im Unterschied zur kompakten Sticklösung müssen Sie aber ein zusätzliches Gerät in der Nähe des Fernsehers unterbringen.

Drucker vom Anschlusskabel befreien

Sie besitzen einen Drucker ohne WLAN-Modus, den Sie kabellos im Netzwerk ansprechen möchten, Ihr PC soll hierfür jedoch nicht permanent laufen. Am einfachsten binden Sie den Drucker über den USB-Anschluss Ihres WLAN-Routers ein. Der Router erkennt das Gerät automatisch und stellt es allen anderen Geräten im Funknetzwerk zur Verfügung, die auf Netzwerkdrucker zugreifen können. Der USB-Drucker selbst muss Daten im Raw-Format empfangen können (Handbuch konsultieren).

Schließen Sie zunächst den Drucker an den Router an und schalten Sie das Gerät ein. Aktivieren Sie danach in der Bedienoberfläche Ihres Routers die Druckfunktion. Bei der Fritzbox erledigen Sie das unter „Heimnetz -> USB-Geräte -> USB-Fernanschluss“. Nun müssen Sie noch die Verbindung zum WLAN-Drucker herstellen. Dazu wählen Sie in Windows die Option „Der gesuchte Drucker ist nicht aufgeführt“. Wählen Sie daraufhin die Option zum manuellen Hinzufügen eines neuen Druckers. Hier entscheiden Sie sich für das Erstellen eines neuen Anschlusses vom Typ „Standard TCP/IP Port“.

Geben Sie als „Hostname oder IP-Adresse“ die IP-Adresse des Druckers ein, wie Sie im Routerbedienmenü angezeigt wird. Im Falle einer Fritzbox genügtfritz.box. Bestätigen Sie nun Ihre Eingabe und wählen Sie danach noch den entsprechenden Treiber aus.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Windows 10 stürzt ab oder friert ein: So beheben Sie das Problem

Wenn Windows 10 immer wieder abstürzt, einfriert oder anderweitig nicht mehr reagiert, sollten Sie nicht in Panik geraten, sondern ein paar Dinge überprüfen. Die meisten Fehler können Sie selber finden und ganz einfach abstellen.

Windows 10 hat eine Menge Funktionen, die unser Leben einfacher machen, aber manchmal passiert genau das Gegenteil: Das Betriebssystem friert ein, fährt herunter oder zeigt nur einen blauen Bildschirm.

Wenn das mit Ihrem Windows-Rechner regelmäßig passiert, begeben Sie sich nach einem Neustart auf Fehlersuche – in der Regel können Sie das Problem ganz einfach selber lösen.

Windows-Updates prüfen

Als erstes stellen Sie sicher, dass Sie die neueste Version von Windows verwenden.

  • Klicken Sie auf den Start-Button und links daneben auf das Symbol für „Einstellungen“.
  • Geben Sie dann „Windows Update“ in das Suchfeld ein. Jetzt wird Ihnen angezeigt, ob Ihr Windows auf dem neuesten Stand ist oder ob neue Updates zur Verfügung stehen.
  • Wenn ein Update verfügbar ist, laden Sie es herunter und installieren Sie es.

Temporäre Dateien löschen

Der temporäre Dateiordner füllt sich sehr schnell. Seinen Inhalt sollten Sie regelmäßig löschen, da ein volles Temp-Verzeichnis die Leistung von Windows beeinflussen kann.

  • Drücken Sie die Tastenkombination Windows+R, um das Dialogfeld „Ausführen“ aufzurufen.
  • Geben Sie „temp“ in das Feld „Öffnen“ ein und drücken Sie OK.
  • Drücken Sie Strg+A, um alle Dateien im Temp-Ordner auszuwählen, und anschließend die Löschtaste, um sie zu entfernen. Manchmal erscheint der Hinweis, dass nicht alle Dateien entfernt werden können, weil der Ordner (oder eine Datei darin) in einem anderen Programm geöffnet ist. Dann führen Sie den Löschvorgang später noch einmal durch.

Speicher prüfen

Fehlerhafter Speicher ist eine der häufigsten Ursachen für das Einfrieren des Computers, und zum Glück ist in Windows eine Software zur Überprüfung integriert.

  • Drücken Sie die Windows-Taste+R
  • Geben Sie „mdsched.exe“ in das Feld „Öffnen“ ein und klicken Sie auf OK. Sie haben die Wahl, sofort zu prüfen (dies wird Ihren Computer neu starten) oder bis zum nächsten Neustart zu warten.
  • Beim nächsten Neustart sehen Sie einen blauen Bildschirm (der Ihnen den Fortschritt Ihrer Speicherauswertung zeigt)

Virtuellen Speicher anpassen

Virtueller Speicher ist eine Erweiterung des physischen Speichers Ihres Computers – ein Teil Arbeitsspeicher und ein Teil Festplatte. Wenn Ihrem Computer beim Ausführen einer Aktion der Arbeitsspeicher ausgeht, verwendet Windows diesen virtuellen Speicher zum temporären Speichern von Dateien. Sie können die Anzahl der Ressourcen, auf die der virtuelle Speicher zugreifen kann, anpassen.

  • Gehen Sie in „Systemsteuerung > System und Sicherheit > System > Erweiterte Einstellungen“.
  • Klicken Sie im Bereich „Leistung“ auf „Einstellungen“ und öffnen Sie die Registerkarte „Erweitert“.
  • Am unteren Rand des Fensters werden Informationen zum virtuellen Speicher angezeigt. Klicken Sie auf „Ändern“ und deaktivieren Sie dann das Kontrollkästchen am oberen Rand des neuen Fensters, das angezeigt wird.
  • Wählen Sie Ihr Laufwerk aus und klicken Sie auf „Benutzerdefinierte Größe“.
  • Unten sehen Sie die aktuelle Größe Ihres virtuellen Speichers; verwenden Sie die Option „Benutzerdefinierte Größe“, um ihn um 50 oder 100 Prozent zu vergrößern.
  • Klicken Sie auf „Festlegen“ und auf OK.

Laufwerk prüfen

Ein weiteres häufiges Problem sind Fehler im Laufwerk. Wenn Sie es nicht gerade defragmentiert haben, könnte auch hier eine Ursache für den Absturz von Windows liegen.

  • Öffnen Sie den Windows Explorer, klicken Sie mit der rechten Maustaste auf Ihr primäres Laufwerk (wahrscheinlich Ihr C-Laufwerk) und klicken Sie auf „Eigenschaften“.
  • Gehen Sie auf die Registerkarte „Tools“ und klicken Sie im Fenster „Fehlerüberprüfung“ auf „Prüfen“.
  • Klicken Sie auf „Laufwerk scannen“, um den Prozess zu starten.

Wenn nach all diesen Möglichkeiten, Fehler zu beheben, Ihr Windows weiterhin einfriert oder abstürzt, liegt das Problem möglicherweise am PC selber.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Was ist was bei der Linux-Verzeichnisstruktur?

Wer ein Linux-System aufsetzen will, tut gut daran, sich mit der Verzeichnisstruktur vertraut zu machen. Dann weiß man, wo welche Dateien zu finden sind, und kann die eigene Partitionierung optimieren. Wir zeigen, worauf Sie achten müssen und liefern Empfehlungen.

Während die Windows-Systeme noch an Eigenarten wie den Laufwerksbuchstaben und dem Rückwärtsstrich als Verzeichnistrenner festhalten, haben sich die anderen Betriebssysteme wie Mac OS X und Linux längst angenähert und sich auf eine gemeinsame Verzeichnisstruktur verständigt, ausgehend vom Wurzelverzeichnis „/“, auch Root genannt.

Dass es diese Einheitlichkeit in puncto Verzeichnisinhalte und -bezeichnungen gibt, ist dem sogenannten Filesystem Hierarchy Standard , kurz FHS, zu verdanken. Dieses beschreibt den Aufbau eines Unix-Verzeichnissystems. Die aktuelle Version 3 ist vom Juni 2015.

Der FHS ist auf der einen Seite für Distributionsentwickler interessant, beschreibt er doch, wo welche Verzeichnisse und Dateien zu finden sind. Auf der anderen Seite profitiert der Benutzer davon, indem er sich ohne großes Einarbeiten schnell in anderen Linux- und Unix-Varianten zurechtfindet.

Für den Systemadministrator hingegen ist noch etwas anderes wichtig: Da es keine Laufwerksbuchstaben gibt, werden Partitionen, Festplatten und andere Speichermedien wie USB-Sticks und DVD-Laufwerke einfach als Verzeichnis in die Verzeichnisstruktur integriert. Der Fachmann spricht von Einhängen beziehungsweise Mounten.

Theoretisch kann ein Verzeichnis an jeder beliebigen Stelle eingehängt werden. In der Praxis geschieht das nicht. Denn es gibt bestimmte Orte, die dafür vorgesehen sind, wie die Verzeichnisse /tmp oder /mnt . Allerdings kann man sich beim Aufsetzen einesServers diese Tatsache zunutze machen, indem man das System auf mehrere Festplatten oder Partitionen verteilt. Wer das geschickt anstellt, verhindert dadurch zum Beispiel ein unkontrolliertes Überlaufen des physikalischen Speichers oder kann im Fall eines Falles schnell die Benutzerdaten auf einen anderen Server verlagern.

Root (/)

An oberster Stelle des gesamten Unix-Verzeichnissystems befindet sich das Wurzelverzeichnis, die Root, dargestellt durch den Schrägstrich. Was im Root-Dateisystem steht, muss ausreichen, um ein Linux-System zu booten oder zu reparieren. Dazu sind Diagnose-, Backup- und Restore-Utilities ebenso erforderlich wie Konfigurationsdateien und Boot-Loader-Informationen . Wichtige Befehle wie etwamount müssen deshalb direkt erreichbar sein. Da aber im Root-Verzeichnis normalerweise nichts steht außer den Verzeichnissen, ist es zwingend, dass die entsprechenden Unterverzeichnisse samt den Programmen ebenfalls auf der Root-Partition vorhanden sind.

Sehr groß hat das Root-Dateisystem trotzdem nicht zu sein. Im Gegenteil: Es bietet sich an, dieses so klein wie möglich zu halten, um es eventuell von einem USB-Stick aus starten zu können. Außerdem ist eine kleine Root-Partition weniger anfällig für Beschädigungen, etwa infolge eines Systemabsturzes.

/bin

Das Verzeichnis /bin muss auf der Root-Partition sein. Dort stehen wichtige Unix-Befehle, die von allen Benutzern ausgeführt werden können. Diese Befehle müssen auch ausführbar sein, wenn kein weiteres Dateisystem gemountet ist.

Im /bin-Verzeichnis stehen unter anderem Systemkommandos für Dateirechte ( chgrp, chmod, chown ), zum Kopieren, Anlegen, Verschieben und Löschen von Verzeichnissen und Dateien, zum Einloggen und Mounten von Dateisystemen, die Shell sh sowie das Programm su , mit dem man die Benutzerkennung wechseln kann.

In /bin stehen außerdem die Archiv-Tools tar und cpio sowie die Pack-Programme gzipund gunzip . Mit diesen kann der Administrator ein System wiederherstellen, wenn das Root-Dateisystem intakt ist. Außerdem gibt es das Netzwerk-Statistik-Tool netstat sowieping zum Testen von Netzverbindungen. Soll es möglich sein, ein System über das Netzwerk zu reparieren, müssen auch ftp oder tfpt und die zugehörigen Utilities für eine FTP-Verbindung vorhanden sein.

/boot

Das Verzeichnis muss nicht auf der Root-Partition stehen. Es enthält die statischen Dateien des Boot-Loaders sowie alle sonst zum Hochfahren erforderlichen Dateien. Hier steht meist auch der System-Kernel, falls er nicht im Wurzelverzeichnis zu finden ist.

/dev

Auch das /dev -Verzeichnis beziehungsweise seine Inhalte werden auf der Root-Partition benötigt. In diesem Verzeichnis stehen zeichen- und blockorientierte Spezialdateien, über die der Zugriff auf Geräte wie Festplatten und DVD-Laufwerke oder Schnittstellen gesteuert wird.

/etc

Das /etc -Verzeichnis gehört ebenso auf die Root-Partition. Denn dort und in den darunterliegenden Verzeichnissen stehen die Dateien für die Systemkonfiguration. Manche der Verzeichnisse unterhalb von /etc müssen auf jedem Unix-System vorhanden sein, andere sind optional. Die Konfigurationsdateien für das X-Window-Subsystem, also den Grafikserver, finden sich im Verzeichnis /etc/X11 . Eventuell gibt es auch das Verzeichnis /etc/opt . Dort finden Sie in entsprechenden Unterverzeichnissen die Konfigurationsdateien von Paketen aus dem /opt -Verzeichnis.

/home

Die /home -Verzeichnishierarchie kann auf einer anderen als der Root-Partition stehen. Sie enthält in den Unterverzeichnissen die jeweiligen Home-Verzeichnisse der Benutzer. Die Namen der verschiedenen Home-Verzeichnisse sind mit dem Benutzernamen identisch. Das eigene Home-Verzeichnis ist das einzige, auf das ein Benutzer alle Zugriffsrechte hat. Hier kann er Verzeichnisse anlegen, Dateien löschen und eigene Konfigurationsdaten speichern.

Es bietet sich an, die /home-Hierarchie auf einer eigenen Partition, besser noch: Festplatte, anzulegen, und das aus verschiedenen Gründen: Sind keine Benutzerquotas vorhanden, kann ein Benutzer das gesamte System zum Überlaufen bringen. Ein weiterer Vorteil der physikalisch getrennten /home-Hierarchie: Man kann relativ einfach ein System aktualisieren und bindet die Benutzerverzeichnisse anschließend einfach wieder ein.

/lib, /lib32 und /lib64

Das /lib -Verzeichnis wiederum muss auf der Root-Partition stehen. Das gilt auch für die entsprechenden 32- oder 64-Bit-Bibliotheken, die in den entsprechenden Unterverzeichnissen stehen. Denn diese Verzeichnisse enthalten dynamische Bibliotheken und Kernel-Module, also Dateien mit Anweisungen und Definitionen, die von mehreren Programmen benötigt oder vom Kernel geladen werden. Die Bibliotheken sind nötig, um das System hochzufahren.

/media

Auch /media gehört auf die Root-Partition. Dort nimmt es aber kaum Platz weg, denn das Verzeichnis ist eigentlich leer. Es dient nur als Einhängepunkt für Disketten (/media/floppy ), CD- und DVD-Laufwerke ( /media/cdrom , /media/cdrecorder ,/media/dvd ) oder Zip-Disks ( /media/zip ). Auf Systemen mit mehr als einem gleichen Gerät können weitere Verzeichnisse existieren, die alle mit einer Zahl enden (zum Beispiel /media/cdrom0 und /media/cdrom1 für zwei CD-Laufwerke); allerdings sollte auch in solchen Fällen weiterhin der unqualifizierte Name ( /media/cdrom ) bestehen bleiben.

In manchen Distributionen gibt es auch direkt unterhalb des Wurzelverzeichnisses Einhängepunkte wie /cdrom . Das entspricht nicht dem FHS. Als Begründung gegen solche Verzeichnisse führen die FHS-Autoren an, dass durch Einhängepunkte im Wurzelverzeichnis gleich einige weitere Verzeichnisse auf der Root-Ebene stünden.

/mnt

Für das Verzeichnis /mnt gilt das Gleiche wie für /media : Es sollte ebenfalls auf die Root-Partition. Das Verzeichnis ist ebenso leer wie /media und dafür gedacht, zeitweilig ein Dateisystem einzuhängen. Das nutzt der Administrator etwa dazu, ein Backup machen oder Festplatten zu spiegeln. Die Unsitte, das Verzeichnis /mnt für das Mounten von Laufwerken zu nutzen, steht im Konflikt mit dieser Unix-Tradition.

/opt

Das Verzeichnis /opt wird für den Systemstart nicht benötigt und kann wie das /home -Verzeichnis auf eine andere Partition ausgelagert werden. Es dient dazu, zusätzliche Softwarepakete aufzunehmen, die nicht über die Paketverwaltung installiert werden. Diese stehen dann im Verzeichnis /opt/<Paket>/bin oder /opt/<Provider> , Manpages zu den Programmen werden für gewöhnlich unter /opt/<Paket>/share/man abgelegt. Konfigurationsdateien für diese Pakete werden unter /etc/opt abgelegt, veränderbare Daten in Programmen sind üblicherweise im Verzeichnis /var/opt installiert.

/proc

Das /proc -Verzeichnis wird im FHS nur im Anhang erwähnt. Es ist kein Standard-Unix-Verzeichnis, in Linux aber ist es der de-facto-Standard zum Verwalten von Prozess- und Systeminformationen. Andere Derivate machen das beispielsweise in /dev/kmem . Das /proc-Verzeichnis muss nicht auf der Root-Partition liegen.

/root

Der Administrator hat nicht nur alle Rechte, er hat auch sein Home-Verzeichnis nicht am gleichen Platz wie die gewöhnlichen Benutzer, sondern direkt unterhalb von / im Verzeichnis /root . Das Verzeichnis muss nicht zwingend auf der Root-Partition vorhanden sein. Dann aber ist sicherzustellen, dass es auf das Wurzelverzeichnis verweist, falls es nicht geortet werden kann.

/sbin

Dieses Verzeichnis muss wiederum auf der Root-Partition vorhanden sein. Es enthält Programme für die Systemadministration. Davon stehen zwar auch noch welche in den Verzeichnissen /usr/sbin und /usr/local/sbin .

Jedoch sind im /sbin -Verzeichnis im Gegensatz zu den beiden anderen Befehle, die zusätzlich zu den Kommandos im /bin -Verzeichnis für das Booten, die Datenrettung und -wiederherstellung erforderlich sind. Hier stehen zum Beispiel Programme wie halt zum Herunterfahren, fdisk zum Partitionieren und die fsck -Programme zum Prüfen der Dateisysteme. In den /usr/sbin – und /usr/local/sbin -Verzeichnissen stehen stattdessen Programme, die erst nach dem Mounten des /usr -Verzeichnisses gebraucht werden.

/srv

Das /srv -Verzeichnis muss nicht auf der Root-Partition stehen. Es enthält Daten für Dienste, die das System bereitstellt, zum Beispiel CGI-Skripts oder Daten eines Web- oder FTP-Servers. Meist sind die Daten nach dem Protokoll sortiert, also www, ftp, rsync oder cvs.

/tmp

Das /tmp -Verzeichnis muss nicht auf der Root-Partition enthalten sein. Es dient für Programme, die temporäre Dateien erzeugen. Selbst Benutzer haben ein Schreibrecht auf dieses Verzeichnis. Dateien dort zwischenzulagern bietet sich jedoch nicht an, denn der Posix-Standard empfiehlt, dass Daten im /tmp-Verzeichnis spätestens bei jedem Hochfahren des Systems gelöscht werden. Auf manchen Systemen wird das /tmp-Verzeichnis auch regelmäßig per cron-Job gelöscht.

/usr

Der zweitgrößte Bereich im Verzeichnissystem ist die /usr -Verzeichnishierarchie. Dieser Bereich muss nicht auf der Root-Partition stehen, denn wichtige Systembefehle stehen entweder unter /bin oder unter /sbin . In /usr hingegen stehen für jeden lesbare Daten; Host-spezifische oder andere veränderliche Daten werden hier nicht gespeichert. In der/usr -Hierarchie gibt es mehrere Verzeichnisse, die erforderlich sind:

  • In stehen die meisten Benutzerbefehle,
  • in stehen Header-Dateien für die Programmiersprache C,
  • enthält Bibliotheken,
  • enthält die Hierarchie der lokalen Maschine (und ist anfangs nach der Installation meist leer) mit den Unterverzeichnissen und
  • enthält nicht ganz so wichtige Utilities für den Administrator, die erst nach dem Hochfahren des Systems gebraucht werden, und
  • in stehen architekturunabhängige Daten wie Wörterbücher, Manpages oder Programmdokumentationen.

Je nach Ausbau des Systems gibt es noch weitere Unterverzeichnisse wie etwa/usr/X11R6 mit dem X-Window-System, /usr/games mit Spielen und /usr/src mit Quellcode. Auch können auf älteren Systemen aus Kompatibilitätsgründen verschiedene symbolische Verknüpfungen auf Unterzeichnisse von /var vorhanden sein, etwa/usr/spool als Verknüpfung zum Verzeichnis /var/spool . Grund für die Umschichtung: Auf das Verzeichnis /usr wird oft zugegriffen. Es soll aber durch Schreiben und Löschen temporärer Daten nicht fragmentiert werden, da sonst der Durchsatz leidet.

/var

In /var finden Sie Dateien mit variablen Daten. Auch dieses Verzeichnis muss nicht auf die Root-Partition. Unter /var stehen beispielsweise Spool-Verzeichnisse für Mail-Postfächer der Benutzer oder Druckaufträge, Log-Dateien (etwa die Datei/var/log/messages mit Systemmeldungen) und auch einige andere temporäre Dateien. In die /var -Verzeichnisstruktur werden im Betrieb all die Daten geschrieben, die früher unter /usr ihren Platz fanden.

Die Verzeichnishierarchie /var sollte man auf einer eigenen Partition unterbringen, eben weil darin so viele veränderliche Daten enthalten sind. Wer das nicht will oder kann, sollte zumindest diesen Teil der Verzeichnishierarchie nicht auf der gleichen Partition wie die Root-Partition beherbergen. Denn es kann schnell zum Überlaufen der Partition kommen, wenn zum Beispiel der Mail-Transport ständig Fehler produziert und die Log-Dateien bis an den Rand der Partition vollschreibt.

Empfehlungen für ein Partitionsschema

Um ein Linux-System zu partitionieren, gibt es mehrere Möglichkeiten. Wichtig ist: Die Root-Partition „/“ muss immer physikalisch die Verzeichnisse /bin , /dev , /etc , /lib (/lib32 und /lib64) und /sbin enthalten. In Debian geht man von etwa 150 bis 250 MByte Platzbedarf für diese Verzeichnisse aus.

Ins /tmp-Verzeichnis können Benutzer schreiben. Man kann es unter anderem für Images nutzen, die auf CD, DVD oder Blu-ray geschrieben werden sollen. Manche dieser Programme nutzen auch das /tmp -Verzeichnis, um vorübergehend darin eigene Daten zu speichern. Wer solche Brennprogramme nutzt, sollte daher den Platz entsprechend einplanen und zirka 1 bis 20 GByte für das /tmp -Verzeichnis reservieren. Wer nicht mit Brennprogrammen arbeitet, kommt mit wesentlich weniger Platz für das temporäre Verzeichnis aus. Die Debian-Installationsanleitung spricht in dem Fall von 40 bis 100 MByte Platzbedarf.

Die /usr-Verzeichnishierarchie ist der Teil des Dateisystems, der zunächst den meisten Platz benötigt. Laut Debian-Installationsanleitung sollte man für eine großzügige Arbeitsplatz- oder Serverinstallation 4 bis 6 GByte reservieren.

Die /var -Verzeichnishierarchie enthält veränderliche Daten. Hier werden Mails und Softwarepakete zwischengespeichert, Log-Dateien geschrieben und Datenbanken aufbewahrt. In Debian wird das Unterverzeichnis /var/www FHS-unkonform anstelle von/srv/www noch für Webseiten genutzt. Die Größe von /var hängt daher stark von der Nutzung des Systems ab. Der Platzbedarf kann variieren von 30 MByte bis zu mehreren GByte.

Unter /home lagern die Verzeichnisse der Benutzer. Dementsprechend hängt die Größe von der Anzahl der Systembenutzer ab. Laut Debian-Installationsanleitung sollte man mindestens 100 MByte reservieren. Das ist heutzutage allerdings eher lächerlich angesichts der Menge am MP3-Dateien, Bildern und Filmen, die Benutzer auf dem System speichern. Hier kann die Empfehlung nur lauten: Stellen Sie möglichst viel Platz zur Verfügung.

Zwar kommt man generell mit einer Festplatte und einer Partition aus. Geschickter ist aber der Einsatz von mindestens zwei Festplatten. Eine Platte kann das System enthalten, die andere die Home-Verzeichnisse. So kann man schnell die /home -Verzeichnishierarchie in ein anderes System übernehmen. Die Home-Verzeichnisse können Sie außerdem mit dem Logical Volume Manager verwalten; das hat den Vorteil, dass Sie bei Bedarf zur Verzeichnisstruktur einfach weitere Partitionen hinzufügen können.

Auf der Systemplatte wiederum sollten Sie zumindest für /var und /tmp eigene Partitionen definieren – für /tmp , weil alle in das Verzeichnis schreiben dürfen, für /va r aus dem bereits erwähnten Grund: Läuft die Partition voll, etwa weil der Rechner mit Spam geflutet wird, reagiert zumindest der Rest des Systems noch. Tipp: Wer so etwas zu befürchten hat, kann auch das Verzeichnis /var/mail auf eine eigene Partition auslagern.

Eine weitere Partition können Sie für den Swap-Speicher vorsehen. Der Zwischenspeicher kann zwar auch einfach in einer Datei liegen. Effizienter ist es allerdings, diesem eine eigene Partition zu gönnen. Es herrschen verschiedene Meinungen, ob der auf der Systemplatte oder woanders liegen sollte: Einige sind der Ansicht, Swap-Speicher und System sollten auf unterschiedlichen SCSI- oder IDE-Kanälen liegen. Als Größenempfehlung gibt es in Linux-Kreisen die Pi-mal-Daumen-Regel: Die Swap-Partition sollte so groß sein wie der Arbeitsspeicher.

Aktuelles Projekt UsrMove

Viele bekannte Distributionen wie Fedora 17 ziehen aktuell einige Verzeichnisse um. Hierbei handelt es sich um /bin , /sbin , /lib und /lib64 , die in das Verzeichnis /usrwandern. Vorgeschlagen wurde diese Aufräumaktion der Verzeichnisstruktur von den Entwicklern von Fedora, Distributionen wie Gentoo und openSUSE (vorgeschlagen für Version 12.2) wollen folgen.

Mit der als UsrMove bekannten Initiative soll der root-Baum aufgeräumter wirken, das Teilen von /bin und /usr/bin ist auch mehr verwirrend als nützlich. Die Kompatibilität zur bisherigen Struktur wird weiterhin durch symbolische Links aufrechterhalten. Wann und ob die veränderte Verzeichnisstruktur in den FHS-Standard einfließt, ist derzeit nicht bekannt.

404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie
063404 akkus für BOSE SOUNDLINK Mini I serie
C32N1305 akkus für ASUS Zenbook Infinity UX301LA Ultrabook

Über 35 Jahre PC-Geschichte im Zeitraffer

In den vergangenen 35 Jahren hat der PC zahlreiche Entwicklungsschritte durchlaufen. PC-Welt blickt zurück und lässt Sie 30 der denkwürdigsten Momente der PC-Geschichte erneut erleben.

Blickt man 35 Jahre in die Vergangenheit, also in das Jahr 1983, kommt einem die damalige PC-Technologie nahezu steinzeitlich vor. Umso mehr bekommt man aber auch ein Gespür dafür, wie dramatisch sich der PC von damals bis heute weiterentwickelt hat – und mit Musicplayern bis hin zu Smartphones immer stärkeren Einfluss auch im Bereich der Unterhaltungselektronik gewinnen konnte.

Wir blicken zurück auf 35 Jahre PC-Geschichte und haben 30 der denkwürdigsten und markantesten Ereignisse seit 1983 herausgepickt. Sie denken, wir haben etwas wichtiges in unserer Auflistung vergessen? Lassen Sie es uns in Form eines Kommentares unter diesem Artikel wissen! Hinweis: Alle Abbildungen stammen von unseren US-Kollegen von der PC-World.

1983

Debut des Compaq Portable: Nur ein Jahr zuvor gegründet, wagt Compaq den ersten Schritt auf den Markt mit einem neuen PC – das erste, tragbare IBM-kompatible System und damit ein Vorläufer des modernen Mobile Computings. Compaq wurde daraufhin zu einer der größten Firmen in der PC-Industrie – wurde zwei Jahrzehnte später allerdings von HP aufgekauft.

1984

Gründung von PCs Limited: Ein College-Student namens Michael Dell gründet eine kleine Firma in seinem Zimmer im Studentenwohnheim: Dell. Er baut individuell zusammenstellbare PCs. Sein Unterfangen entwickelt ich zu einer der größten Firmen in der Branche und weitet sich auch auf Drucker, Server und Netzwerkgeräte aus.

1985

Windows 1.0 wird veröffentlicht: Erstmals munkelte man schon zwei Jahre zuvor über das mögliche Release einer Software namens Windows. Auch bis ins kommende Jahr hinein schenkt kaum jemand dem Programm Beachtung – niemand ahnt zu diesem Zeitpunkt, dass dieser eher plumpe, grafische Dateimanager sich einmal zu dem größten und weitesten verbreiteten Betriebssystem der Welt entwickeln würde.

1986

Intel bringt den 386er: Der erste 32-bit-Prozessor, der 386er, kann auf scheinbar endlosen Speicher zugreifen – nun, zumindest für die damaligen Verhältnisse fühlte es sich ziemlich endlos an. Der 386er ist das Zugpferd für eine neue Generation von Software, darunter auch überarbeitete Versionen von Windows.

1987

Startschuss für VGA: Video Graphics Array (VGA) kommt zusammen mit IBMs PS/2-Anschluss auf den Markt. VGA überlebt, wird ein neuer Standard und der kleinste gemeinsame Nenner von Windows, Grafikkarte und Monitor. Auch heute noch besitzen die meisten Monitore einen VGA-Anschluss.

1988

EISA taucht auf: Kreiert als Antwort auf IBMs hauseigenes Micro-Channel-Interface, dient EISA in erster Linie dazu, ältere ISA (PC-AT)-Erweiterungskarten zu unterstützen. EISA beschert PC-Bauern einigen Erfolg, bis es von moderneren Standards (wie VESA, PCI und AGP) abgelöst wird.

1989

HTML wird erfunden: Tim Berners-Lee entwickelt die Programmiersprache HyperText Markup Language – kurz HTML. Ein Jahr später benutzt er HTML um den Kern dessen zu bilden, das später das World Wide Web wird.

1990

Windows 3.0 kommt auf den Markt: Windows 3.0 hat sich vom einfachen, grafischen Dateimanager zu der verbreitetsten Art und Weise entwickelt, wie Menschen mit ihrem PC interagieren. Windows 3.0 verfügt über umwerfende 16 MB Speicher. Scharenweise Software-Verkäufer haben das neue Betriebssystem in ihren Händlerregalen stehen.

1991

Geburt des PCI-Anschlusses: Der Peripheral Component Interconnect (kurz PCI), entwickelt von Intel, erleichtert PC-Herstellern und -Nutzern das Leben beachtlich. PCI (der Vorläufer von PCI Express) erlaubt die automatische Konfiguration von Interfacekarten, verbessert die Geschwindigkeit und erweitert die generelle Kompatibilität.

1992

AMD darf geklonte x86-CPUs verkaufen: Zehn Jahre zuvor, im Jahr 1982, lizenzierte Intel den Hersteller AMD, „geklonte“ x86-Chips zu produzieren. Im Jahr 1986 löst Intel diese Vereinbarung wieder auf, doch AMD fechtet diese Entscheidung an und bricht einen jahrelangen Rechtsstreit vom Zaun. 1992 geht dieser Streit zu Ende und AMD bekommt vor Gericht das Recht zugesprochen, auch weiterhin x86-CPUs zu produzieren und zu verkaufen. AMD als neuer Konkurrent bringt Intel schlussendlich dazu, seinen Pentium 4 zugunsten der leistungsstärkeren Core-CPUs abzustoßen.

1993

Veröffentlichung des Mosaic-Webbrowsers: Entwickelt am National Center for Supercomputing Applications, ist der Mosaic Webbrowser zwar nicht der erste grafische Browser, wird aber schnell zum beliebtesten. Das macht Mosaic zum Vorreiter aller modernen Webbrowser. Mosaics Leitender Programmierer, Marc Andreessen, gründet später Netscape.

1994

Start von Windows 95: Windows 95 hat sich mittlerweile vom chancenlosen DOS-Konkurrenten zu einem vollständigen Betriebssystem gewandelt. Mit der Veröffentlichung von Windows 95 wird MS-DOS offiziell für tot erklärt. Dank cleverer Programmierung, beherrscht Windows 95 sowohl 32- als auch 16-bit-Anwendungen. Eine der größten Innovationen – die Nutzer am Anfang eher noch verwirrt – ist das Startmenü.

1995

Die ersten bedeutenden 3D-Chips: Die ersten 3D-Beschleuniger, die auch wirklich für PC-Gaming genutzt werden konnten – Rendition Vérité 1000 und 3dfx Voodoo – markieren eine neue Ära von Grafikkarten. Ihre Entwicklung bedrängt die bis dato weit verbreiteten VGA- und „Windows Accelerator“-Karten.

1996

USB taucht auf: Im Gegensatz zu Serial- und Parallel-Ports, die gerne mal wählerisch sind, bedeutet USB den Schritt hin zu selbstkonfigurierenden Geräten und macht das Anschließen von Tastaturen, Mäusen und Kameras an den PC zu einem echten Kinderspiel. Zudem entsteht ein komplett neuer Markt für USB-Flash-Speicher.

1997

DVD-Player und -Disks im Handel: DVD-Laufwerke werden Bestandteil vieler PCs, lösen so die ausgedienten CD-Laufwerke ab und werden nahezu überall auf der Welt zum neuen Standard für optische Laufwerke – ein Schritt, den spätere Blu-ray-Laufwerke nicht schaffen.

1998

DMCA wird verabschiedet: In den USA wird der Digital Millennium Copyright Act verabschiedet – ein umstrittenes Gesetz, das unter anderem die Rechte von Copyright-Inhabern stärkt. Es kriminalisiert die Produktion und Verbreitung von Technologien, Geräten und Diensten, die den Kopierschutz eines Produktes knacken – auch, wenn dabei das Copyright selbst gar nicht verletzt wird. In der Europäischen Union wurde im Jahr 2001 mit der Richtlinie 2001/29/EG ein ähnliches Gesetz verabschiedet.

1999

Ratifizierung der 802.11a/b-Standards: Der erste 802.11-Standard für kabellose Netzwerke wird eingeführt – parallel dazu wird die Wi-Fi-Alliance gegründet, um Produkte auf Basis dieses Standards zu zertifizieren und bewerben. Wi-Fi entwickelt sich später zu einer der Netzwerk-Technologien mit der größten Verbreitung und Akzeptanz und ist sowohl bei Firmen, als auch bei Privatnutzern ausgesprochen beliebt.

2000

Electronic Arts veröffentlicht „Die Sims“: Erdacht von Will Wright wird im PC-Spiel „Die Sims“ der Alltag virtueller Personen simuliert. Auch, wenn das Gameplay eher steril und ein wenig einschläfernd ist, besteigt „Die Sims“ schnell den Thron des meistverkauften Computerspiels aller Zeiten und verschlingt Unmengen an Spielzeit, während die Spieler versuchen, den Alltag ihrer virtuellen Menschen kontinuierlich zu verbessern.

2001

Windows XP kommt: Windows XP vereint Windows 2000 und ME in einem 32-bit-Betriebssystem und wird so zu dem erfolgreichsten OS in der Geschichte von Microsoft.

2002

Debut der Tablet-PCs: Auch, wenn schon vorher Tablets existiert haben, erlangen sie erst 2002 mit Microsofts Windows XP Tablet PC Edition größere Aufmerksamkeit in der Bevölkerung. Zwar schaffen sie es noch nicht, sich auf dem Markt zu etablieren, ganz im Gegenteil sind sie ein ziemlicher Flop. Sie legen aber den Grundstein für die aktuellen Windows-8-Tablets.

2003

AMD bringt die erste 64-bit-x86-CPU: AMD kommt Intel zuvor und bringt als erster Konzern die Athlon-64-CPU auf den Markt, die sowohl 64-bit-Register, als auch 64-bit-Speicher in ihrer Architektur bietet. Microsoft startet daraufhin die Entwicklung einer Windows-Version mit 64-bit-Unterstützung – Intel bringt sein eigenes x86-64-Produkt erst zwei Jahre später auf den Markt.

2004

Verkaufsstart des Intel Pentium M: Entwickelt von Intels Design-Team in Israel, ist die Pentium-M-CPU eine stark modifizierte Version des Pentium 3 mit Fokus auf Leistungseffizienz statt hoher Taktung – und damit ein starker Gegensatz zu Intels Pentium 4. Der M-Prozessor wird zum Vorläufer der Core-Reihe des Herstellers.

2005

Apple wechselt zu Intel-CPUs: Bisher hatte sich Hersteller Apple bei seinen Heim-PCs auf CPUs von PowerPC verlassen. Jetzt allerdings stehen sie mit dieser Wahl leistungstechnisch vor einer Einbahnstraße – und wechseln daher zu Intels Prozessoren. Auch Apples Betriebssysteme und Software werden nun nativ an die Intel-Architektur angepasst.

2006

Intel bringt Core 2 Duo auf den Markt: Der Chip-Hersteller Intel trägt seine Pentium-4-Architektur mit der neuen Core 2 Duo CPU endgültig zu Grabe. Obwohl der neue Prozessor sogar niedriger getaktet ist als sein Vorgänger, schafft es Core 2 Duo dank effizienterem Befehlsvorrat, seinem Konkurrenten AMD die Leistungskrone wieder zu entreißen. Core 2 Duo braucht deutlich weniger Energie und produziert weniger Abwärme als AMD-Prozessoren.

2007

Premiere des Apple iPhone: Apples iPhone erfindet Smartphones, entwickelt eine unglaubliche Beliebtheit und zwingt Konkurrent Google dazu, selbst Fuß im Bereich mobile Betriebssysteme zu fassen. Auch Microsoft erkennt das Potenzial und bringt später Touch-Funktionen und vereinfachte Nutzersteuerung in seine PC- und mobilen Betriebssysteme ein.

2008

Laptops verkaufen sich besser als Desktops: Mobilität wird in diesem Jahr zum primären Fokus für Computerhersteller – insbesondere, weil die starke Verbreitung von Wi-Fi und die sinkenden Preise immer mehr Menschen dazu bringen, sich einen Laptop zuzulegen. In manchen Haushalten ist der Laptop nun der einzige vorhandene PC.

2009

Release von Windows 7: Nach dem Versagen von Windows Vista will Windows 7 das Comeback sein, das Microsoft so dringend braucht. Mit dem schnittigen Design und der größeren Bedarfssteuerung will Microsoft nahtlos an den Erfolg von Windows XP anknüpfen. Windows 7 vollführt außerdem den Wechsel von 32-bit- zu 64-bit-Computing: Es werden deutlich mehr 64-bit-Versionen verkauft, als 32-bit-Versionen des Betriebssystems.

2010

Apple bringt das iPad: Im Gegensatz zu Microsofts vergeblichen Mühen, interessante Versionen seiner Tablet-PCs an den Mann zu bringen, schafft es Apple, den Markt quasi über Nacht zu dominieren. Der Schlüssel zum Erfolg: Das iPad ist kein PC, der sich wie ein Tablet verhält, sondern ein Tablet durch und durch. Zudem haben Nutzer die Möglichkeit, zwischen zahlreichen Apps für wenig bis gar kein Geld zu wählen – und das Apps-Ökosystem vergrößert sich nach wie vor.

2011

Intel entwickelt Ultrabooks: Angestachelt durch das Versagen der PC-Hersteller, Apples MacBook Air erfolgreich zu kopieren, erdenkt Intel grobe Richtlinien für ultraportable PCs: Die Ultrabook-Standards. Mit einer starken Finanzspritze hilft der Konzern Firmen dabei, die neuen Laptops zu entwerfen und zu bauen. Die Verkäufe von Ultrabooks stellen sich bislang zwar als zweischneidiges Schwert heraus, vom Markt verschwinden werden die ultraflachen und ultraleichten Laptops aber vorerst nicht.

2012

Debut von Windows 8: Das zwiespältigste Betriebssystem seit Windows 95 ist Windows 8. Es führt den Microsoft Store für Apps ein und wirft das Startmenü zugunsten von einem Startbildschirm über Bord, der das gesamte Display belegt. Windows 8 schafft es nie von den Anwendern geliebt zu werden. Das gelingt erst wieder Windows 10.

404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie
063404 akkus für BOSE SOUNDLINK Mini I serie
C32N1305 akkus für ASUS Zenbook Infinity UX301LA Ultrabook