Ratgeber: Was ist was bei den Netzwerkprotokollen

Es gibt einige hundert verschiedene Netzwerkprotokolle für die Kommunikation und den Austausch von Anwendungen. Wichtig sind aber nur einige wenige wie IP, SMTP oder DHCP. Unser Beitrag erläutert, welche Protokolle für die Datenübertragung im Netzwerk/Internet die größte Rolle spielen.

Wenn von Netzwerkprotokollen die Rede ist, fällt rasch der Begriff OSI-Schichtenmodell oder OSI-Referenzmodell. OSI steht für Open Systems Interconnection. Das Referenzmodell ist die Designgrundlage von Kommunikationsprotokollen in Netzwerken. Das Modell kennt sieben unterschiedliche Schichten. Empfänger und Absender müssen nach bestimmten Regeln arbeiten, die in Protokollen festgeschrieben sind. Nur so können sie sich einigen, wie Daten weiterverarbeitet werden sollen.

Die Schichten des OSI-Modells kann man grob in Transport- und Anwendungsschichten unterteilen. Zu den transportorientierten Schichten gehören die ersten vier: Hier finden sich Protokolle wie IP, IPsec, IPX, SPX, TCP und UDP. In den Anwendungsschichten sind andere Protokolle zu Hause, beispielsweise FTP, HTTP, HTTPS und SMTP. Die folgende Übersicht bringt Ihnen kurz und prägnant die wichtigsten Netzwerkprotokolle näher.

Appletalk und Ethertalk

Auf Macintosh-Rechnern ist Appletalk standardmäßig vorhanden. Es handelt sich dabei nicht um ein einzelnes Netzwerkprotokoll, sondern um eine Gruppe von ihnen – etwa für den Zugriff auf Dateien oder auf Drucker. Per Appletalk kann man notfalls sogar ohne Ethernet-Kabel eine Verbindung zwischen zwei Computern aufbauen: über die serielle Schnittstelle. Die Verbindung erfolgt dann über Druckerkabel, die auf Macintosh-Rechnern ebenfalls seriell angeschlossen werden. Mehrere Rechner kann man über ein Gerät verbinden, das die Netzverbindung durchschleift. Werden Mac-Rechner über Ethernet verbunden, spricht man von Ethertalk.

Appletalk wurde mit der Betriebssystemversion Mac OS X 10.6 zugunsten IP-basierter Netzwerke aufgegeben. Das Finden von Geräten und Servern im Netzwerk übernimmt beispielsweise Bonjour .

DHCP

DHCP ( Dynamic Host Configuration Protocol ) vereinfacht die Vergabe von IP-Adressen in einem Netzwerk. Benötigt wird dazu mindestens ein DHCP-Server . Der verteilt IP-Adressen an die verschiedenen Clients. Auf Serverseite wird ein Adressraum festgelegt. IP-Adressen aus diesem Pool werden an die Clients vergeben, sobald sie den DHCP-Server darum bitten. Damit das geschieht, muss die Netzwerkkonfiguration der Clients entsprechend eingestellt sein. Das ist heutzutage standardmäßig bei Betriebssystemen wie Linux und Windows der Fall, sodass sich ein Administrator nicht um die Einstellungen der Clients kümmern muss.

Ein DHCP-Server weist IP-Adressen automatisch, dynamisch oder manuell zu. Automatisch können Adressen nur einmal zugewiesen werden. Dabei erhält ein Client, der anhand der MAC-Adresse seiner Netzwerkschnittstelle identifiziert wird, bei der ersten Anmeldung im Netzwerk eine freie IP-Adresse. Die wird an die MAC-Adresse gebunden, und der Client bekommt sie auch künftig bei jeder Anmeldung. Im Gegensatz dazu werden dynamisch verteilte IP-Adressen vom Server nach einer bestimmten Zeit wieder einkassiert.

Die letztere Methode sollte unbedingt im größeren Netzwerk genutzt werden, da dort sonst die IP-Adressen knapp werden könnten. Vorsicht: Das kann sogar in kleineren Netzwerken geschehen, falls man öfter mal virtuelle Umgebungen wie VMware Workstation , Parallels Desktop oder Citrix XenServer einsetzt. Diese erzeugen je nach Konfiguration mehrere virtuelle Netzwerkschnittstellen. Die umständlichste Methode, die aber durchaus zum Einsatz kommt, ist die manuelle Zuweisung von IP-Adressen. Hier kann ein Administrator einem oder mehreren Clients eine ganz bestimmte Adresse zuweisen – etwa einem Router oder einem Netzwerkdrucker.

Die Anfrage seitens der Clients erfolgt mittels Broadcast. Damit wird getestet, wie viele DHCP-Server im Netzwerk vorhanden sind. Der angesprochene Server verschickt als Antwort einen Konfigurationsvorschlag. Akzeptiert der Client diesen, sendet er eine DHCP-Anforderung (DHCP Request). Der Server wiederum schickt im Gegenzug die IP-Adresse und die erforderlichen Parameter. Am Ende der Sitzung schickt der Client eine Freigabe zurück an den Server und meldet so, dass die IP-Adresse nicht mehr benötigt wird (DHCP Release).

FTP, FTPS und SFTP

FTP ( File Transfer Protocol ) ist das Standardformat für den Dateiaustausch über das Internet. Eine FTP-Sitzung erfolgt standardmäßig über den Port 21. Das Protokoll wird meist für den Zugriff auf Dateiarchive genutzt. Dabei können in der Regel auch Nutzer ohne Konto auf den Internetserver zugreifen (anonymous FTP). In anderen Fällen erfolgt die Authentifizierung mittels Benutzername und Kennwort. FTP kennt fast 80 Befehle. Der Zugriff auf die Server erfolgt über grafisch orientierte Programme wie Filezilla, über einen Internet-Browser oder direkt über eine Shell. Dazu gibt der Benutzer auf der Konsole einfach „ftp IP-ADRESSE“ oder „ftp HOST“ ein. Als Eingabeprompt erscheint meist „ftp>“. Eine Liste aller Befehle erhalten Sie dann mit „?“ oder „help“. Eine kurze Erklärung zu den einzelnen Befehlen gibt es mit „? BEFEHL“ oder „help BEFEHL“. Wichtige Kommandos sind:

cd : wechselt das Verzeichnis

close : kappt die Verbindung zum FTP-Server

del : löscht eine Datei auf dem FTP-Server

dir : listet den Verzeichnisinhalt

exit : beendet die FTP-Sitzung

get : Datei herunterladen

ls : listet wie dir Verzeichnisse

mdel : löscht mehrere Dateien auf dem FTP-Server

mget : mehrere Dateien herunterladen

mput : sendet mehrere Dateien zum FTP-Server

open : stellt eine Verbindung zu einem FTP-Server her

put : sendet eine Datei zum FTP-Server

pwd : zeigt das aktuelle Verzeichnis auf dem FTP-Server an

quit : beendet wie exit die FTP-Sitzung

user : sendet Benutzeridentifikation

Daten, die per FTP übertragen werden, sind nicht verschlüsselt. Wer eine sichere Methode mit FTP nutzen will, hat zwei Möglichkeiten: Er kann FTP über SSL (FTPS) nutzen; hierbei wird die FTP-Verbindung verschlüsselt. Oder man überträgt Daten per Secure FTP (SFTP); dann wird die FTP-Verbindung über SSH getunnelt. Man kann diese Möglichkeiten einzeln nutzen, oder wechselt gleich zu SSH als Übertragungsprotokoll. Denn dort ist SFTP als Subsystem seit der Version 2 enthalten, und man spart sich auf dem Host einen Server.

HTTP und HTTPS

HTTP ( Hypertext Tranfer Protocol ) ist das zugrunde liegende Protokoll für das World Wide Web. Es läuft über den Port 80 und übermittelt Daten von einem Webserver zum Web-Browser und umgekehrt; als Transportprotokoll wird – wie bei FTP – TCP/IP verwendet. Dabei werden HTML-Dokumente übertragen, aber ebenso auch Bilder, Audio- und Videodaten. Wie und womit diese zusätzlichen Daten dargestellt werden, wird über die MIME-Typen auf dem Client ermittelt. HTTP gibt es in den Versionen 1.0 und 1.1. Diese unterscheiden sich in einigen Funktionen. So wird etwa in Version 1.0 die Verbindung beendet, sobald die Daten übertragen wurden. In Version 1.1 kann man mit dem Header-Eintrag keep-alive die Verbindung aufrechterhalten. Version 1.1 kann darüber hinaus abgebrochene Übertragungen wieder aufnehmen.

Für verschlüsselte Übertragungen steht HTTPS zur Verfügung – standardmäßig läuft die Kommunikation über den Port 443. Das von Netscape entwickelte Protokoll schiebt eine Schicht zwischen HTTP und TCP. HTTPS ist identisch mit HTTP; die Verschlüsselung erfolgt mittels TLS (Trasnport Layer Security), bis dato als SSL (Secure Socket Layer) bekannt. In HTTPS findet zunächst eine gesicherte Authentifizierung von Server und Client statt. Dann wird ein Sitzungsschlüssel erzeugt und ausgetauscht, der zum Verschlüsseln der übertragenen Daten dient. Wer einen HTTPS-Server einsetzen will, benötigt SSL-Routinen. Diese werden beispielsweise im Apache-Webserver als Modul geladen. Weiterhin benötigt man ein digitales Zertifikat, das üblicherweise von einer Zertifizierungsstelle ausgestellt wird. Die Kosten dafür betragen zwischen rund 40 US-Dollar bis über 1000 US-Dollar pro Jahr. Einige Organisationen wie Startcom und Cacert stellen auch kostenlos Zertifikate aus.

IP, IPv4 und IPv6

IP ( Internet Protocol ) ist die Grundlage des Internets. Dieses selbst besteht aus Backbone-Routern und weiteren Netzen in Universitäten und bei Providern. Sie können weitere Subnetze bilden und in Form von IP-Adressen an Kunden vergeben. Über IP werden die Daten zwischen den Routern gesteuert. Hauptaufgabe des IP ist es, aus den Informationseinheiten kleine Pakete zu schnüren und diese über verschiedene Wege ans Ziel zu liefern – also von einer IP-Adresse zu einer anderen. Dort angekommen, werden sie vom IP-Protokoll wieder in der richtigen Reihenfolge zusammengesetzt.

Die IP-Adressen der Version 4 (IPv4) werden aus vier Oktetten zusammengesetzt. Die vierte Version des Internetprotokolls war die erste, die weltweit eingesetzt wurde. Seither werden die Adressräume knapp. Die beiden letzten freien Adressblöcke wurden im Februar dieses Jahres vergeben. Damit können aus dem IPv4-Adress-Pool mit über vier Milliarden eindeutigen IP-Adressen keine weiteren verteilt werden.

Der direkte IPv4-Nachfolger ist die Version 6, kurz: IPv6 . Adressen haben in dieser IP-Version eine Länge von 128 Bit statt wie bisher 32 Bit. Die aktuellen Betriebssysteme beherrschen diese Form der Adressierung bereits. Das wundert weiter nicht, da IPv6 bereits seit 1998 als Standard gilt. Nach und nach wird diese neue 6er-Version die alte 4er ablösen, da sie wesentlich mehr Adressen ermöglicht: statt zirka 4,3 Milliarden (2 hoch 32) beherrscht IPv6 ungefähr 340 Sextillionen (2 hoch 128). Der weiche Übergang wird außerdem dadurch erreicht, dass IPv6 zum bestehenden IPv4 hinzugeschaltet wird.

Darüber hinaus bietet IPv6 weitere Vorteile: Das Verschlüsselungsverfahren IPsec ist integriert, und die Adressen können automatisch so konfiguriert werden, dass Verfahren wie DHCP überflüssig werden (der Fachmann spricht von zustandsloser Konfiguration). Überflüssig wird auch die Network Adress Translation (NAT): Mit IPv6 erhalten Anwender global eindeutige IP-Adressen, sodass jedes Gerät vom Server bis zum NAS , vom Tablet bis zum Smartphone weltweit seine eigene IP-Adresse erhalten kann – eine Adressumschreibung für das eigene Netzwerk ist damit überflüssig.

IPv6-Adressen werden hexadezimal notiert. Die Zahl ist in acht Blöcke à 16 Bit unterteilt. Die Blöcke werden durch Doppelpunkte getrennt, führende Nullen und Nullen-Blöcke können weggelassen werden. Damit es keine Verwechslungen mit Port-Nummern gibt, werden IPv6-Adressen im Browser in eckige Klammern gesetzt: http://[1020:de2:74a1:::9088:7890:abcd]:631/.

IPX und SPX

IPX ( Internet Protocol Exchange ) und SPX (Sequenced Packed Protocol Exchange) wird von NetBIOS zur Datenübertragung genutzt. Die Protokolle spalten ähnlich wie IP die Daten in Pakete auf und fügen sie am Ziel wieder zusammen. SPX ist eine Erweiterung zu IPX, die auch auf Fehler prüft. Beide benötigen das Netware-Betriebssystem der FirmaNovell .

NetBIOS und NetBEUI

NetBIOS ( Network Basic Input/Output System ) regelt als Standardschnittstelle auf der Transportschicht den Zugriff auf im Netzwerk verfügbare Geräte wie Drucker, Scanner und Streamer. Es wurde 1983 für IBM entwickelt und enthält unter anderem Funktionen zur Namensauflösung. NetBIOS ist auf Netzwerkkarten implementiert und leitet Anfragen vom Benutzer ins Netzwerk weiter.

Das auf NetBIOS aufbauende Transportprotokoll heißt NetBEUI (NetBIOS Extended User Interface). Es ist eine Microsoft-Erweiterung von NetBIOS. NetBEUI wurde für DOS-PCs entwickelt und war unter Windows bis zu Version 2000 und ME der Standard. Das Protokoll ist klein und schnell. Da es auf MAC-Adressen aufsetzt, kommt es ohne IP-Adressen aus; Quell- und Zielcomputer werden über den Host-Namen identifiziert, der maximal 15 Zeichen lang sein darf. Allerdings ist es nicht Routing-fähig, in größeren Netzwerken nicht mehr zeitgemäß und seit Windows Vista nicht mehr in den Microsoft-Produkten verfügbar.

SMB

SMB ( Server Message Block ) oder auch LAN Manager ist hauptsächlich ein Protokoll für Datei und Druckdienste. Es läuft über NetBIOS, NetBIOS over TCP/IP und direkt im TCP/IP-Protokollstapel . SMB implementiert ein NFS -ähnliches Dateisystem und ist so unabhängig vom Dateisystem des Servers. Das macht sich zum Beispiel das Samba-Projekt zunutze, eine freie Implementierung des SMB-Protokolls unter Unix und unixoiden Systemen wie Linux. Mit Samba können damit in heterogenen Umgebungen Windows-Server durch preiswertere Linux-Systeme ersetzt werden.

SMB wurde 1983 bei IBM entwickelt. Anschließend haben Firmen wie Microsoft, SCO und das Samba-Projektteam das Protokoll verbessert. Derzeit aktuell ist die SMB-Version 2, die von Samba ab der Version 3.5 unterstützt wird.

SMTP

SMTP ( Simple Mail Transfer Protocol ) ist das Protokoll für das Versenden von E-Mail. Das Protokoll aus der Anwendungsschicht ist auf dem Port 25 zu finden. Alternativ geht heute der Mail-Versand auch über den Port 587 vonstatten; dort werden für dem System bekannte Benutzer Mails entgegengenommen und weitergeleitet. Das soll unerwünschten Spam verhindern. Vorrangig wird SMPT zum Absenden von E-Mails genutzt; für den Mail-Empfang dienen Protokolle wie POP3 und IMAP . Ein SMTP-Server steht entweder im lokalen Netzwerk zur Verfügung oder ist über externe Server – bei einem Provider auf einer eigenen Internetpräsenz – erreichbar. Im Internet sorgen dann sogenannte Mail Transfer Agents (MTA) für das weitere Übermitteln der Mails.

SMTP-Server kommunizieren untereinander in Klartext. Da SMTP textbasiert ist, kann man zum Beispiel auch ganz einfach per Telnet eine Mail verschicken. Das ist auch der Grund, warum Mail-Adressen nicht als verlässlich gelten. Denn in Telnet ist, wie in anderen Programmen, der Name des Empfängers ebenso frei wählbar wie der des Absenders.

TCP/IP

TCP/IP ( Transmission Control Protocol/Internet Protocol ) heißt deshalb so, weil TCP in den meisten Fällen auf dem Internetprotokoll aufbaut. TCP/IP wurde ursprünglich für das US-Verteidigungssystem entwickelt, um Computer in unterschiedlichsten Systemen miteinander zu verbinden. Das erklärt auch einige Eigenschaften wie die, dass Datenverluste erkannt und automatisch behoben werden oder dass eine Überlastung des Netzwerkes verhindert wird. Während IP sich um den Versand der Pakete kümmert, sorgt TCP für den zuverlässigen Datenstrom zwischen zwei Punkten. Es prüft die Integrität der Daten mithilfe einer Prüfsumme im Paketkopf und stellt die Reihenfolge durch sogenannte Sequenznummern sicher. Ankommende Pakete werden beim Empfänger zusammengefügt, doppelt gesendete werden verworfen.

UDP

UDP ( User Datagram Protocol ) ist ein einfach aufgebautes, verbindungsloses Protokoll. Im Gegensatz zu TCP werden mit UDP Daten übertragen, die nicht unbedingt ankommen müssen. Anders gesagt: Bei UDP gibt es keine Garantie, dass Daten ankommen – bei TCP schon. Die Informationen im Header der Pakete sind aufs Nötigste begrenzt. Das bedeutet auch, dass keine Überlastungskontrolle stattfinden kann. Das Einzige, was mit UDP geprüft werden kann, ist die korrekte Checksumme nach dem Erhalt einer Nachricht.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Kontakte und Daten von iPhone auf Android übertragen

Wir zeigen Ihnen, wie Sie Ihre Daten wie Kontakte von einem iPhone auf ein Android-Handy wie dem Galaxy S9 übertragen.

Der Smartphone-Wechsel mit sämtlichen Daten ist zum Glück kein Problem mehr – selbst systemübergreifende Umzüge von iOS zu Android sind ein Kinderspiel – okay, zumindest fast. Der Datenumzug ist ohne größeren Datenverlust möglich.

Daten von iPhone auf Android übertragen mit Smart Switch

Hersteller wie Samsung und Sony bieten eigene Programme an, um Daten von einem iPhone auf Android-Geräte zu übertragen. Die Software-Oberflächen sind größtenteils selbsterklärend – Sie verbinden immer Ihr Smartphone mit dem PC, wählen als wiederherzustellenden Inhalt das iOS-Backup aus und importieren dieses. Nachfolgend erklären wir Ihnen, wie der Umzug mit der Samsung-Software Smart Switch funktioniert – auch ganz ohne PC.

Mit der Software Smart Switch können Sie die Inhalte Ihres alten Handys auf ein neues Galaxy-Modell übertragen – zum Beispiel auf das Galaxy S9 (Test) oder das Galaxy Note 9 (Test) . Es gibt in diesem Fall drei Möglichkeiten, iOS-Inhalte auf das Galaxy-Smartphone umzuziehen: Via iCloud-Import, direkte USB-Verbindung zum Smartphone oder über den PC.

iCloud-Import: In den iOS-Einstellungen auf Ihrem iPhone unter „iCloud“ legen Sie fest, welche Daten in der iCloud gesichert werden sollen. Um diese auf Ihr neues Galaxy-Gerät zu übertragen, laden Sie die App Smart Switch Mobile auf Ihr Samsung-Handy herunter. Bei den meisten aktuellen Smartphones wie dem Galaxy S9 ist die Anwendung bereits vorinstalliert und im System integriert. Wenn sich die Anwendung nicht im App-Menü befindet, versteckt sich Smart Switch in den Einstellungen unter „Cloud und Konten“. Starten Sie die App auf Ihrem Galaxy-Handy und wählen Sie „Drahtlos – Empfangen – iPhone/iPad“ aus. Anschließend melden Sie sich in iCloud mit Ihren Zugangsdaten an. Wählen Sie die zu übertragenen Inhalte aus und tippen Sie auf „Importieren“. Zur Auswahl stehen unter anderem Kontakte, Kalender, Fotos und Videos.

Via USB: Die Datenübertragung von iPhone zu Samsung via USB funktioniert genau wie beim iCloud-Import. Nur wird in diesem Fall Fall das iPhone mit einem USB-Kabel an das Samsung-Gerät über einen OTG-Adapter angeschlossen wird. Ein solcher liegt dem Galaxy S9 bei.

Sobald das iPhone über USB an das Galaxy-Handy angeschlossen ist, öffnet sich automatisch Smart Switch. Tippen Sie auf Ihrem iPhone bei der Meldung „Diesem Computer vertrauen?“ auf „Vertrauen“ und auf Ihrem Galaxy-Device auf „Weiter“. Anschließend scannt die Software den Inhalt des iPhones und überträgt dann die von Ihnen ausgesuchten Inhalte. Achtung: Das iPhone darf nicht via iTunes verschlüsselt sein, sonst klappt der Transfer nicht.

Über den PC: Stellen Sie sicher, dass sich eine lokal gespeicherte System-Sicherung Ihres iPhones auf dem Computer befindet, die Sie mit iTunes angelegt haben. Achten Sie darauf, dass das Backup durch kein Passwort geschützt ist. Nun laden Sie sich dasDesktop-Programm Smart Switch auf Ihren Windows- oder Mac-Computer herunter und starten es – die Download-Links befinden sich ganz unten auf der Webseite. Verbinden Sie Ihr Galaxy-Smartphone mit dem PC und klicken in Smart Switch auf die Schaltfläche „Wiederherstellen“, danach auf „Sicherungsdaten auswählen“. Stellen Sie „Von iTunes sichern“ ein, wählen das entsprechende iOS-Backup aus und bestimmen dann die zu übertragenen Inhalte aus – Kontakte, Lesezeichen, Bilder, Videos und eine App-Liste. Das Programm zeigt Ihnen eine zu den iOS-Apps passende Liste mit Android-Apps, die Sie auf Ihrem Galaxy-Gerät installieren können.

Kontakte vom iPhone mit Google synchronisieren

Falls Sie kein Google-Konto besitzen, sollten Sie spätestens jetzt eins anlegen. Ein solches benötigen Sie auf Ihrem Android-Handy sowieso, um es vollumfänglich bedienen zu können. Tippen Sie in den iOS-Einstellungen Ihres iPhones auf „Accounts & Passwörter – Account hinzufügen“ und melden sich dann mit Ihrem Google-Konto an, das Sie auch auf Ihrem Android-Handy nutzen. Wählen Sie aus, welche Daten synchronisiert werden sollen – allen voran die Kontakte – und stellen Sie sicher, dass Sie über eine aktive Internetverbindung verfügen. So übertragen Sie alle Kontakte sicher auf das neue Android-Gerät. Die Kontakte sind auf den Google-Servern gesichert, weshalb sie auf allen Android-Geräten sowie am PC nutzbar sind. Kontakte verlieren war gestern!

Fotos vom iPhone auf Android direkt übertragen

Um die vielen mit Ihrem iPhone geknipsten Fotos auf ein Android-Gerät zu bringen, schließen Sie das iPhone an den Computer an. Nun können Sie am PC auf den Speicher des iPhones zugreifen und den Bilder-Ordner „DCIM“ entweder direkt auf ein via USB angeschlossenes Android-Gerät übertragen oder die Fotos zunächst auf dem PC zwischenspeichern.

Auf Android umsteigen mit Drittanbieter-Software

Ein Umzug klappt auch mit dem Programm MobileTrans von Wondershare , mit dem Sie Kontakte, SMS-Nachrichten und Multimedia-Dateien auf das neue Telefon schieben. Allerdings bietet die kostenlose Testversion nur eingeschränkte Versionen. Um das vollständige Programm zu nutzen, müssen Sie zahlen. Die Vollversion kostet für ein Jahr für 1 bis 5 Geräte und einen PC 35 Euro. Die lebenslange Lizenz für genauso viele Geräte kostet 39,99 Euro. Und das lebenslange Familienpaket mit 6 – 10 Geräten und einem PC kostet 67,99 Euro.

Voraussetzung: Sie müssen auf Ihrem Computer die Apple-Verwaltungssoftware iTunes installiert haben, damit Sie Dateien von oder auf ein iOS-Gerät senden können. Darüber hinaus aktivieren Sie bei Ihrem Androiden „USB-Debugging“ unter „Einstellungen -> Entwickler-Optionen -> Debugging –> USB-Debugging“.

Danach wählen Sie die zu kopierenden Daten aus. In diesem Fall können Sie alle Inhalte bis auf Apps und Anruflisten übertragen. Klicken Sie auf „Kopieren“, sendet das Programm den Datenbestand des iOS-Telefons auf den Androiden.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Hardware-Trends 2019: WLAN & Mobilfunk

Ein aktueller WLAN-Router sollte zu schnellen Internetanschlüssen ebenso passen wie zu einem großen WLAN. Wenn Sie aber mehr Tempo und Reichweite im Funknetz brauchen, sollten Sie auf ein Mesh-System setzen.

Die klassische Heimnetzausstattung in Deutschland beinhaltet einen WLAN-Router mit Modem passend zum Internetanschluss. Der Wechsel der Anschlussart oder Anschlussgeschwindigkeit ist deshalb ein guter Zeitpunkt, über einen neuen Router nachzudenken. Dafür bietet AVM das umfassendste Angebot: Die Fritzbox 7590 unterstützt Super-Vectoring für DSL-Tarife mit bis zu 250 MBit/s, wie sie beispielsweise 1&1 (DSL 250), Telekom (Magenta Zuhause XL) und Vodafone (Red Internet & Phone 250 DSL) anbieten. Sie verfügt dabei über 11ac-WLAN mit 1733 MBit/s (5 GHz) plus 800 MBit/s (2,4 GHz) und kostet rund 230 Euro. Eine günstigere Alternative ist mit 130 Euro die etwas schlechter ausgestattete Fritzbox 7530 : Ihr WLAN arbeitet mit maximal 866 sowie 400 MBit/s.

Jeweils rund 20 Euro kostengünstiger sind die ähnlich ausgestatteten DSL-Modemrouter von TP-Link: Den Archer VR2800V für Super-Vectoring gibt es für rund 210 Euro und denArcher VR600 für Vectoring mit bis zu 100 MBit/s für rund 110 Euro. Ebenfalls empfehlenswert ist der Asus DSL-AC87VG . Wenn Sie keinen Umstieg auf einen neuen Onlinetarif planen und den Modemrouter behalten möchten, weil Sie ihn kostenfrei oder stark vergünstigt vom Provider erhalten, können Sie mit einem reinen WLAN-Router das Funknetz beschleunigen. Für kleine Netzwerke reicht ein Gerät mit 2×2- Übertragung, das auf maximal 866 (5 GHz) und 400 MBit/s (2,4 GHz) kommt, wie die Fritzbox 4040 für rund 70 Euro. Sie bringt des Weiteren vier Gigabit-Ports für kabelgebundene Geräte mit und einen USB-3.0-Anschluss, über den Sie einen Stick oder eine Festplatte als Netzspeicher einbinden können. Zukunftssicherer sind allerdings schnellere WLAN-Router mit 3×3 oder 4×4 sowie auch Unterstützung für Multi-User-MIMO (MU-MIMO): Diese Technik nutzen auch immer mehr Smartphones und Notebooks, damit sie der Router gleichzeitig anstatt wie im Netzwerk üblich hintereinander bedienen kann. Hierdurch erhöht sich die Datenrate im gesamten Funknetz. Diese Ausstattung bieten zum Beispiel der Asus RT-AC86U und der Netgear Nighthawk X4S – beide kosten rund 180 Euro.

Preis-Leistungs-Tipp: AVM FRITZBOX 7590

Preis: rund 230 Euro

Ausstattung: Internetanschluss: VDSLSupervectoring / WLAN: 11AC 4×4 (5 GHz: 1733 MBit/s; 2,4 GHz: 800 MBit/s) / LAN: 4x Gigabit / Telefonie: DECT-Basisstation, 2 Telefonanschlüsse (a/b oder TAE) / NAS: 2x USB 3.0 / Besonderheiten: MU-MIMO

Das braucht der Technikfan

WLAN-Abdeckung und Reichweite sind im Heimnetz mittlerweile deutlich wichtiger als Höchstgeschwindigkeit für einzelne Geräte. Weil immer mehr Notebooks, Smartphones und Tablets Anschluss an das Funknetz suchen, reicht ein einzelner WLAN-Repeater wie der AVM Fritz-Repeater 1750E (rund 65 Euro) nicht mehr aus, auch wenn er mit bis zu 1300 MBit/s (5 GHz) beziehungsweise 450 MBit/s (2,4 GHz) arbeitet. Zur lückenlosen WLAN-Abdeckung empfehlen sich deshalb Mesh-Systeme, die es inzwischen von sämtlichen wichtigen Routerherstellern gibt. Je nachdem, wie groß die Wohnung oder das Haus ist, das Sie mit WLAN versorgen wollen, müssen Sie zwischen 100 und 400 Euro ausgeben.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Ethik und Künstliche Intelligenz: Die Zeit drängt – wir müssen handeln

Künstliche Intelligenzen und Roboter werden in unserem Leben immer selbstverständlicher. Was erwarten wir von den intelligenten Maschinen, wie verändert ihre Präsenz in unserem Alltag und die Interaktion mit ihnen unser Selbstverständnis und unseren Umgang mit anderen Menschen? Müssen wir Roboter als eine Art menschliches Gegenüber anerkennen? Und welche Freiheiten wollen wir den Maschinen einräumen? Es ist dringend an der Zeit, die ethischen und rechtlichen Fragen zu klären.

»Die Menschheit steht an der Schwelle zu einer Ära, in der immer raffiniertere Roboter, Bots, Androiden und andere Formen Künstlicher Intelligenz bereitstehen, um eine neue industrielle Revolution zu entfesseln, die keinen Stein unserer Gesellschaft auf dem anderen lassen wird. Die Entwicklung von Robotik und Künstlicher Intelligenz wirft rechtliche und ethische Fragen auf, die eine unmittelbare Intervention auf der Ebene der Europäischen Union erfordern«.

Das Europäische Parlament hat es im vergangenen Jahr ganz drastisch formuliert. Eine neue industrielle Revolution steht an, welche die bestehenden Verhältnisse umpflügen wird.

Wer die Nachrichten aufmerksam verfolgt, erfährt täglich von neuen faszinierenden Leistungen, erbracht von intelligenten Maschinen, die nicht nur unsere Art zu arbeiten verändern werden, sondern unsere gesamte Lebensweise und Lebensmöglichkeiten zu revolutionieren versprechen.

Die gesamte Entwicklung weist eine hohe Dynamik auf, die es schwer macht, im Vor- und Nach-Denken über die Implikationen und Folgen dieses Technologieschubs den Überblick zu behalten und zu angemessenen, zeitgemäßen Urteilen zu kommen.

Für rechtliche und ethische Regularien ist es noch schwieriger. Bis ein Gesetz alle Hürden genommen hat und in Kraft getreten ist, hat sich die Technik unter Umständen schon wieder grundlegend verändert. Und so schleichen sich neben die Verheißungen unüberhörbar auch Stimmen ein, die warnen und uns zum Nachdenken, Umsteuern und Handeln aufrufen.

Die Robotik in Verbindung mit Künstlicher Intelligenz wird nicht nur unsere Arbeitswelt verändern – was sich bereits jetzt beobachten lässt. Sie betrifft nicht allein den Bereich klassischer Industriearbeit, wo zumeist schwere und repetitive Arbeiten ausgeführt werden.

Die neuen Robotergenerationen stehen sowohl in der Industrie wie auch im Service zur Verfügung. Sie kommen – ausgerüstet mit Künstlicher Intelligenz – dem Menschen immer näher und ›erlernen‹ nun zunehmend Tätigkeiten, die dem Zwischenmenschlichen, dem Privaten, wenn nicht sogar Intimen zugeordnet werden.

Es ist nicht zuletzt diese Nähe, Beziehung und Abhängigkeit, die zwischen Mensch und Maschinen entsteht, die aufmerksame Beobachter nach öffentlichen Debatten und entsprechenden Regulierungen rufen lassen.

Dieser Beitrag gibt einen kurzen Überblick über den Stand der ethischen Fragen, die sich mit diesen Entwicklungen verbinden.

Roboter ist nicht gleich Roboter

Das Wort »Roboter« hat seinen Ursprung im Slawischen, wo rab Sklave bedeutet. Rabotaist im Russischen die Arbeit und rabotnik der Arbeiter. 1921 brachte Karel Čapek sein Theaterstück Rossum’s Universal Robots auf die Bühne, in der – allerdings auf biologischem Wege – künstlich hergestellte Menschen als billige Arbeitskräfte dienten.

Damit war der Begriff des Roboters in der Welt. Die Maschinen, die zunehmend menschliche Arbeit übernahmen, folgten erst mit einiger Verzögerung. 1954 wurdeUnimate, der erste Industrieroboter , von George Devol entwickelt [1]. Insbesondere in den 1970er Jahren haben viele produzierende Gewerbe eine Roboterisierung ihrer Arbeit erfahren (beispielsweise die Automobil- und Druckindustrie).

Mittlerweile sind diese Industrieroboter aus den Käfigen ihrer Fertigungsstraßen entlassen worden und arbeiten ›Hand in Hand‹ mit Menschen in der Produktion zusammen. Angesichts ihrer physischen Mächtigkeit müssen sie nun ›vorsichtiger‹ konzipiert werden und das menschliche Gegenüber in seinen Gesten, Bewegungen und idealerweise auch Intentionen erkennen, um so die Kooperation ungefährlich für den Menschen zu gestalten und eine höhere Produktivität und Wertschöpfung zu erreichen.

Neben den Industrierobotern, die vor allem der Produktion wirtschaftlicher Güter dienen, haben sich mit fortschreitender Technik auch Serviceroboter etabliert, die Arbeiten ausführen, die für Menschen zu schwer, belastend oder gefährlich sind; etwa Melkmaschinen oder Maschinen zur Entfernung von giftigen oder verstrahlten Objekten.

In der nächsten Entwicklungsstufe kommen nun solche Roboter hinzu, die Dienstleistungen mit und am Menschen erbringen sollen: Haushalts- und Pflegeroboter , Operations- oder auch Sexroboter, die die Leistungen von Menschen unterstützen, verbessern oder kompensieren oder auch völlig neue Möglichkeiten schaffen.

Solche ›technischen Helfer‹ dienen nicht nur Menschen mit einem rechtlich anerkannten Unterstützungsbedarf, sondern stellen ein Angebot an alle auf einem Markt dar. Besondere ethische Aufmerksamkeit erhalten gegenwärtig solche technischen Systeme, die die im Abbau begriffenen oder ganz verlorengegangenen menschlichen Fähigkeiten (Orientierung, Mobilität, Kommunikation) kompensieren oder ersetzen sollen, etwa intelligente Tagesbegleiter (Avatare) oder soziale Roboter.

In allen Fällen müssen die Schnittstellen zwischen Menschen und Maschinen sehr viel flexibler und die Roboter auf eine komplexe, nicht vollständig berechenbare Interaktion ausgelegt werden.

Im Bereich der Industrierobotik können die Aktionen des Roboters relativ klar programmiert und die Umgebung so gestaltet werden, dass Menschen oder andere Güter nicht gefährdet werden.

Bei Servicerobotern im nicht-sozialen Bereich werden eine zielgerichtete Ausführung der Arbeiten und der Ausschluss von Gefährdungen weitgehend durch eine (Fern-)Steuerung des Roboters durch den Menschen gewährleistet.

Bei Servicerobotern allerdings, die (teil-)autonom mit Menschen zum Beispiel in deren Häuslichkeit interagieren sollen, ist eine jede Aktion eindeutig festlegende Programmierung der Roboter ebensowenig möglich wie eine Fernsteuerung. Die Programme und robotischen Aktionen müssen flexibel und ›semantisch‹ ausgelegt werden, d. h. sie müssen sich auf die menschlichen Handlungen (Sprache, Gestik, Mimik) in den jeweiligen Kontexten interpretierend beziehen und kontextspezifische Interaktionen ermöglichen. Um die direkte Mensch-Roboter-Interaktion möglichst sicher und effektiv zu gestalten, müssen die Roboter vom Menschen als Interaktionspartner akzeptiert werden.

Das bedeutet, dass sie vom Menschen als etwas anderes angesehen werden als die technischen Geräte oder Maschinen, die sie bisher instrumentell eingesetzt haben. Im instrumentellen Umgang mit Werkzeugen und Maschinen hatte der Mensch die Handlungshoheit hinsichtlich der Handlungsziele und weitgehend auch der Wege, um diese Ziele zu erreichen.

In dem Maße aber, in dem Roboter zu Handlungspartnern werden mit einem eigenen Anteil an ›Entscheidungen‹ und ›Handlungen‹, in dem Maße muss sich der Mensch auf ein Gegenüber einstellen und ein zunehmendes Maß von Eigenständigkeit dieses Gegenübers akzeptieren.

Es stellt sich die Frage, ob wir Menschen diese Roboter als soziales Gegenüber anerkennen müssen, und was das für unser soziales Miteinander insgesamt bedeutet. Das ist eine ähnliche Frage, wie wir sie menschheitsgeschichtlich bereits für den Umgang mit Tieren – auf eine bisher nicht immer befriedigende Weise – beantworten mussten.

In Bezug auf die Maschinen steht nun aber weniger deren Leidens- und Beziehungsfähigkeit zur Debatte als vielmehr deren ›Rationalität‹ und (simulierte) ›Emotionalität‹. Hier scheint eine Ähnlichkeit vorzuliegen, die Fragen nach Anerkennung von und Umgang mit diesen Maschinen aufwirft.

Das mag auf den ersten Blick weit hergeholt erscheinen, wenn man sich die technische Definition eines Industrieroboters in der ISO 8373 (2012) vergegenwärtigt: »Ein Roboter ist ein frei und wieder programmierbarer, multifunktionaler Manipulator mit mindestens drei unabhängigen Achsen, um Materialien, Teile, Werkzeuge oder spezielle Geräte auf programmierten, variablen Bahnen zu bewegen zur Erfüllung der verschiedensten Aufgaben«.

Warum sollten wir diese Manipulatoren, die zunächst einmal nichts anderes sind als eine Ansammlung aus anorganischer Materie, Elektronik und Software, als soziales Gegenüber anerkennen, ihnen gar so etwas wie Rechte zubilligen oder uns ihnen moralisch verpflichtet fühlen?

Ein zweiter Blick und weitere Überlegungen führen uns zu dem, was einen sozialen Roboter auszeichnet: »Eine physische Entität, die in einem komplexen, dynamischen und sozialen Umfeld ausreichend befähigt ist, um sich auf eine Weise zu verhalten, die förderlich ist für die eigenen Ziele und die der Gemeinschaft«. Das ist ein Definitionsversuch , der schon sehr viel näher an das heranführt, was wir bei Menschen ›soziales Verhalten‹ nennen. Das sind nicht mehr nur komplexe Manipulatoren, sondern Wesen, die ein gewisses Eigeninteresse und einen Bezug auf die Gemeinschaft haben und damit zunehmend auch als ›eigenmächtige‹ Gegenüber auftreten.

Folgt man dieser Spur noch einige Schritte weiter, dann stößt man auf die Tatsache, dass robotische Funktionen von uns Menschen wie Handlungen interpretiert werden, was ein Grundbegriff ethischer Theorien ist und uns nötigt, die Roboter und die Künstliche Intelligenz, die mit ihnen ›auftritt‹, unter ethischer Perspektive genauer zu bedenken.

Und so ist die Forderung des EU-Parlaments auch verständlich, dass wir uns Gedanken machen sollten, welche Erwartungen wir an solche Roboter und Künstliche Intelligenzen heften, welche Entwicklungen wir vermeiden wollen und welche Konstruktionen und Regulierungen daraus erwachsen müssen.

Ethisch gesprochen sind damit die beiden Richtungen aufgerufen, in denen wir uns orientieren und – mit guten Gründen – entscheiden müssen: »wer wir sind und was für Menschen wir sind« und »in welcher Gesellschaft wir leben«. [2]

Ethische Überlegungen zu Robotik und Künstlicher Intelligenz

Versucht man sich einen Überblick über die verschiedenen ethischen Probleme zu verschaffen, die mit dem Aufkommen von ›intelligenten‹ und in jeder Hinsicht (Präzision, Geschwindigkeit, Kraft, Kombinatorik und Vernetzung) immer mächtigeren Robotern verbunden sind, so ist es hilfreich, diese Probleme danach zu unterscheiden, ob sie

1. das Vorfeld der Ethik,

2. das bisherige Selbstverständnis menschlicher Subjekte (Anthropologie) oder

3. normative Fragen im Sinne von: »Was sollen wir tun?« betreffen.

Die folgenden Überlegungen geben einen kurzen Aufriss, mit welchen Fragen wir uns jeweils beschäftigen sollten, wie die verschiedenen Fragenkreise zusammenhängen, und woran wir uns in unseren Antworten orientieren können.

1. Fragen im Vorfeld der Ethik

Betrachtet man die gegenwärtigen Entwicklungen mit ein wenig Abstand, so ist es augenfällig, dass Roboter wie eine langersehnte Antwort auf viele und sehr verschiedene Herausforderungen erscheinen. Ob es um präzisere Operationsmethoden in der Chirurgie, eine bessere Diagnostik in Kliniken und Arztpraxen, die Unterstützung von hilfebedürftigen Menschen , verbesserte Produktion und Logistik, die Erforschung fremder Planeten oder die Befriedigung sexueller Bedürfnisse geht: In allen Bereichen werden Roboter als Lösung entwickelt und angeboten.

Betrachtet man die ökonomischen Erwartungen, die sich mit der Robotik verbinden, und die Programme der Forschungsförderung, so lassen sich für die nächsten Jahrzehnte kräftige Zuwachsraten errechnen.

Zugleich ist jedoch zu fragen, ob mit der starken Fixierung auf robotische Lösungen andere Optionen unter Umständen vernachlässigt und am Ende sogar abgeschnitten werden.

Die Situation in der Pflege mag das illustrieren: Gegenwärtig ist die Rede von einem großen Fachkräftemangel von mehreren zehntausend Menschen. Da diese im Moment realistischerweise nicht zu finden sind, komme man gar nicht umhin, so wird argumentiert, robotische Lösungen mit ins Spiel zu bringen, um die großen gesellschaftlichen Herausforderungen zu bewältigen, die sich in der Pflege aufgrund des demographischen Wandels in den nächsten Jahrzehnten noch verschärfen werden. Dementsprechend wird in vielen Projekten an robotischen Grundfertigkeiten geforscht, die es ermöglichen sollen, dass Roboter in einigen Jahren Tätigkeiten wie Waschen, Umlagern, Essen anreichen oder anderes übernehmen.

Das könnte die Personalsituation tatsächlich entspannen, zugleich aber dazu beitragen, dass immer weniger Menschen sich für diesen Beruf noch interessieren bzw. dafür überhaupt angeworben werden.

Eine Frage in diesem Zusammenhang lautet: Wie steuern wir diese Entwicklung so, dass sie uns mehrere Handlungsoptionen eröffnet anstatt uns vorzeitig welche zu verschließen?

2. Anthropologische Fragen

Eine Frage betrifft die Veränderungen, die sich für uns Menschen dort ergeben, wo wir über uns selbst und unsere Stellung in der Welt nachdenken. Der Mensch galt lange als das einzige Wesen, das Freiheit in Bezug auf seinen Willen, seine Entscheidungen und seine Handlungen hat und deshalb überhaupt moralisch ansprechbar ist. Erst aus der Freiheit für das eine und gegen das andere erwachse dem Menschen die Forderung, moralisch zu denken, zu entscheiden und zu handeln. Das betrifft nicht alle Entscheidungen und Handlungen, sondern solche, die es mit dem moralisch Guten zu tun haben. Nur der Mensch könne sich in solchen Fragen aufgrund seiner Rationalität für das Gute und Gerechte entscheiden.

Diese sehr vereinfacht dargestellte Annahme, die sich bereits hinsichtlich Tieren als diskutabel erweist [3], wird nun durch die Leistungen der Roboter und der Künstlichen Intelligenz erneut und hinsichtlich bestimmter Formen von ›Rationalität‹ in Frage gestellt. Es scheint so, dass es offenbar auch diese Wesen gibt bzw. in naher Zukunft geben wird, die solche ›Freiheiten‹ besitzen und qua ›Künstlicher Intelligenz‹ wohlberechnet einsetzen (beispielsweise autonomes Fahren ).

Zum anderen scheinen bestimmte Formen von Moralität und Rationalität von Maschinen sogar besser erfüllt zu werden als vom Menschen. Maschinen mit Künstlicher Intelligenz können schneller, präziser und unbestechlicher bestimmte Aufgaben ›entscheiden‹.

Auch dies soll an einem Beispiel erläutert werden: Im Rahmen von Behandlungsentscheidungen in Kliniken werden zunehmend Expertensysteme eingesetzt, die die Entscheidungen des behandelnden Teams vorstrukturieren, wenn nicht vorentscheiden. Solche Expertensysteme bestehen aus Rechnern, die mit speziellen Algorithmen weltweit die relevanten Datenbanken nach einem ähnlichen Befund, verschiedenen Behandlungsweisen und -erfolgen durchsuchen und daraus ›Behandlungsempfehlungen‹ ableiten. Nachdem im Krankenhaus Regress-Forderungen aufgrund von Fehlbehandlungen ausgeschlossen werden sollen, ist es naheliegend, den ›Empfehlungen‹ des technischen Systems zu folgen. Die Legitimation einer Entscheidung durch Daten erscheint als die fundiertere.

Man mag mit Fug und Recht einwenden, dass Menschen sich auch in anderen Handlungsfeldern (etwa der Autopilot im Flugzeug) auf die maschinellen Berechnungen und ›Entscheidungen‹ verlassen – und das durchaus mit Erfolg. Hinsichtlich bestimmter Entscheidungskalküle werden wir Menschen von ›unseren‹ Maschinen zunehmend übertroffen – und es kann durchaus ethisch geboten sein, diesen ›Berechnungen‹ zu folgen.

In diesen Feldern geraten wir in eine Abhängigkeit von ihnen, die uns unter Umständen unsicherer und entscheidungsschwächer machen wird. Es kommt hinzu, dass Menschen mit der Delegation von Tätigkeiten an Roboter auch bestimmte kognitive oder manuelle Fertigkeiten verlieren werden. Unter Umständen wird man das mit dem Abstand einiger Jahrzehnte oder Jahrhunderte nostalgisch betrachten. Es könnte aber auch sein, dass wir Menschen uns auf diese Weise um Fertigkeiten bringen, die uns eines Tages auf fundamentale Weise fehlen werden.

Deshalb sollten solche Fragen gründlich bedacht werden, bevor Entscheidungen uns an einen Punkt bringen, den wir als Gattung bedauern müssten.

Überlegungen führen zu einer zweiten Kategorie von Problemen, die sich auf uns Menschen in unserem Selbstverständnis, Selbstverhältnis und unserem Verhältnis zu anderen beziehen.

Technische Geräte, insbesondere Automaten (man denke an den Schachspielenden Türken und die mechanischen Tiere von Vaucanson ) und Roboter haben in der Kultur- und Technikgeschichte der Menschheit immer auch als Spiegel und Medium der Selbstverständigung gedient, was der Mensch sei im Vergleich und im Unterschied zu diesen Maschinen. [4]

Dabei zieht sich eine grundlegend ambivalente Haltung gegenüber diesen Maschinen durch. Das zeigt sich in der Mythologie (Pandora, Golem von Prag) bis zu den jüngsten Science-Fiction-Erzählungen (etwa Real Humans oder Westworld).

Wo Menschen Maschinenwesen schaffen, geht es um die Erweiterung der eigenen menschlichen Lebensmöglichkeiten, die Steigerung der eigenen Mächtigkeit durch sie und zugleich um die Furcht vor der Überwältigung durch diese mächtig gemachten Maschinen.

In ihrer künstlich hergestellten Ähnlichkeit und zugleich Andersartigkeit liefern die Roboter eine ideale Projektionsfläche für menschliche Phantasien über die eigene »Vervollkommnung und Unverbesserlichkeit« [5].

Wie aber verändern die Präsenz von Robotern in unserer Alltagswelt und die Interaktion mit ihnen unser Selbstverständnis, Selbstverhältnis und den Umgang mit anderen?

Vordergründig betrachtet wird es zu einer Übertragung von Erwartungen kommen: solchen, die wir an Menschen haben und nun auf Roboter projizieren, und solchen, die wir an Roboter haben und auf Menschen projizieren.

Bereits jetzt ist erkennbar, dass die kommunikative Zurückhaltung der Künstlichen Intelligenz gegenüber menschlicher Unachtsamkeit oder sogar Rüpelei weitgehend folgenlos bleibt. Wenn Kinder so etwas im alltäglichen Umgang mit Alexa & Co erlernen , dann hat das Auswirkungen auf den sozialen Umgang zwischen Menschen.

Man möchte sich damit trösten, dass das im Wortsinn Kinderkrankheiten sind, die sich mit sozialem Lernen der Menschen und entsprechender Algorithmen-Verfeinerung bei den Maschinen in den nächsten Jahren auswachsen werden. Ein Blick auf Tendenzen einer sozialen Verrohung im Internet sollten einen jedoch vor zu großem Optimismus bewahren.

Schaut man genauer hin, zeigt sich, dass die Erwartungen an den Menschen sich verschieben. Wenn Maschinen stets unaufgeregt, freundlich und sozial akzeptabel auf ihr Gegenüber reagieren, dann wird das für Menschen in vergleichbaren Situationen vermutlich normativ werden. Dass Maschinenbegriffe und -konzepte (Information, Update, Neustart, das Gehirn als CPU) zur Selbstbeschreibung herangezogen werden, deutet an, dass und wie sehr wir uns zum Teil durch die Maschine sehen und zu verstehen suchen.

Eine weitere Frage betrifft die Erscheinung von Künstlicher Intelligenz: Was bedeutet es, wenn sie nicht mehr zwingend verkörpert auftritt, sondern verbaut ist in Wände, Autos, Smartphones?

Intelligenz als Vermögen, in einer Situation problemorientiert zu agieren, ist bei Menschen immer an Leiblichkeit gebunden, also an die Tatsache, sich in dieser Welt qua Körper und mit allen Sinnen zu orientieren und in und mit diesem Körper auch zu agieren.

Künstliche Intelligenz hingegen ist ubiquitär und kann sich für ihre ›Umsetzung in Handlungen‹ ganz verschiedener Organe bedienen. Die Verbindung von Körper und Geist, die den Menschen ausmacht – und die ihm immer wieder auch Probleme bereitet – ist für Künstliche Intelligenz nicht mehr zwingend.

Für den Umgang zwischen Mensch und Technik ist also hier zu fragen, ob und welchen Unterschied es macht, einer verkörperten Künstlichen Intelligenz zu begegnen, beispielsweise im Roboter, oder mit einer körperlosen Künstlichen Intelligenz zu interagieren.

So oder so dürfte diese Andersartigkeit den Menschen in seinem Selbst- und Weltverhältnis herausfordern. Es ist klar, dass der Einsatz von Robotern und Künstlicher Intelligenz eine andere Bedeutung und Konsequenz hat als der Einsatz einer Brille oder eines Smartphones. Letztere können wir als Erweiterung bzw. Kompensation unserer körperlichen und geistigen Fähigkeiten verstehen und instrumentell einsetzen. Dabei werden sie uns über die Zeit so vertraut und so nahe, dass wir sie irgendwann gar nicht mehr als fremd verstehen.

Für Roboter jedoch, die uns als ein eigenständiges, verkörpertes Wesen gegenübertreten, wird diese Anverwandlung nicht möglich sein. Und auch für eine körperlose Künstliche Intelligenz ist das in dem Maße illusorisch, in dem sie sich über selbstlernende Algorithmen und eine weit vernetzte Datenbasis unserer Kontrolle und Zielsetzung entzieht.

Kritisch wird derzeit diskutiert, dass der Mensch in immer mehr Handlungsfeldern die Vorherrschaft verlieren könnte, weil die Maschinen in ihrer Performanz einfach besser sind und zunehmend die Standards setzen. Der Mensch darf sich zwar als Schöpfer dieser großartigen Maschinen sehen. Der Stolz darauf hält sich allerdings in Grenzen. »Prometheische Scham«, wie Günter Anders das Gefühl genannt hat – von der eigenen Schöpfung überrundet und als zu leicht befunden zu werden. [6]

Wie werden wir Menschen damit umgehen? Mit Aggression, Autoaggression, Regression oder auch Konstruktion? Müssen wir Menschen uns selbst ebenfalls aufrüsten, um mit den immer leistungsfähigeren Maschinen noch mithalten zu können? [7]

Die weitere Entwicklung ist keineswegs ausgemacht – und es wird der gemeinsamen menschlichen Anstrengung bedürfen, hier einen konstruktiven Weg zu finden, der uns weder mit Maschinenstürmerei noch mit Unterwerfung unter die Technik überreagieren lässt.

Gefragt ist wohl vielmehr ein erneuertes Selbstverständnis des Menschen, bei dem wir

a) Korrekturen an einem wohl etwas zu optimistischen Selbstbild hinsichtlich unserer menschlichen Einzigartigkeit, rationalen und moralischen Fähigkeit vornehmen und

b) überlegen, welchen Platz wir den intelligenten Maschinen in dieser Welt neben Tieren, Menschen und Göttern zubilligen wollen – oder auch einräumen müssen.

3. Normative Fragen

Der dritte Fragenkreis bezieht sich auf konkrete Situationen und Handlungen, die wir Menschen moralisch bewerten als beispielsweise »gut«, »schlecht«, »vorzugswürdig« oder »unzuträglich«.

Aufgabe der Ethik ist es, solche moralischen Meinungen auf ihre Begründung und Geltung hin zu befragen und so zu einem geschärften ethischen Urteil zu kommen, das idealiter vor der Allgemeinheit moralischer Subjekte verantwortet werden kann und in seiner Umsetzung ein »gelungenes Leben mit und für die Anderen, in gerechten Institutionen« [8] ermöglicht. Das ist eine erste vage Richtungsangabe.

Normative Fragen lassen sich am Ende nur ganz konkret anhand einer bestimmten Situation bearbeiten. Entsprechend liefert die Ethik hier keine pauschalen Urteile wie: »Roboter sind gut/schlecht«, »Künstliche Intelligenz dient dem guten Leben/ist dem guten Leben abträglich«.

Vielmehr muss es bei der ethischen Reflexion darum gehen, ein konkretes »sozio-technisches Arrangement« [9], also das Zusammenwirken von Menschen und Maschinen in seinen Zusammenhängen mit moralischen Orientierungen (wie Gerechtigkeit, Freiheit, Verantwortung) zu evaluieren und auf den entsprechenden Ebenen (etwa Forschung, Anwendung, politische Regulierung) zu tragfähigen Urteilen einschließlich ihrer Umsetzung zu kommen.

Eminente Fragen der Gerechtigkeit erwachsen uns beispielsweise im Bereich der Arbeit, wo Roboter und Künstliche Intelligenz immer mehr Arbeiten übernehmen können und Menschen aus diesen Tätigkeiten herausdrängen.

Dass Technik menschliche Arbeitskräfte verdrängt, ist kein neues Problem. Allerdings sieht es in diesem Fall so aus, dass auf diesem Wege nicht mehr neue Arbeitsplätze entstehen bzw. solche, die völlig neue und höhere Qualifikationen erfordern (Up-skill-Effekt) oder den Menschen die ›übriggebliebenen‹ niederen Tätigkeiten überlässt (Down-skill-Effekt).

Darüber hinaus kommt die Wertschöpfung aus robotischer Arbeit nur wenigen zugute, so dass hier ein weiteres Gerechtigkeitsproblem auftritt. Die Frage kann dann nicht lauten: Sollen wir Roboter überhaupt entwickeln, sondern: Welche Typen von Robotern wollen wir in welchen Einsatzbereichen entwickeln und wie unterbinden wir so gut wie möglich Formen des Missbrauchs und unerwünschte Folgen? Wie gestalten wir sie so, dass ein gutes Leben für den Einzelnen und das Zusammenleben der Vielen in gerechten Institutionen ermöglicht wird?

Fazit

Am Schluss dieser tour d’horizon soll eine aufschließende Überlegung stehen.

Die Technik – und solche sind Roboter und Künstliche Intelligenz nach wie vor – macht nicht das gute Leben. Wir dürfen von der Technik keine Dinge erwarten, die sie nicht leisten kann. Sie kann ein Mittel sein, wenn wir Menschen uns selbst darüber klar sind, was wir als das gute Leben begreifen wollen.

So lange wir das nicht wissen oder dieser Frage ausweichen, wird uns Technik nicht weiterhelfen, sondern sie wird uns womöglich auf Pfade führen, von denen wir irgendwann sagen müssen: Das war’s nicht. Aber dann sitzen wir auf diesen Pfaden fest und werden von ihnen nur schwer herunterkommen.

Der Informatiker Jürgen Schmidhuber hat jüngst in einem Interview prognostiziert, dass es nur noch wenige Jahre dauern werde, bis die technische Intelligenz die menschliche übertreffen und sich das Gefälle zwischen Mensch und Maschine umkehren werde. Er beruhigte aber auch und meinte, es werde für den Menschen gut ausgehen, weil sich die Maschinen uns gegenüber verhalten würden wie wir uns gegenüber unseren Hauskatzen. [10]

Nach welchem Bilde konstruieren wir die neuen intelligenten Maschinen, wieviel Freiheit schreiben wir ihnen ein? Wie können wir uns darauf vorbereiten, dass sie sich ihre Freiheit nehmen werden – auch wenn das nicht in unserem Interesse ist?

Die hier skizzierten Fragen sollten meines Erachtens nicht auf eine Debatte im Kreis der Experten eingeschränkt werden. Forschung, Entwicklung und Einsatz – und nicht zu vergessen: die Entsorgung – von Robotern betreffen die gesamte Gesellschaft.

Im Wortsinn geben wir der Gesellschaft mit den Entscheidungen, die wir in dieser Sache treffen, ein neues Gesicht. Und es liegt an unser aller Achtsamkeit, Verantwortlichkeit und Gestaltungswillen, dass es keine Fratze, sondern ein menschenfreundliches Antlitz ist.

Literatur

[1] Dittmann, Frank (2016): Mensch und Roboter – ein ungleiches Paar. In: Manzeschke, Arne und Karsch, Fabian (Hrsg.): Roboter, Computer und Hybride. Was ereignet sich Menschen und Maschinen?, Baden Baden: Nomos, S. 17–46

[2] Böhme, Gernot (1997): Ethik im Kontext. Über den Umgang mit ernsten Fragen, Frankfurt am Main: Suhrkamp, S. 17

[3] De Waal, Frans (2015): Der Mensch, der Bonobo und die zehn Gebote, Stuttgart: Klett-Cotta

[4] Meyer-Drawe, Käte (1996): Menschen im Spiegel ihrer Maschinen, München: Wilhelm Fink

[5] Kamper, Dietmar und Wulf, Christoph (1994): Einleitung: Zum Spannungsfeld von Vervollkommnung und Unverbesserlichkeit. In: Dies. (Hrsg.): Anthropologie nach dem Tode des Menschen, Frankfurt/Main: Suhrkamp, S. 7-12

[6] Anders, Günter (1956): Die Antiquiertheit des Menschen. Über die Seele im Zeitalter der zweiten industriellen Revolution, München: C. H. Beck

[7] J. C. R. Licklider (1960): Man-Computer Symbiosis. In: IRE Transactions on Human Factors in Electronics, volume HFE-1, pages 4-11, March 1960

[8] Ricœur, Paul (2005): Ethik und Moral. In: Ders.: Vom Text zur Person. Hermeneutische Aufsätze (1970–1999), Hamburg: Meiner, S. 251–267, S. 252, Hervorhebung im Text.

[9] Manzeschke, Arne; Weber, Karsten; Rother, Elisabeth und Fangerau, Heiner (2013): Ergebnisse der Studie »Ethische Fragen im Bereich Altersgerechter Assistenzsysteme«, Berlin: VDI/VDE

[10] Wiedemann, Carolin (2017): Werden wir ihre Katzen sein? In: Frankfurter Allgemeine Sonntagszeitung vom 26. 11. 2017, S. 55

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Ersatz Original 7.4V Yaesu VX6R,VX7R,VXA700/710,FNB80L FNB80LI,vertex FNB-80LI Akku bei Akkusmir.de

Gute Qualität FNB-80LI Akku 48Wh – Kaufen FNB-80LI akku für Yaesu VX6R,VX7R,VXA700/710,FNB80L FNB80LI,vertex bei akkusmir.de. Ihrem zuverlässigen Lieferant für und weitere Ersatzteile für Ihr Laptop. ustausch YAESU FNB-80LI 7.4V Batterienmit niedrigem Preis und 1 Jahr Garantie.

Technische Daten

  • Passend für Marke: YAESU
  • Kapazität:1650MAH
  • Spannung:7.4V
  • Tyyppi:Li-ion
  • Farbe:

Kompatible Produkte:

Passend für folgende Geräte:

Yaesu VX6R,VX7R,VXA700/710,FNB80L FNB80LI,vertex

Wie pflege und lade ich meinen YAESU FNB-80LI Akku richtig?

Wenn Sie ihr hauptsächlich mit Netzteil betreiben, sollten Sie Ihren YAESU FNB-80LI Akku entfernen und bei Seite legen, dies spart Ladezyklen. Nach spätestens ein-zwei Monaten laden Sie Ihn wieder auf.
Achten Sie darauf, dass Sie den Akku nicht vollständig entladen, da dies zu einer „Tiefenentladung“ führen kann, wodurch sich der YAESU FNB-80LI Akku nicht mehr laden lässt. Bei min. 5-7 % Restkapazität können Sie den YAESU FNB-80LI Akku wieder aufladen.
Laden Sie Ihren YAESU FNB-80LI Akku wenn möglich im ausgeschalteten auf, da die optimale Temperatur für Akkus laut Hersteller zwischen 10 und 30 Grad Celsius liegt. Die Temperatur eines eingeschalteten überschreitet in der Regel die 30 Grad Celsius Marke.
Wenn Sie mehrere YAESU FNB-80LI Akkus besitzen, benutzen Sie diese einfach abwechselnd.
Nach längerer Lagerung bzw. Erstbenutzung benötigt ein Akku etwas 2-3 vollständige Ladevorgänge, bevor er seine volle Kapazität wieder erreicht hat.
Vermeiden Sie hohe Temperaturen wie z.B. durch direkte Sonneneinstrahlung, Lagerung in einem heißen Auto etc. (hohe Temperaturen beschleunigen die Selbstentladung und Alterung Ihres Akkus)
Li-Ionen Akkus haben ca. 500-1000 Ladezyklen. Jeder Bootvorgang oder Ein-/Ausschalten mit angestecktem Netzteil ist ein Ladezyklus (auch wenn der Akku eigentlich nicht geladen werden muss). Aus diesem Grund empfehlen wir unseren Kunden den Yaesu VX6R,VX7R,VXA700/710,FNB80L FNB80LI,vertex Akku (wenn möglich) zu entfernen oder den alten Akku einzulegen, wenn das längere Zeit nur am Netz betrieben wird.

Ersatz Original 3.7V KENWOOD TK-2118 TK-3118 Radio PB-40 Akku bei Akkusmir.de

Gute Qualität PB-40 Akku 48Wh – Kaufen PB-40 akku für KENWOOD TK-2118 TK-3118 Radio bei akkusmir.de. Ihrem zuverlässigen Lieferant für und weitere Ersatzteile für Ihr Laptop. ustausch KENWOOD PB-40 3.7V Batterien mit niedrigem Preis und 1 Jahr Garantie.

Technische Daten

  • Passend für Marke: KENWOOD
  • Kapazität:1100MAH
  • Spannung:3.7V
  • Tyyppi:Li-ion
  • Farbe:

Kompatible Produkte:

Passend für folgende Geräte:

KENWOOD TK-2118 TK-3118 Radio

Wie pflege und lade ich meinen KENWOOD PB-40 Akku richtig?

Wenn Sie ihr hauptsächlich mit Netzteil betreiben, sollten Sie Ihren KENWOOD PB-40 Akku entfernen und bei Seite legen, dies spart Ladezyklen. Nach spätestens ein-zwei Monaten laden Sie Ihn wieder auf.
Achten Sie darauf, dass Sie den Akku nicht vollständig entladen, da dies zu einer „Tiefenentladung“ führen kann, wodurch sich der KENWOOD PB-40 Akku nicht mehr laden lässt. Bei min. 5-7 % Restkapazität können Sie den KENWOOD PB-40 Akkuwieder aufladen.
Laden Sie Ihren KENWOOD PB-40 Akku wenn möglich im ausgeschalteten auf, da die optimale Temperatur für Akkus laut Hersteller zwischen 10 und 30 Grad Celsius liegt. Die Temperatur eines eingeschalteten überschreitet in der Regel die 30 Grad Celsius Marke.
Wenn Sie mehrere KENWOOD PB-40 Akkus besitzen, benutzen Sie diese einfach abwechselnd.
Nach längerer Lagerung bzw. Erstbenutzung benötigt ein Akku etwas 2-3 vollständige Ladevorgänge, bevor er seine volle Kapazität wieder erreicht hat.
Vermeiden Sie hohe Temperaturen wie z.B. durch direkte Sonneneinstrahlung, Lagerung in einem heißen Auto etc. (hohe Temperaturen beschleunigen die Selbstentladung und Alterung Ihres Akkus)
Li-Ionen Akkus haben ca. 500-1000 Ladezyklen. Jeder Bootvorgang oder Ein-/Ausschalten mit angestecktem Netzteil ist ein Ladezyklus (auch wenn der Akku eigentlich nicht geladen werden muss). Aus diesem Grund empfehlen wir unseren Kunden den KENWOOD TK-2118 TK-3118 Radio Akku (wenn möglich) zu entfernen oder den alten Akku einzulegen, wenn das längere Zeit nur am Netz betrieben wird.

Ersatz Original 3.8V/4.35V Lenovo K100 K900 BL207 Akku bei Akkusmir.de

Gute Qualität BL207 Akku 48Wh – Kaufen BL207 akku für Lenovo K100 K900 handys bei akkusmir.de. Ihrem zuverlässigen Lieferant für Smartphone und weitere Ersatzteile für Ihr Laptop. ustausch LENOVO BL207 3.8V/4.35V Smartphone Batterien mit niedrigem Preis und 1 Jahr Garantie.

Technische Daten

  • Passend für Marke: LENOVO
  • Kapazität:2450MAH/9.31Wh
  • Spannung:3.8V/4.35V
  • Tyyppi:Li-ion
  • Farbe:

Kompatible Produkte:

Passend für folgende Geräte:

Lenovo K100 K900

Wie pflege und lade ich meinen LENOVO BL207 Akku richtig?

Wenn Sie ihr Smartphone hauptsächlich mit Netzteil betreiben, sollten Sie Ihren LENOVO BL207 Akku entfernen und bei Seite legen, dies spart Ladezyklen. Nach spätestens ein-zwei Monaten laden Sie Ihn wieder auf.
Achten Sie darauf, dass Sie den Akku nicht vollständig entladen, da dies zu einer „Tiefenentladung“ führen kann, wodurch sich der LENOVO BL207 Akku nicht mehr laden lässt. Bei min. 5-7 % Restkapazität können Sie den LENOVO BL207 Akku wieder aufladen.
Laden Sie Ihren LENOVO BL207 Akku wenn möglich im ausgeschalteten Smartphone auf, da die optimale Temperatur für Akkus laut Hersteller zwischen 10 und 30 Grad Celsius liegt. Die Temperatur eines eingeschalteten überschreitet in der Regel die 30 Grad Celsius Marke.
Wenn Sie mehrere LENOVO BL207 Akkus besitzen, benutzen Sie diese einfach abwechselnd.
Nach längerer Lagerung bzw. Erstbenutzung benötigt ein Akku etwas 2-3 vollständige Ladevorgänge, bevor er seine volle Kapazität wieder erreicht hat.
Vermeiden Sie hohe Temperaturen wie z.B. durch direkte Sonneneinstrahlung, Lagerung in einem heißen Auto etc. (hohe Temperaturen beschleunigen die Selbstentladung und Alterung Ihres Akkus)
Li-Ionen Akkus haben ca. 500-1000 Ladezyklen. Jeder Bootvorgang oder Ein-/Ausschalten mit angestecktem Netzteil ist ein Ladezyklus (auch wenn der Akku eigentlich nicht geladen werden muss). Aus diesem Grund empfehlen wir unseren Kunden den Lenovo K100 K900 Akku (wenn möglich) zu entfernen oder den alten Akku einzulegen, wenn das Smartphone längere Zeit nur am Netz betrieben wird.

PC-Absturz: Gründe und Schutzmaßnahmen

Ein plötzlicher PC-Absturz ist der Super-Gau. Wir nennen typische Gründe dafür, weswegen der Rechenknecht streiken kann. Und geben Tipps als Schutzmaßnahmen gegen Abstürze.

Zunächst ist es nur ein kleines Stottern. Als nächstes stürzen Programme ab und merkwürdige Geräusche dringen aus Ihrem Arbeits-PC. Es folgt der obligatorische Bluescreen: Ihr PC ist gecrasht und Sie sitzen bloß da, warten einen Neustart ab und hoffen, dass all das keine ernsthaften Schäden hinterlassen hat. Zumal auf Ihrem Arbeits-PC alle Dateien liegen, die Sie für Ihr aktuelles Projekt dringend  benötigen. Und der Kunde wartet…

Für solche Horror-Szenarien gibt es viele mögliche Ursachen. Umso wichtiger ist es zu wissen, wie und warum ein PC zusammenbricht, um Abstürze in Zukunft zu vermeiden. Denn eines sollten Sie sich immer vor Augen halten: Der nächste Crash Ihres PCs könnte auch sein letzter sein.

Exklusiv: PC-Welt-Rettungs-DVD hilft bei jedem Windows-Notfall

Hardware-Konflikte

Die meisten Bluescreens sind das Resultat von Hardware- und Installations-Konflikten. Alle Ihre System-Komponenten brauchen IRQs (Interrupt Request Channels) wenn sie installiert werden und jede Komponente benötigt ihren eigenen Kanal, um richtig zu funktionieren. Wenn sich zwei Komponenten den gleichen Kanal teilen und gleichzeitig benutzt werden, kann es zu einem Absturz kommen.

Werfen Sie einen Blick in Ihren Geräte-Manager (bei Windows 7 finden Sie diesen unter „Systemsteuerung, Hardware und Sound“) und suchen Sie nach Geräten, die mit einem gelben Ausrufezeichen markiert sind. Hier liegen die Probleme, die sich oft allein mit einem Treiber-Update beheben lassen. Suchen Sie einfach auf der Webseite des Geräteherstellers nach den neuesten Treibern oder installieren Sie notfalls die betroffene Hardware neu.

RAM-Fehler

Fehler beim Arbeitsspeicher können ebenfalls die Ursache zahlreicher Bluescreens und Boot-Fehler sein. Zum Glück gehören Ihre RAM-Module zu den am einfachsten zu überprüfenden und auch auszutauschenden Komponenten.

Bemühen Sie zunächst die kostenlose Software Memtest86+ um sicherzugehen, dass der Problemherd tatsächlich Ihr RAM ist. Wenn Fehler entdeckt werden, müssen Sie als nächstes herausfinden, welcher Ihrer RAM-Riegel betroffen ist. Entfernen Sie dazu alle Riegel aus Ihrem System bis auf einen, den Sie in den primären Speicherslot stecken. Wenn das System nun ordnungsgemäß bootet und Memtest86+ keine Fehler entdeckt, fahren Sie nach dem gleichen Schema mit den verbleibenden RAM-Riegeln fort. Dabei immer nur einen Riegel gleichzeitig in den RAM-Slot stecken und booten, bis das System entweder Boot-Fehler produziert, oder Memtest86+ ein Problem entdeckt.

Wenn Sie herausgefunden haben, welches Modul die Probleme verursacht, können Sie es einfach durch einen neuen Riegel ersetzen. Achten Sie aber darauf, dass er kompatibel zu Ihrem Motherboard und den anderen RAM-Modulen ist.

Ihr Feind: Die Hitze

Computer erhitzen sich. Das wissen wir spätestens, wenn der Lüfter im Desktop-PC mal wieder besonders laut rotiert, oder sich unsere Beine nach ein paar Stunden unter dem Laptop wie frisch gegrillt anfühlen. Alles im Innern eines PCs erzeugt Abwärme. Und Hitze kann dazu führen, dass Komponenten instabil werden und Ihren PC zum Absturz bringen. Zum Glück, muss man fast sagen; denn PCs sind so gebaut, dass sie sich bei zu großer Hitzeentwicklung automatisch abschalten, um bleibende Hitzeschäden an Komponenten zu vermeiden.

Wenn Sie das Gefühl haben, Ihr PC leitet die Wärme nicht ausreichend ab, überprüfen Sie zuerst alle verbauten Ventilatoren auf ihre Funktionstüchtigkeit. Wenn sich einer gar nicht oder zu langsam bewegt, sehen Sie nach, ob alle Kabelverbindungen richtig sitzen. Wenn die Kabel richtig angeschlossen sind und sich der Lüfter trotzdem nicht bewegt, ist es besser, ihn auszutauschen. Als nächstes stellen Sie sicher, dass alle Lüftungsschlitze, Gitter und Filter in Ihrem PC frei von Staub, Tierhaaren und anderen Materialien sind und die Luft so ausreichend zirkulieren kann. Diese Stellen sind wahre Brutstätten für Hitzebildung. Wenn Sie stark verstaubte oder anderweitig blockierte Komponenten entdecken, reinigen Sie sie mit einem speziellen Luftdruckspray.

Wenn Sie einen Laptop besitzen, achten Sie darauf, dass dieser beim Arbeiten stets auf einem harten, flachen Untergrund steht, der die Lüftungsschlitze nicht verschließt oder behindert. Sie können die Temperatur Ihres Systems mit kostenlosen Tools, etwa dem PC Wizard , überwachen. Zusätzlich zu ein paar anderen nützlichen Infos zeigt es Ihnen die Echtzeit-Temperatur aller Ihrer Komponenten an. Wenn in puncto Luftzirkulation alles tiptop ausschaut und Ihr PC sich trotzdem überhitzt, werfen Sie einen Blick in Ihre BIOS-Einstellungen. Wenn Sie während einer Übertaktungs-Eskapade an den Volt-Einstellungen herumgespielt haben, setzen Sie diese wieder auf ihre Ursprungswerte zurück. Je mehr Volt einer Komponente zugefügt, desto heißer wird sie.

Vielleicht haben Sie auch kürzlich eine neue CPU eingebaut? Dann könnte die Ursache für die Abstürze darin liegen, dass Sie die Wärmeleitpaste falsch aufgetragen haben. Entfernen Sie das Wärmeleitblech also wieder, reinigen Sie die Oberflächen mit einem Wattebausch und Isopropyl-Alkohol und versuchen Sie es erneut. Für das Auftragen von Wärmeleitpaste gibt es verschiedene Theorien, das Ziel ist jedoch stets das gleiche: Die Wärmeleitpaste legt sich zwischen die mikroskopisch kleinen Hügel und Täler auf der Oberfläche der CPU und der Wärmeleitplatte, um den bestmöglichen Kontakt zwischen beiden Komponenten herzustellen. Die Paste wirkt nicht, wenn zu wenig davon aufgetragen wurde und ebenso bleibt sie wirkungslos, wenn zu viel benutzt wurde. Arbeiten Sie also am besten nach der „Erbsen-Methode“: Setzen Sie einen kleinen, erbsengroßen Tropfen der Paste in die Mitte der CPU und setzen Sie dann das Wärmeleitblech direkt darauf. Der natürliche Druck verteilt die Paste gleichmäßig.

Fehlerquellen Netzteil und Festplatte

Es ist zwar immer befriedigend, wenn man einen alten PC mit neuen, leistungsstärkeren Komponenten aufrüsten kann. Und auch das (leichte) Übertakten der CPU führt oft zu erstaunlichen Performance-Ergebnissen. Doch Sie sollten nur so weit upgraden, wie die Leistung Ihres Netzteils hierfür ausreicht. Ansonsten kann Ihr PC instabil werden und unerwünschte Neustarts provozieren.

Es ist nicht einfach herauszufinden, welche Komponenten am meisten Strom verbrauchen. Die Webseite des jeweiligen Geräteherstellers kann aber Aufschluss geben. So können Sie zumindest in etwa den gesamten Stromverbrauch Ihres PCs errechnen und mit der Leistung Ihres Netzteils vergleichen. Wenn sich herausstellt, dass Ihr Netzteil die Summe der Strom verbrauchenden Komponenten nicht stemmen kann, müssen Sie eine Entscheidung treffen. Wenn Sie Ihre CPU übertaktet haben, können Sie den Prozessor wieder in seinen Ursprungszustand versetzen, um Strom einzusparen. Alternativ ersetzen Sie einige besonders stromhungrige Teile durch sparsamere Komponenten. Oder Sie bauen ein leistungsstärkeres Netzteil ein. Ein 500- bis 650-Watt-Netzteil reicht in aller Regel für einen PC mit durchschnittlicher Leistung aus.

Fragmentierte Festplatten

Jedes Mal, wenn Sie eine Datei speichern, ein Programm installieren oder etwas löschen, wird Ihre Festplatte ein klein wenig fragmentierter – und dadurch instabiler. Das verlangsamt sie nicht nur, es kann Ihrem Betriebssystem auch Probleme bereiten, wenn es darum geht, systemrelevante Dateien für den Betrieb zu finden. Nicht selten wird Ihr System dabei aufgeben und es nochmal versuchen wollen – mit einem Absturz.

Ungefähr wöchentlich sollten Sie deshalb Ihre Festplatten (HDD) defragmentieren. Der Prozess dauert je nach Festplattengröße und Dateienmenge allerdings unangenehm lang und ist ausgesprochen hinderlich, wenn Sie nebenbei gerade am PC arbeiten müssen (während des Defragmentierens können Sie keine Dateien abspeichern). Starten Sie den Vorgang also lieber, wenn Sie Ihre Arbeit beendet haben – zum Beispiel nach Büroschluss.

Wichtig: Das Defragmentieren ist bei Solid State Drives (SSDs) nicht notwendig. SSDs speichern alle Daten bereits in einer fortlaufenden Reihenfolge (statt zufälliger Reihenfolge) und sind anfällig für Schäden, wenn sie trotzdem defragmentiert werden.

Unordentliche Registry

Die Registry Ihres PCs ist eine weitläufige Bibliothek von Systemeinstellungen. Die manchmal auch zu Bluescreens und anderen Fehlern führen können. Denn selbst wenn Sie ein Programm deinstallieren, können Registry-Einstellungen zurückbleiben. Diese Einstellungen sind im alltäglichen PC-Gebrauch nutzlos, können aber Systemfehler und Konflikte beinhalten. Denn Ihr PC wird die fehlerbehafteten Registry-Einträge wieder und wieder scannen – und verlangsamt so andere Prozesse. Zu viel davon und Ihre System-Stabilität geht endgültig den Bach runter.

Ein guter Registry-Cleaner – etwa Free Wise – ist das perfekte Tool, um den ganzen Abfall loszuwerden. Free Wise scannt Ihre Registry, findet die Probleme und beseitigt sie – und Ihre Registry ist wieder sauber.

Der gefürchtete Virus

Ja, auch Malware ist ein wichtiger Verursacher von Bluescreens. Zum Glück ist die Lösung simpel: Starten Sie das Antivirus-Programm Ihres Vertrauens, stellen Sie sicher, dass es auf dem aktuellsten Stand ist und scannen Sie Ihr System mit dem gründlichsten Scan, den das Programm zu bieten hat.

Wenn der Virus Sie daran hindert, Ihre Antiviren-Software zu starten, starten Sie Ihren Rechner im abgesicherten Modus neu, indem Sie beim Bootprozess F8 drücken, bevor das Windows-Logo auftaucht. Der abgesicherte Modus hindert alle irrelevanten Programme und Treiber daran, zu starten – nur das Kernsystem wird geladen. Im abgesicherten Modus sollten Sie in der Lage sein, Ihr Antiviren-Programm zu starten und den Scan durchzuführen.

22 Antivirus-Programme unter Windows 7 im Test

Hinweise sammeln, Probleme beheben

Jede Information, die Sie aus einem Bluescreen ziehen können, hilft Ihnen dabei, die Lösung für Ihr spezielles Problem zu finden. Wenn Sie also ein Bluescreen plagt, schreiben Sie sich so viel davon auf, wie Sie können und suchen Sie dann online nach Informationen zu den einzelnen Fehlermeldungen. Diagnostizieren Sie das Problem und lösen Sie es – denn das Problem einfach nur zu ignorieren, wird es auf lange Sicht verschlimmern.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Was ist was im Netzwerk – Router, Switch, Hub und Co.

Router, Repeater, Switch, Bridge, Access Point, Hub und Netzadapter sorgen dafür, dass Datenpakete dort ankommen, wo sie hin sollen. Wir erläutern, wie die Netzwerkgeräte funktionieren, was sie voneinander unterscheidet und worauf Sie beim Einsatz achten müssen.

Ohne sie kommt kein Netzverkehr zustande: Router, Repeater, Switch und Hub machen den Datenaustausch erst möglich. Sie sind die Schaltstellen, an denen Datenpakete auflaufen. Allen gemein ist, dass sie die Daten weiterleiten. Dazu bedienen sich diese Geräte unterschiedlicher Methoden, je nachdem, auf welcher Schicht des standardisierten OSI-Referenzmodells sie arbeiten. Dass gerade Switches, Router und Hubs trotzdem häufig verwechselt werden, liegt einerseits an falsch verwendeten Begrifflichkeiten und andererseits an der sehr ähnlichen Arbeitsweise. Dieser Beitrag klärt auf über die Gerätegattungen und die unterschiedlichen Einsatzzwecke.

Router

Router leiten Datenpakete weiter (Routing) oder blocken sie ab. Datenpakete sind zwischen 64 und 1518 Byte lang; in den ersten sechs Byte steckt die Zieladresse, in den letzten vier Byte eine CRC-Prüfsumme. Geroutete Datenpakete kommen dann entweder direkt im Zielnetzwerk an oder bei einem anderen Router , der seinerseits die Datenpakete weiterleitet. Zum Weiterleiten der Pakete orientiert sich ein Router an einer Routing-Tabelle. Diese kann für IPv4 unter Windows ebenso wie unter Linux mit dem Befehl „netstat -r“ angezeigt werden. In IPv6-Netzwerken benutzt man unter Windowsden Befehl „netsh interface ipv6 show route“, in Unix zum Beispiel „netstat -A inet6 -r“. Anhand der Routing-Tabelle bestimmt der Router, über welche Schnittstelle er die Datenpakete weiterleitet. Als Schnittstellen werden real existierende ebenso wie virtuelle in einem Router eingesetzt.

Router arbeiten auf der Vermittlungsschicht (Schicht 3) des OSI-Referenzmodells, ebenso wie Layer-3-Switche. Das Weiterleiten der Datenpakete geschieht somit beispielsweise per IP-Adressierung und nicht, wie etwa in der darunterliegenden Schicht 2, hardwareunterstützt (etwa anhand von MAC-Adressen) oder mit dem früher in Windows genutzten NetBEUI -Protokoll. Heute werden fast nur noch Router auf IP-Basis genutzt, weil die anderen Netzwerkprotokolle kaum noch eine Rolle spielen.

Es gibt Router in verschiedenen Ausprägungen: Hardware-Router sind für das Routing optimierte Geräte, die für den Dauerbetrieb ausgelegt sind. Sie besitzen meist redundante Netzteile und andere Hardware, um Ausfälle sehr gering zu halten. Komponenten können oft im laufenden Betrieb gewechselt werden. Unterhalb dieses Highend-Bereichs verschwimmen die Grenzen: Hier findet man auch Layer-3-Switche, die als Router, Switch oder beides arbeiten. Im Gegensatz dazu stehen die Software-Router. Das sind Workstations oder Server , die mit MacOS X, Unix oder Windows laufen und per Software zum Router werden. Nachteilig ist hier vor allem der hohe Stromverbrauch, sodass sich gerade im Heimbereich ein Software-Router nicht lohnt.

Wer nicht die Übertragungsgeschwindigkeit eines Hardware-Routers benötigt, kann kostengünstiger auch einen sogenannten Routing-Cluster einsetzen. Solche Lösungen kommen häufig in Universitäten und Schulen vor. Dabei werden beispielsweise Software-Router über einen Profi-Switch miteinander verbunden, dessen Datendurchsatzrate die des gesamten Clusters vorgibt.

Am unteren Ende stehen die DSL- und WLAN-Router . Diese Geräte vereinen DSL-Modem (oder Access Point beim WLAN-Router), Switch und Router. Oftmals handelt es sich dabei allerdings nicht um komplette Router. Sie sind lediglich für den Internetzugang geeignet und können nur mit aktiviertem PPPoE und NAT-Routing eingesetzt werden. Fehlt beim WLAN-Router der WAN-Port, ist das lediglich eine Brigde und kein Router.

Switch

1990 kam der erste Switch auf den Markt. Er wurde angeboten von der Firma Cisco , die damals noch unter dem Namen Kalpana firmierte. Der Switch verfügte über sieben 10-Mbit-Ethernet-Ports, bot einen höheren Datendurchsatz als Ciscos Highend-Router und war erheblich günstiger. Das Gerät hatte aber noch einen weiteren entscheidenden Vorteil: Innerhalb des Netzwerks waren keine Änderungen erforderlich, Switches wurden transparent in bestehende Netze integriert. Damit begann der bis heute anhaltende Erfolg dieser Gerätegattung. In aktuellen 10-Gbit-Netzwerken wird mittlerweile alles geswitcht; auf Hubs wird verzichtet, und selbst große Netzwerksegmente mit tausenden Computern können über Switches verbunden werden.

So funktioniert ein Switch

Switches sind die Weiterentwicklung von Bridges, die üblicherweise nur zwei Ports haben. Switches haben zwischen vier und mehreren Dutzend Ports. Sie arbeiten auf dem Data Link Layer (der Sicherungsschicht 2) des OSI-Modells. Es gibt auch die sogenannten Multilayer-Switches, die auf der Netzwerkebene (Schicht 3) arbeiten. Verwaltet und gesteuert werden Switche entweder über die Kommandozeile, über eine Weboberfläche oder über eine entsprechende Steuersoftware.

Ein Switch muss allerdings üblicherweise nicht konfiguriert werden. Zu den Datenpaketen speichert ein Switch die MAC-Adresse, von der gesendet wurde, und den Port, an dem das Paket ankam, in der sogenannten Source-Address-Table (SAT). Die Pakete werden dann an den entsprechenden Port weitergeleitet, falls dieser bereits bekannt ist. Sollte das nicht der Fall, sendet der Switch das Paket an alle aktiven Ports. Dabei arbeitet ein Switch nahezu transparent, ist also fast unsichtbar. Ein Problem dabei: Werden Pakete an andere Netzwerksegmente geleitet, kann sich die Kommunikation verzögern. Das wird dann meist über Protokolle wie TCP in höheren Schichten ausgeglichen.

Switches können Datenpakete unterschiedlich behandeln. Bessere Switches nutzen das Fast-Forwarding-Verfahren. Sie leiten die Pakete sofort nach Erhalt weiter. Die Fehlerprüfung muss dann von anderen Geräten übernommen werden. Nicht ganz so schnell ist die Fragment-Free-Methode. Auch sie beherrschen nur die besseren Switches. Sie leiten Datenpakete erst weiter, wenn diese mindestens eine Länge von 64 Byte haben. Der Grund: Kleinere Pakete sind oft nur die Trümmer von Datenkollisionen im Netz. Alle Switches beherrschen die langsame Store-and-Forward-Methode. Hierbei wird das gesamte Paket empfangen und erst nach der CRC-Prüfung weitergeleitet. Eine Kombination aus mehreren der genannten Methoden ist das Error-Free-Cut-Through- oder Adaptive-Switching. Dabei bleibt eine Kopie des Datenpakets im Switch, um die Prüfsumme zu berechnen. Fehler werden gezählt, und bei zu vielen wird in einen langsameren Modus gewechselt.

Die Ports von Layer-2-Switches empfangen und senden Daten unabhängig voneinander. Sie sind entweder über einen Hochgeschwindigkeits-Bus oder kreuzweise miteinander verbunden. Neuere Modelle sowie alle Gbit-Ethernet-Switches können die Sende- und Empfangsleitungen selbstständig ermitteln. AutoMDI(X) heißt diese Funktion – ob gekreuzte oder ungekreuzte Verkabelung, das ist solchen Geräten egal. Switches können in beliebiger Anzahl verbunden werden. Wie viele Rechner angeschlossen werden können, hängt von der Zahl der möglichen SAT-Einträge ab. Allerdings richten sich alle Switches in Bezug auf die Knotenanzahl nach dem kleinsten Switch. Werden mehr Rechner drangehangen, bricht die Leistung ein.

Auch die Fehlersuche kann schwieriger sein, da Datenpakete im Idealfall nur auf denjenigen Strängen sichtbar sind, die zum gewünschten Ziel führen. Ein Administrator kann den Netzwerkverkehr so nur schwer beobachten. Möglich ist es trotzdem, denn es gibt Switches, die sogenanntes Port-Mirroring erlauben. Dabei legt der Nutzer fest, welche Ports überwacht werden sollen. Die Pakete werden dann von einem Sniffer zur Auswertung aufgezeichnet. Ein weiterer Nachteil von Switches: Fällt einer aus, ist das gesamte Subnetz betroffen. Dem kann der Administrator entgegenwirken, indem er die Ports bündelt. Für das Failover genannte Verfahren benötigt man allerdings für jeden Rechner mindestens zwei Ethernet-Karten mit entsprechender Software. Der Rechner ist dann über beide Karten an zwei Switches angeschlossen.

Wireless Access Point

Wireless Access Points kommen bei kleineren bis großen Netzwerkinstallationen zum Einsatz. Dabei gleicht ihre Arbeitsweise einem Switch oder eine Netzwerk-Bridge und ist ebenfalls im Data Link Layer 3 (Sicherungsschicht 2) angesiedelt. Die Wireless-Zugangspunkte stellen quasi die Schnittstelle zwischen der kabellosen und kabelgebundenen Netzwerkinfrastruktur her. Dabei agiert der AP als Brücke, um entfernte Bereiche in das Netzwerk mit einzubeziehen. So kann ein Wireless Access Point dazu benutzt werden, einzelne entfernte Gebäudeteile mit in das Gesamtnetzwerk einzubinden. Darüber hinaus erleichtern APs mobile Geräte überall in einem Unternehmen zu nutzen, vorausgesetzt die Funkreichweite der APs reicht aus, um alle relevanten Stellen auszuleuchten.

Wirelesss Access Points – Einschränkungen

Im Vergleich zu Routern verfügen Wireless Access Points über einen reduzierten Funktionsumfang. So besitzen APs zum Beispiel keine Routing-Funktion, auch ein DHCP-Server und ist nicht integriert. In der Regel verfügen die Systeme über keine Sicherheitsfunktionen wie DoS (Denial of Service), Intrusion Detection mit SPI (Stateful Packet Inspection) sowie Content-Filtering. Allerdings integrieren viele mittlerweile viele Hersteller diese Funktionen mehr und mehr in die APs.

Die Access Points arbeiten nach dem Standard IEEE-802.11 und wird per sogenannter SSID (Service Set Identifier) von den Geräten im Netzwerk identifiziert. Die Funkverbindung erfolgt je nach Sicherheitsstufe entsprechenden den aktuellen Standards WEP, WPA oder WPA2 verschlüsselt.

Aktuelle AP-Geräte besitzen ein Set von unterschiedlichen Infrastruktur-Betriebsmodi. Dazu zählen Ethernet Bridge, Wireless Bridge, Wireless Repeater, Wireless Distribution System, Basic Service Set (BSS und das Extended Service Set (ESS). Je nach konfigurierter Funktion verhält sich ein Access Point. Mit Hilfe dieser Funktionen kann der Anwender sein Access-Point-Netzwerk entsprechend seinen Anforderungen konfigurieren beziehungsweise erweitern.

Repeater

Repeater verstärken Signale, um die Reichweite zu vergrößern. Sie sind Elemente der Schicht 1 des OSI-Modells. Wenn Repeater mehr als zwei Anschlüsse haben, heißen sie Hubs. Repeater werden in LANs ebenso wie in WLANs eingesetzt. In einem LAN in Bus-Topologie nutzt man Repeater, um die maximale Kabellänge zu erweitern. Dadurch wird das Netz zwar in zwei Segmente geteilt, aber die Bus-Topologie bleibt erhalten. Der Vorteil: Fällt ein Teil des Netzwerks aus, ist nur dieser Teil betroffen. In einer Bus-Topologie ohne Repeater fiele hingegen das gesamte Netzwerk aus. Größere Entfernungen in einem Netzwerk werden über sogenannte Link-Segmente überbrückt. Das sind zwei Repeater, die per Glasfaserkabel verbunden sind.

WLAN-Repeater

In einem WLAN dienen Repeater ebenso wie im LAN dazu, die Reichweite zu erhöhen. Allerdings werden Repeater wie jedes andere Gerät im WLAN behandelt: Sie teilen sich mit den anderen Clients die Daten übertragungsrate, sodass diese sich beim Einsatz eines Repeaters halbiert. Der Repeater selbst ist im WLAN nicht sichtbar, weil er üblicherweise dieselbe SSID wie der Access Point hat. Ein weiterer Client merkt dabei dank Roaming nicht, mit wem er sich gerade verbindet: dem Access-Point oder dem Repeater.

Einen Nachteil hat der Einsatz eines Repeaters allerdings: Eventuell muss beim Access-Point die automatische Kanalwahl ausgeschaltet werden. Mit einer festen Adresse kommen dem Benutzer aber eventuell andere WLANs in die Quere, die sich dann wiederum negativ auf die Daten übertragungsrate auswirken.

Netzwerk-Bridge

Eine Bridge (auf Deutsch: Brücke) verbindet zwei Teile eines Netzwerks . Bridges arbeiten wie Switches auf der Schicht 2 des OSI-Modells und dort entweder auf der MAC- oder der LLC-Unterschicht (LLC = Logical Link Control). Dementsprechend spricht man von MAC- oder LLC-Bridges. MAC-Bridges nutzt man vor allem, um die Last in großen Netzen zu mindern, denn jeder Strang erhält nur die Pakete, die für ihn bestimmt sind. Mit LLC-Bridges verbindet man Teilnetze mit unterschiedlichen Zugriffsverfahren. In einer LLC-Bridge werden die Parameter zwischen den Netzwerksträngen angepasst und übersetzt.

Arbeitet die Bridge transparent, speichert sie die Absender in eine Tabelle. So werden Datenpakete schneller ausgeliefert. Im Gegensatz dazu hat eine Source-Routing-Bridge keine Weiterleitungstabelle, da stellt der Paketabsender die Informationen bereit. Steht der Empfänger nicht in der Tabelle, verhält sich die Bridge wie ein Hub: Sie broadcastet an alle. Bevor eine Bridge Datenpakete versendet, muss erst das gesamte Paket fehlerfrei angekommen sein; darin unterscheiden sich Bridges von den meisten Switches.

Das ist auch ein Grund, warum Bridges langsamer sind als Switches. Darüber hinaus können Switches mehrere Pakete gleichzeitig zwischen verschiedenen Port-Paaren übertragen. Dafür können Switches nur auf der MAC-, nicht aber auf LLC-Schicht arbeiten. Das war früher ein wichtiger Grund zum Einsatz von Bridges: Denn sie können unterschiedliche Architekturen wie Ethernet und Token Ring verbinden.

Hub

Ein Hub verteilt ebenso wie ein Switch Datenpakete in einem Netzwerk . Hubs arbeiten auf der Bit-Übetragungsschicht 1 des OSI-Referenzmodells. Sie dienen damit einzig dem Verteilen. Im Gegensatz zu Switches broadcastet ein Hub an alle angeschlossenen Stationen und belegt alle Ports. So bekommen auch diejenigen die Datenpakete zugeschickt, die nicht der Empfänger sind. In die andere Richtung bedeutet das, dass die angeschlossenen Rechner auch nur dann Daten senden können, wenn der Hub nicht sendet. Das bedeutet auch, dass an einem Hub mithilfe eines Netzwerk-Sniffers Datenausgespäht werden können. Aus diesen Gründen setzt man normalerweise auch Switches ein, weil diese zwei Ports direkt verbinden.

Hubs und ihre Probleme

Hubs kann man über einen Uplink-Port oder ein gekreuztes Kabel verbinden, um die Anzahl der Stationen zu erhöhen. Das ist allerdings nicht beliebig fortzuführen, da bei Hubs ähnlich wie bei Repeatern die Bandbreite geteilt wird. Deswegen werden Hubs oft auch Multiport-Repeater oder Repeating-Hub genannt – aber auch, weil Hubs das Signal so wie Repeater verstärken. Wer Hubs kaskadiert, muss auch darauf achten, dass das Senden der Pakete nicht beliebig verzögert werden kann. Wird die sogenannte Round-Trip-Delay-Time (die Übertragungszeit für den Hin- und Rückweg zwischen den entferntesten Knoten) zu lang, kommt es zu Datenkollisionen, und die gesamte Performance des Netzwerks sinkt. Für den Administrator ist das oft ein Grund zum Haareraufen, denn die Störung lässt sich nur schwer lokalisieren und tritt unter geringer Netzwerkauslastung oft gar nicht auf. Beim Aufbau eines Netzes mit Hubs sollte daher unbedingt die 5-4-3-Regel wie bei Repeatern befolgt werden, um RTDT-Fehlern vorzubeugen. Oder man sollte eben, wie in Gbit-Netzwerken üblich, keine Hubs mehr einsetzen.

Physikalisch werden mit Hubs Sterntopologien aufgebaut, entsprechen aber einer Bustopologie, weil die Datenpakete an alle gesendet werden. Der Vorteil gegenüber einem Bus: Wird eine Verbindung unterbrochen, ist nicht das gesamte Netzwerksegment betroffen, sondern nur die eine Station.

Netzwerkadapter

Einen Netzwerkadapter gibt es heutzutage auf jedem Motherboard. Er ist so weit miniaturisiert, dass nicht mal mehr eine Steckkarte erforderlich ist. Manche Serverbesitzen gar schon zwei eingebaute Netzwerkadapter – und da wird es interessant. Denn diese doppelte Lösung bietet mehr Schutz vor Ausfällen von Netzwerkadapter, Kabel oder Switch .

Vorteile durch mehrere Netzwerkadapter

Die Adapter können im Teaming beziehungsweise Bonding genutzt werden. Dazu gibt es zwei empfehlenswerte Strategien: Beim sogenannten Adaptive Load Balancing werden die Adapter mit unterschiedlichen Switches verbunden. Das beugt allen drei genannten Fehlerquellen vor.

Die zweite Strategie ist die sogenannte IEEE 802.3ad Dynamic Link Aggregation (LACP). Dabei werden alle Netzwerkadapter mit einem Switch verbunden. Der Vorteil dieser Methode: Sie kann je nach Switch-Konfiguration dieselbe Fehlertoleranz aufweisen wie das Adaptive Load Balancing, hat aber eine bessere Lastverteilung.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Windows to Go! – So starten Sie Windows vom USB-Stick

Die Installation auf einem USB-Laufwerk bietet Windows 10 in seinem Setup-Programm von Haus aus nicht an. Doch mit alternativen Tools können Sie sich ein portables Zweitsystem anlegen, das auch auf anderen PCs startet.

Windows lässt sich standardmäßig nur auf einer internen Festplatte installieren, die in der Regel am SATA-Port hängt. Das Windows-Setup-Programm zeigt zwar auch USB-Laufwerke an, die lassen sich jedoch nicht als Ziel für die Installation angeben. Ein USB-Laufwerk mit einer Windows-Installation kann jedoch in vielen Fällen nützlich sein. Etwa als unabhängiges Zweitsystem für Software-Tests, als Testsystem für neue Windows-Versionen oder als portables System inklusive nützlicher Tools für die Analyse und Reparatur anderer PCs.

Microsoft sieht das ähnlich, eröffnet jedoch nur Administratoren im Firmenumfeld die Möglichkeit einer USB-Installation über den Windows-To-Go-Assistenten (siehe Kasten unten). Die Technik des Assistenten lässt sich jedoch auch für die Home- und Pro-Versionen von Windows 10 oder 8.1 nutzen. Mit geeigneten Tools richten Sie auch diese Versionen auf einem USB-Laufwerk ein. Wir stellen Ihnen unterschiedliche Verfahren vor, die jeweils Vor- und Nachteile bei den unterschiedlichen Einsatzgebieten haben.

1. Besonderheiten bei USB-Laufwerken unter Windows

Wenn Sie eine USB-Festplatte oder einen USB-Stick mit dem PC verbinden, erhalten diese einen Laufwerksbuchstaben. Die externen Laufwerke lassen sich dann genauso verwenden wie interne Festplatten. Es gibt jedoch Unterschiede. Klicken Sie ein Laufwerk im Windows-Explorer mit der rechten Maustaste an, sehen Sie bei USB-Sticks den Kontextmenüpunkt „Auswerfen“. Bei USB-Festplatten fehlt er. In den „Eigenschaften“ der Laufwerke steht auf der Registerkarte „Allgemein“ hinter „Typ“ bei allen Festplatten „Lokaler Datenträger“, bei einem USB-Stick jedoch in der Regel „USB-Laufwerk“ oder „Wechseldatenträger“.

Intern behandelt Windows USB-Festplatten und -Sticks also unterschiedlich. Aktuelle PCs sollen nach Microsofts Willen abgesichert durch Secure Boot im Uefi-Modus starten, was eine FAT32-Partion für Uefi und eine NTFS-Partition für das System erfordert. Auf USB-Festplatten können Sie mehrere Partitionen einrichten, bei USB-Sticks funktioniert das jedoch erst seit dem Creators Update (Windows 10, Version 1703). Die für Windows 10 Enterprise To Go zertifizierten USB-Sticks melden sich daher auch als „Lokaler Datenträger“ und damit als Festplatte (siehe Kasten unten).

Die Einschränkungen sind eher prinzipiell von Microsoft vorgegeben, technisch aber nicht erforderlich. Auch Windows 10 Version 1803 lässt sich auf einer einzelnen NTFS-Partition installieren und damit auch auf USB-Sticks. Damit Windows vom Stick bootet, müssen Sie dafür aber in den Firmware-Einstellungen neuerer PCs das Compatibility Support Module (CSM) aktivieren. Suchen Sie nach Optionen wie „CSM“ oder „Legacy Boot“, die meist unter Menüs mit Namen wie „Boot“ zu finden sind.

2. Mögliche Einschränkungen durch die PC-Hardware

Es kommen noch weitere Faktoren hinzu, warum Microsoft eine USB-Installation für alle Benutzer verhindert. Windows ist nur teilweise portabel. Es sind zwar bereits die wichtigsten Basis-Treiber enthalten, oft fehlen aber etwa Grafik- oder WLAN-Treiber. Zumindest Windows 10 lädt die passenden Treiber in der Regel automatisch herunter. Das funktioniert jedoch nicht immer, und Sie müssen die erforderlichen Treiber dann manuell installieren.

Auf jedem PC ist außerdem eine erneute Windows-Aktivierung nötig, da die Lizenz an die Hardware gebunden ist. Bei Windows 10 erfolgt das zwar automatisch, wenn die gleiche Edition (Home oder Pro) schon einmal installiert war, bei Windows 8.1 jedoch meist nicht. Nach einigen Gerätewechseln ist dann eine sehr umständliche, telefonische Aktivierung nötig.

Der USB-Port wurde ursprünglich eher für Peripheriegeräte wie Maus, Tastatur oder Drucker entwickelt. USB-Flashspeicher und -Festplatten mit viel Speicherplatz haben dann die schnelleren Standards USB 3.0 und 3.1 erforderlich gemacht. Die erreichbaren Transferraten sind mit denen von SATA-Festplatten vergleichbar, weshalb der Installation eines Betriebssystems auf einem USB-Laufwerk eigentlich nichts entgegensteht. Laufwerke am USB-Port arbeiten aber oft nicht so zuverlässig wie SATA-Festplatten. Einige PCs booten nicht von USB-Laufwerken oder erst nach Firmware-Updates oder geänderten Bios-Einstellungen. Oft sind Hardwarefehler, eine unzureichende Stromversorgung oder minderwertige Verlängerungskabel sowie USB-Hubs die Ursache von USB-Problemen. Würde Microsoft die Installation auf USB-Geräten offiziell unterstützen, wären wahrscheinlich zahlreiche Anrufe und Beschwerden bei der Support-Hotline die Folge, obwohl Windows nicht die Ursache der Fehlfunktionen ist.

Aus den genannten Gründen kann die direkte Windows-Installation auf einem USB-Gerät auch mit den von uns vorgeschlagenen Tools misslingen. Sie erhöhen die Erfolgsaussichten, wenn Sie das Gerät direkt mit dem PC verbinden und bei USB-Festplatten eine ausreichende Stromversorgung sicherstellen. USB-Sticks können ebenfalls funktionieren, USB-Festplatten arbeiten jedoch meist zuverlässiger. Sollten noch ausgemusterte Festplatten oder SSDs von der letzten Hardwareaufrüstung übriggeblieben sein, eignen sich diese optimal für den Betrieb an einem SATA-USB-Adapter. Geräte mit einer eigenen Stromversorgung (ab etwa 20 Euro) unterstützen auch 3,5-Zoll-Festplatten. Einfache Adapter für 2,5-Zoll-Festplatten gibt es schon für um die vier Euro. Lesen Sie in jedem Fall die Kundenrezensionen, um schlechte Erfahrungen anderer Benutzer nicht wiederholen zu müssen. Geben Sie besser ein paar Euro mehr für ein qualitativ hochwertigeres Produkt aus. Achten Sie außerdem auf die maximal unterstütze Festplattengröße. Einige Modelle unterstützen nur Festplatten bis 2 TB, andere bis 8 TB.

3. Vorbereitungen für die Windows-USB-Installation

Sie benötigen ein Installationsmedium mit der gewünschten Windows-Version. Für ein USB-Laufwerk empfiehlt sich die 32-Bit-Architektur, weil diese weniger Platz auf dem Laufwerk erfordert und auch etwas schneller startet. Wenn Windows später auch aktiviert werden soll, verwenden Sie die Version, für die Sie eine Lizenz besitzen. Ohne Aktivierung lässt sich Windows 10 eine Zeit lang ausprobieren, allerdings sind einige Einstellungen etwa unter „Personalisierung“ nicht verfügbar.

Ein aktuelles Windows 10 laden Sie sich beispielsweise über das Media Creation Tool von Microsoft herunter. Im Tool wählen Sie die Option „Installationsmedien (USB-Speicherstick, DVD oder ISO-Datei) für einen anderen PC erstellen“. Danach wählen Sie Sprache, Edition und Architektur aus (64 Bit oder 32 Bit) und anschließend die Option „ISO-Datei“. Geben Sie das Verzeichnis an, in dem Sie die ISO-Datei speichern wollen.

Mit Windows ISO Downloader können Sie Windows 10 und auch ältere Versionen wie Windows 7 und 8.1 herunterladen. Nach dem Start klicken Sie beispielsweise auf die Option „Windows 10“. Bei „Editionsauswahl“ wählen Sie unter „Windows 10 April 2018 Update“ (Version 1803) den Eintrag „Windows 10 Home/Pro“. Klicken Sie auf „Bestätigen“. Danach wählen Sie die Produktsprache und klicken wieder auf „Bestätigen“. Sie sehen dann die Schaltflächen für den Download der 32- und der 64-Bit-Version.

4. Windows-Setup-Medium bei Bedarf anpassen

Von Windows 10 gibt es zweimal im Jahr eine neue Ausgabe. Daher ist die heruntergeladenen ISO-Datei relativ aktuell. Wer Windows häufiger neu installiert – ob auf dem USB-Laufwerk oder einer SATA-Festplatte – sollte jedoch die verfügbaren Updates integrieren. Das spart Zeit und erübrigt einige Neustarts.

Für Windows 8.1 stehen deutlich mehr Updates bereit, weshalb es hier in jedem Fall sinnvoll erscheint, Windows-Updates vorab zu integrieren: Mit Ntlite bauen Sie Updates in das Windows-Setup-Medium ein und bei Bedarf zusätzlich Treiber. Außerdem entfernen Sie damit unnötige Komponenten für mehr Platz auf dem USB-Laufwerk. Für den Updates-Download verwenden Sie beispielsweise Wsus Offline Update oder WH Downloader .

Die genannten Tools sind als portable Version in PC-WELT Windows-Rebuilder enthalten. Sie finden sie nach Klicks auf „Updates“ beziehungsweise „Setup- Medium“.

5. Windows-Installationsvarianten für USB-Laufwerke

Windows 10 und 8.1 lassen sich auf einem USB-Laufwerk ähnlich einrichten wie auf einer Festplatte. Es gibt dann die üblichen Ordner wie „Windows“ oder „Benutzer“ und Sie haben auch von einem anderen System aus Zugriff auf das gesamte Dateisystem. Da Microsoft diese Installationsvariante – außer bei Windows 10 Enterprise – nicht offiziell unterstützt, ist sie experimentell. Es kann sein, dass das System etwa nach Updates nicht mehr vom USB-Laufwerk startet oder unzuverlässig läuft.

Installation in einer VHD-Datei: Bei einer VHD-Datei handelt es sich um eine virtuelle Festplatte in einer einzelnen Datei, die Windows in das Dateisystem einbindet und wie eine physikalisch vorhandene Festplatte behandelt. Die Installation aller Editionen von Windows 10 und Windows 8.1 in einer VHD-Datei („vhd native boot“) wird von Microsoft offiziell unterstützt und gilt daher als zuverlässig. Bei Windows 7 lässt sich das System nur aus einer VHD-Datei booten, wenn darin mindestens die Ultimate-Edition installiert ist. Systeme, die aus einer VHD-Datei starten, sind nur unwesentlich langsamer als bei einer herkömmlichen Installation.

Es gibt jedoch einen Nachteil: Windows-Updates lassen sich wie gewohnt installieren, aber keine Upgrades. Bei Windows 8.1 spielt das keine Rolle mehr, aber bei Windows 10, sobald das nächste Funktionsupgrade erscheint. Da sich VHDs in eine virtuelle Maschine einbinden lassen, können Sie Upgrades über einen Umweg dennoch durchführen (siehe Punkte 7 und 8).

Virtualisierungssoftware: Ein virtueller PC bildet einen eigenständigen Computer per Software nach, der weitestgehend unabhängig von der tatsächlich verbauten Hardware ist. Sie erreichen damit die größtmögliche Portabilität, denn die virtuelle Hardware bleibt immer gleich, egal, auf welchem PC Sie die virtuelle Maschine verwenden. Die Geschwindigkeit eines virtualisierten Betriebssystems liegt nur knapp unter dem einer Standardinstallation auf dem gleichen Gerät. Die virtuelle Grafikkarte bietet jedoch kaum 3D-Leistung. Beispielsweise PC-Spiele laufen in einer virtuellen Umgebung daher nur sehr langsam oder gar nicht.

Windows-PE verwenden: „PE“ steht für „Windows Preinstallation Environment“. Dabei handelt es sich um ein Mini-Windows, mit dem Sie etwa bei der Windows-Installation oder der Wiederherstellungsumgebung in Kontakt kommen. Ein PE-System mit dem gewohnten Windows-Desktop und vielen nützlichen Tools stellen Sie mit Win10PESE-2018-03 zusammen. Ein PE-System lässt sich zwar auf fast jeder Hardware starten, im laufenden System können Sie jedoch keine Treiber oder Software nachinstallieren. Wenn etwas fehlt, müssen Sie das PE-System neu zusammenstellen, und dabei die fehlende Software integrieren. Eine Alternative sind portable Apps, die Sie direkt vom USB-Laufwerk starten, beispielsweise über Portableapps Platform .

6. Windows mit Win To USB auf dem USB-Gerät installieren

Das für die private Nutzung kostenlose Tool Win To USB richtet die Windows-Bootumgebung ein und kopiert die Installationsdateien auf ein USB-Laufwerk. Soll ein USB-Stick das Installationsziel sein, müssen Sie die darauf befindlichen Daten sichern, weil Win To USB ihn formatieren muss. Eine USB-Festplatte muss nicht neu formatiert werden, aber auch hier sollten Sie sicherheitshalber ein Backup erstellen.

Wenn sich auf der USB-Festplatte nur eine NTFS-Partition befindet, lässt sich Windows davon später nur im Bios-Modus beziehungsweise nur bei aktiviertem Compatibility Support Module (CSM) booten. Es ist flexibler, eine kleine FAT-32 Partition mit etwa 100 MB zu erstellen und im verbleibenden Platz eine NTFS-Partition einzurichten. Dann lässt sich das System im Bios- und im Uefi-Modus booten. Verwenden Sie beispielsweise Aomei Partition Assistant , um die Partitionen anzupassen. Win To USB kann drei Installationsquellen nutzen, die Sie über die großen Schaltflächen auf der linken Seite auswählen. Wenn Sie eine ISO-Datei der gewünschten Windows-Version besitzen, klicken Sie die erste Schaltfläche an. Liegen die Installationsdateien auf einer DVD, verwenden Sie die zweite Schaltfläche. Über die dritte Schaltfläche klonen Sie das installierte System auf ein USB-Laufwerk. Das funktioniert jedoch nur, wenn das USB-Laufwerk dafür genügend Platz bietet. Bei ISO-Datei und DVD wählen Sie die Quelle für die Installationsdateien und danach das Ziellaufwerk. Im Klon-Modus geben Sie gleich das Ziellaufwerk an. Bei einem USB-Stick haben Sie die Wahl zwischen „MBR für BIOS“ und „GPT für UEFI“. Die Option „MBR für BIOS und UEFI“ steht in der kostenlosen Version nicht zur Verfügung. Nach einem Klick auf „Ja“ formatiert Win To USB den Stick mit dem gewählten Partitionsschema.

Im nächsten Schritt legen Sie Systempartition (Bootumgebung) und Bootpartition (Windows-Dateien) fest, indem Sie die gewünschten Partitionen anklicken. Darunter entscheiden Sie sich für die Option „Legacy“, wenn die Systemdateien direkt auf dem Laufwerk landen sollen. Oder Sie wählen „VHD“ zur Installation in einem VHD-Container und darunter die Größe des virtuellen Speichers. Das neuere Format „VHDX“ steht auch zur Verfügung, bietet für unseren Zweck aber keine Vorteile. Win To USB bietet nur die Optionen zur Auswahl, die zur jeweiligen Windows-Versionen und zum Typ des Ziellaufwerks passen. Bei der Kombination Windows 8.1/ USB-Stick beispielsweise ist nur die Installation in einer VHD-Datei möglich, bei Windows 10 auch „Legacy“.

7. Windows Bootmanager in eine VHD-Datei einbauen

Win To USB richtet auf dem USB-Laufwerk den Windows-Bootloader ein, der dann die VHD-Datei einbindet und Windows startet. Wenn Sie bei Windows 10 später ein Funktionsupdate durchführen oder das System alternativ auch in einer virtuellen Maschine (Punkt 8) starten wollen, benötigen Sie einen zusätzlichen Bootloader innerhalb der VHD-Datei.

Drücken Sie die Tastenkombination Win-X, gehen Sie auf „Datenträgerverwaltung“ und dann im Menü auf „Aktion –› Virtuelle Festplatte anfügen“. Geben Sie unter „Speicherort“ die VHD-Datei an, die Sie mit Win To USB erstellt haben, und klicken Sie auf „OK“. Ermitteln Sie in der Laufwerksübersicht, welchen Laufwerksbuchstaben die VHD-Datei erhalten hat, beispielsweise „K:“.

Öffnen Sie über Win-X eine Windows-Powershell als Administrator. Tippen Sie die folgenden zwei Befehlszeilen ein:

bcdboot K:\windows /s K: /l de-de /f all
bootsect /nt60 K: /mbr

Passen Sie den Laufwerksbuchstaben („K:“) für Ihr System an. Hängen Sie die virtuelle Festplatte im Windows-Explorer über den Kontextmenüpunkt „Auswerfen“ aus.

Windows 7 vom USB-Laufwerk starten

Als Windows 7 im Jahr 2009 auf dem Markt kam, gab es noch kein offizielles Windows To Go. Bastlern ist es jedoch immer gelungen, auch dieses System von einem USB-Laufwerk zu starten. Wer sich damit beschäftigen möchte, etwa weil noch eine nicht genutzte Lizenz für Windows 7 übrig ist, kann auch hier Win To USB wie in Punkt 6 beschrieben verwenden. Da in Windows 7 noch keine USB-3.0-Treiber enthalten sind, startet das System nur, wenn das USB-Gerät mit einem 2.0-Port verbunden ist. Sie können den erforderlichen Treiber aber mit Ntlite einbauen (Punkt 4). Bei unseren Test startete Windows 7 mit integriertem Service Pack 1 jedoch nicht und verabschiedete sich mit dem typischen Stop-Fehler „7B“: Windows findet die Systemfestplatte nicht. Ursache dafür ist, dass Windows 7 die USB-Treiber beim Start nicht rechtzeitig lädt.

An dieser Stelle helfen die Tipps aus diesem Artikel weiter. Die Startparameter der USB-Treiber ändern Sie schnell über „Win7_USB_Bootfix.bat“. Sie finden die Datei in der Installation von PC-WELT Windows-Rebuilder im Ordner „Tools“. Starten Sie die Batchdatei mit administrativen Rechten und tippen Sie dann den Laufwerksbuchstaben des USB-Laufwerks ein.

8. Windows in einer virtuellen Maschine starten

Die Virtualisierungssoftware Virtualbox lässt sich über das Tool Virtualbox Portable auf einem USB-Laufwerk installieren. Allerdings benötigen Sie Admin-Rechte, um Virtualbox zu starten. Bitte beachten: Portable-Virtualbox funktioniert nur korrekt, wenn Virtualbox nicht bereits auf dem PC installiert ist.

Starten Sie Portable-Virtualbox und geben Sie unter „Extract to:“ den Laufwerksbuchstaben Ihres USB-Laufwerks ein. Starten Sie das Programm „Portable-VirtualBox“ aus dem gleichnamigen Ordner. Wählen Sie über „Search“ die Sprachdatei „german.ini“ aus, und klicken Sie auf „OK“. Klicken Sie auf „Installationsdateien von Virtualbox herunterladen“ oder geben Sie über „suche“ den Pfad zur Virtualbox-Setup-Datei an.

Warten Sie, bis der Vorgang abgeschlossen ist. Setzen Sie ein Häkchen vor „Entpacke die Dateien für ein 32-Bit-System“ oder „Entpacke die Dateien für ein 64-Bit-System“ sowie ein Häkchen vor „Starte Portable- VirtualBox nach dem Entpacken und/ oder Komprimieren“. Klicken Sie auf „OK“. Danach sehen Sie das Virtualbox-Fenster. Schließen Sie das Fenster und starten Sie Portable-Virtualbox erneut. Kontrollieren Sie über „Datei –› Einstellungen“, ob der „Voreingestellte Pfad für VMs“ auf das USB-Laufwerk verweist, beispielsweise „K:\Portable-VirtualBox\data\.VirtualBox\Machines“. Wenn nicht, passen Sie den Pfad an. Standardmäßig lädt Portable-Virtualbox keine Netzwerktreiber. Eine Anleitung zur Aktivierung des Netzwerks und weitere Tipps finden Sie in der Datei „LiesMich.txt“ im Installationsordner.

Per Klick auf „Neu“ erstellen Sie eine virtuelle Maschine. Folgen Sie den Anweisungen des Assistenten. Im Fenster „Platte“ erzeugen Sie eine neue virtuelle Festplatte für das System. Wenn Sie in Punkt 6 eine VHD-Datei erstellt haben, lässt sich diese nach Auswahl der Option „Vorhandene Festplatte verwenden“ einbinden (beachten Sie Punkt 7). Andernfalls klicken Sie, nachdem Sie den Assistenten beendet haben, auf „Massenspeicher“ und wählen eine Windows-ISO-Datei aus. Klicken Sie auf „Starten“, und führen Sie die Windows-Installation oder das Funktionsupdate wie gewohnt durch.

9. Windows-PE auf dem Stick einrichten

Im Downloadbereich finden Sie das Toolpaket Win-10PESE , mit dem Sie ein Mini-Windows auf der Basis von Windows 10 erstellen. Als Vorbereitung entpacken Sie die ISO-Datei von Windows 10 mit 7-Zip beispielsweise nach C:\W10. Zurzeit können Sie nur Windows 10 1709 (Build 16299.15) oder eine ältere Version verwenden. Version 1803 wird noch nicht unterstützt.

Entpacken Sie Win10PESE in ein Verzeichnis mit einem kurzen Namen und ohne Leer- und Sonderzeichen, etwa nach „C:\Win10PE“. Suchen Sie im Ordner „C:\W10\Sources“ nach der Datei „Install. wim“. Ist lediglich die Datei „Install.esd“ vorhanden, müssen Sie diese zuerst in eine WIM-Datei konvertieren. Dazu benutzen Sie das Tool ESD File Converter . Es ist im Toolpaket PC-WELT Windows-Rebuilder enthalten („Tools –› ESD/UUPs konvertieren“). Löschen Sie die ESD-Datei, und kopieren Sie die WIM-Datei nach „Sources“.

Starten Sie BuilderSE.exe aus dem Ordner „C:\Win10PE“. Wählen Sie im Baum auf der linken Seite „Win10PESE“. Gehen Sie auf „Config Source“ und geben unter „Select Source“ den Ordner mit den Quelldateien an. Klicken Sie auf „Set Source“.

Setzen oder entfernen Sie unter „Apps“ Häkchen bei den Tools, die Sie verwenden beziehungsweise nicht nutzen möchten. Klicken Sie auf die blaue „Play“-Schaltfläche, um mit dem Build-Prozess zu beginnen. Die ISO-Datei liegt danach unter „C:\ Win10PE\ISO“. Sie sollten das System zuerst in Virtualbox testen. Einen bootfähigen USB-Stick erstellen Sie in Winbuilder über „Write Media –› Copy to USB-Device BCD BootMGR“. Stellen Sie das USB-Laufwerk unter „Please select the root directory of your USB-Device“ ein. Sichern Sie alle darauf befindlichen Daten, da der Stick neu formatiert werden muss. Klicken Sie auf „Copy to USB“.

Den Windows-To-Go-Assistenten nutzen

Geht es nur um Testinstallationen oder ein Reparatursystem, spielt die Windows-Version keine Rolle. Sie können dann auch Windows 10 Enterprise 1803 verwenden (Testzeitraum 90 Tage). Der Windows-To-Go-Assistent ist in der Systemsteuerung zu finden und bei Windows 10 Enterprise und in der Pro-Version etwa von Windows 10 1803 enthalten. Über den Assistenten lassen sich nur Windows 10 oder 8.1 Enterprise auf einer USB-Festplatte installieren. Es sei denn, Sie besitzen einen für Windows To Go zertifizierten und relativ teuren USB-Stick. Nach dem Start des Assistenten wählen Sie das Ziellaufwerk aus. Im nächsten Schritt geben Sie nach einem Klick auf „Suchort hinzufügen“ den Speicherort der ISO-Datei von Windows 10 oder 8.1 Enterprise an. Folgen Sie den weiteren Anweisungen des Assistenten. Die Installation und der erste Start dauern einige Zeit länger als bei einem mit Win To USB erstellen USB-Stick.

Im To-Go-Enterprise-System sind übrigens die lokalen Festplatten ausgeblendet. Um das zu ändern, öffnen Sie über Win-X die „Datenträgerverwaltung“, klicken den gewünschten Datenträger mit der rechten Maustaste an und wählen im Kontextmenü „Online“.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie