Der iCloud-Speicher ist voll? So räumen Sie auf

Wer für den zusätzlichen Speicherplatz in iCloud nichts zahlt, merkt recht bald, dass fünf Gigabyte recht wenig sind. So kommen Sie auch damit problemlos aus.

Seit Oktober 2011, dem Start von iCloud, hat sich nichts geändert: Fünf Gigabyte kostenlosen Speicher gibt Apple zu jedem Konto hinzu. Für den Anfang reicht das, aber schon bald läuft das Cloud-Fass über. Vor allem dann, wenn man in Fotos die iCloud-Fotomediathek eingeschaltet hat, 5 GB sind mit Bildern und Videos schnell beieinander. Auch der iCloud-Desktop beansprucht recht schnell viel Speichervolumen. Apple hat zwar seit dem Start von iCloud vor sieben Jahren die kostenpflichtigen Zusatzangebote im Preis reduziert, respektive die Volumina für gegebene Preise erhöht, aber weiterhin nicht den freien Bereich vergrößert.

Das ist insbesondere deshalb ärgerlich, weil seit der Zeit einige nützliche Funktionen in den Systemwelten zwischen Mac, iPhone und iPad hinzugekommen sind. So etwa die erwähnte iCloud-Fotomediathek , mit deren Hilfe man all seine Bilder und Videos auf Apples Servern sicher speichern und beliebig auf alle Endgeräte herunterladen kann, die mit der gleichen Apple ID verknüpft sind. Zuletzt wanderte iMessage in die iCloud, der Nachrichtendienst kann auch locker ein Gigabyte an iCloud-Speicher belegen.

Seit macOS Sierra verlagert sich das Mac-Betriebssystem immer mehr in die Cloud, der iCloud-Desktop erlaubt es, all seine (wichtigen) Daten überall parat zu haben. Mit den eher mickrigen 5 GB kommt man nicht weit und wird weder iCloud-Fotomediathek noch iCloud-Desktop nutzen können. Immerhin erlaubt es Apple seit iOS 11 und High Sierra,in der Familie den iCloud-Speicher aufzuteilen . Anstatt vier- oder fünfmal 200 GB zu mieten, kauft man eben 2 TB Speicher und teilt ihn sich auf. Den ausführlichen Ratgeber hierzu haben wir oben verlinkt.

Apple will mit seinen Services Kundschaft anlocken und verkauft Speicher-Upgrades für Intensivnutzer. Die Preise (Stand Dezember 2018): 50 GB kosten 0,99 Euro, 200 GB kosten 2,99 Euro und für 2 TB sind 9,99 Euro fällig, jeweils monatlich. Teilen mit der Familie ist jedoch erst ab 200 GB möglich.

Lokale Sicherung mit Time Machine

Daten in Apples Cloud zu speichern hat Vorteile, vor allem dann, wenn es um wertvolle Erinnerungen wie Fotos und Videos gibt. Die Originale sind auf Apples Servern gespeichert, auf Endgeräten sieht man nur Thumbnails, bis man sich die Bilder in voller Auflösung herunterlädt. Verzichtet man auf diese Bequemlichkeit, muss man sich über Backups wieder intensivere Gedanken machen. Denn wenn die Platte des Rechners versagt und sich Fotos aus mehreren Jahren und Jahrzehnten nicht mehr wiederherstellen lassen, ist das Leid groß. Immerhin hat macOS mit Time Machine eine zuverlässige und einfache Backupfunktion direkt in das System integriert . Bei wertvollen Daten ist es aber unerlässliche, mehr als ein Backup anzufertigen und die Platten am Besten an unterschiedlichen Orten zu lagern. Auch hält keine Festplatte ewig, von Zeit zu Zeit sollte man also auch die Backup-Volumes erneuern. Spätestens dann, wenn man sich einen neuen Mac anschafft.

iCloud-Speicher voll? Aufräumen hilft!

Verzichten wir aber darauf, unsere Fotos und Dokumente in der Cloud zu speichern und kümmern uns um das Backup unserer Daten jeweils lokal , können wir mit den kostenlosen 5 GB durchaus auskommen. Dafür müssen wir aber selbst etwas tun.

Denn mit ein klein wenig Aufräumen schrumpfen wir unseren Platzbedarf schnell unter die Gratis-Grenze und verzichten dankend auf ein kostenpflichtiges Upgrade. iCloud speichert zwar viele Daten wie unsere Kontakte, iWork-Dokumente, Termine, Aufgaben und Spielstände von iOS-Apps, aber nur zwei Arten von Daten rauben wirklich viel Platz: E-Mail-Postfächer und iOS-Backups. Sieht man einmal von dem Sonderfall iCloud-Fotomediathek ab.

iCloud: Was zählt, was nicht?

Der iCloud-Speicher wird von E-Mails, iCloud-Dokumenten und iOS-Backups gefüllt.

Fotostream , den automatische Abgleich von bis zu 1000 Bildern, zieht Apple uns nicht vom Speicherplatz ab. Es lohnt sich also nicht, Fotostream abzuschalten, um iCloud zu entlasten. Fotostream belegt jedoch unter Umständen mehrere Gigabyte Speicher auf dem iPhone oder iPad, da diese die Bilder lokal speichern. Die iCloud-Fotomediathek hingegen geht den umgekehrten Weg: Originale werden in der Cloud gespeichert, auf den angeschlossenen Geräten landen niedrigere Auflösungen.

Kalendereinträge , das Adressbuch und Erinnerungen speichert Apple ebenfalls auf den iCloud-Servern. Diese nehmen jedoch so wenig Platz weg, dass Apple deren Platzbedarf nicht einmal anzeigt.

Auch iTunes in the Cloud geht nicht vom Speicherplatz ab. Apple erlaubt es, gekaufte Videos, Bücher, Apps oder Musik jederzeit wieder erneut herunter zu laden. Das hat jedoch nichts mit unserem iCloud-Speicher zu tun.

Die E-Mails der vergangenen Jahre aufzuräumen, ist mühselig, dauert ewig und ist letztlich nur mäßig effektiv, falls Sie jedoch mit Mail-Ordnern arbeiten, lohnt es sich, diese ab und zu komplett zu löschen. Ab iOS 12 gibt es einen Trick, alle Mails auf einmal vom iPhone zu bereinigen. Dies haben wir in diesem Tipp beschrieben.

iOS-Backups machen es uns dagegen ganz einfach, schnell viel Platz in der iCloud zu schaffen. In den iCloud-Einstellungen auf dem iPhone, iPad und auch am Mac können wir genau sehen, was wie viel Speicherplatz verbraucht.

Aufräumen am Mac

Unter macOS stecken die Einstellungen unter: „Systemeinstellungen > iCloud > Verwalten“. Dort sehen wir, welche Anwendungen und Datentypen wie viel Speicher belegen. E-Mails können wir nur direkt in Mail aufräumen. Gerade für Nutzer, die gerne ihre komplette Mail-Geschichte in einem iCloud-Mailarchiv aufbewahren, kann es sich an dieser Stelle lohnen, die Archive lokal statt in der Cloud abzulegen: Dafür wählen wir in Mail das entsprechende Postfach aus der Seitenleiste aus und wählen per Rechtsklick den Befehl „Postfach exportieren“ und bestimmen, wo das Archiv abgelegt werden soll. Im Anschluss an den Speichervorgang können wir das iCloud-Mail-Archiv leeren und so Speicherplatz zurückgewinnen.

Tipp vom Leser Dirk Volkmann

Kleiner Tipp: Garageband Dokumente und Ordner, die schnell weit über ein GB Speicherplatz belegen, lassen sich nur löschen, wenn das Programm Garageband auch auf dem Rechner installiert ist. Hat man es irgendwann mal gelöscht, ist die Löschoption deaktiviert.

Um die Daten trotzdem los zu werden, muss man Garageband erneut herunterladen, installieren und dann kann man löschen. Anschließend Garageband wieder löschen, und das Problem ist gelöst.

Wichtig: nach der Installation keine Updates, Instrumente und ähnliches laden, sonst kann man wieder von vorn anfangen.

Andere Programme räumen wir direkt im iCloud-Speichermenü von macOS auf. Das gilt auch für Dokumente und Daten, also Pages-Dokumente, Keynote-Präsentationen, Numbers-Spreadsheets, Dokumente aus Textedit oder Bilder und PDFs aus Vorschau. Vorsicht: Daten aus einer dieser Apps lassen sich nur komplett löschen. Will man nur einen Teil der Daten loswerden, hilft ein Blick in den Ordner „iCloud Drive“. Dort sind alle Dokumente sortiert nach Programm sichtbar, die auf iCloud Platz belegen.

Unter „Backups“ sehen wir auch in den macOS-Einstellungen Sicherungen aller iOS-Geräte. Diese können wir hier komplett löschen, beispielsweise, wenn eines der gesicherten Geräte längst verkauft ist. Auch wenn wir unser iPhone zwischendurch neu eingerichtet haben, legt iCloud ein neues Backup an und behält das alte. Um die Backups im Detail auszumisten, müssen Sie dies direkt auf dem jeweiligen iOS-Gerät machen.

Aufräumen am iPhone und iPad

Da Fotobackups vom iPhone der größte Datenfresser sind, lohnt sich dieser Schritt besonders: Der effektivste Punkt ist das Backup von Foto- und Videoaufnahmen. Alle unsere Aufnahmen werden in den Standardeinstellungen in das iCloud-Backup gesichert – zusätzlich zum Fotostream. Wenn wir das Backup für Aufnahmen ausschalten, werden alleine dadurch schnell mehrere Gigabyte frei. Der einzige Haken: Stellt man sein iPhone aus einem iCloud-Backup wieder her, ist „Aufnahmen“ anschließend leer.

Die Details zum iOS-Backup finden Sie wie folgt: Öffnen Sie zunächst die App „Einstellungen“ und tippen Sie dann auf Ihren Namen ganz oben in der Liste. Wenn Sie nun auf „iCloud“ tippen, sehen Sie ganz oben unter dem Stichwort „Speicher“ eine Grafik, die anzeigt, wie viel Platz mit Daten welcher Art belegt ist. Darunter befindet sich die gesuchte Option „Speicher verwalten“. Unter dem Punkt „Backups“ sehen Sie nun ein Symbol Ihres Gerätes und daneben die Größe des Backups. Tippen Sie für mehr Informationen darauf.

Im nächsten Bildschirm listet iOS auf, welche Apps wie viel Backup-Platz verbrauchen. Legen Sie einen der virtuellen Schalter um, löscht iCloud das Backup für dieses Programm und sichert es in der Zukunft nicht erneut. Neben der Kamera-App gibt es einige weitere Anwendungen, die unter Umständen viel Platz im iCloud-Backupbelegen: Dazu zählen beispielsweise Apps, die Videos aus dem Internet herunterladen oder Apps, die Videos aufzeichnen und nicht in den „Aufnahmen“, sondern im eigenen Nutzerordner speichern. Bei Videos können hier schnell mehrere Gigabyte zusammen kommen.

Anwendungen, die besonders viel Speicher fressen, listet iOS in der Backup-Übersicht ganz oben auf. Wenn wir eine dieser Apps vom Backup ausschließen, warnt iOS und fragt nach, ob wir die Daten wirklich löschen wollen. Dies löscht nur das Backup der Daten aus der iCloud, auf dem iPhone bleiben sie vorhanden. Stellen wir das iPhone jedoch später aus dem iCloud-Backup wieder her, sind die Daten verloren. Wichtige Daten sollten deshalb in jedem Fall Teil des Backups bleiben.

Haben wir mehrere iOS-Geräte im Einsatz, müssen wir das Backup für bestimmte Daten wie Fotos auf allen einzeln ausschalten. Das geht nur vom jeweiligen Gerät aus, nicht zentral für alle gleichzeitig.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Geniale Tipps und Tricks zu Microsoft Office 2010

Das Menüband ausblenden, die liebgewonnene Seitenansicht der älteren Word-Versionen wieder herstellen oder Standardvorgaben individualisieren. Mit den folgenden Tipps können sich professionelle Anwender die Arbeit mit Microsoft Office 2010 deutlich erleichtern.

Sie haben sich allen neuen Office-Versionen verweigert und nutzen immer noch Office 2010? Dann sind Sie hier richtig: Nachfolgend haben wir einige Tricks und Anleitungen zu Office 2010 im Allgemeinen und zu den Anwendungen Word 2010, Excel 2010 und Outlook 2010 zusammengestellt.

Manch einer der folgenden Tipps funktioniert auch bereits mit Microsoft Office 2007. Wenn dem so ist, dann haben wir das an Ort und Stelle vermerkt.

Das Menüband ausblenden

Administratoren können das Menüband von Office 2010 für Anwender ausblenden. Die neue Ribbon Bar wird von Umsteigern häufig als große Herausforderung empfunden. Das Ausblenden des Menübandes lässt sich bereits beim Setup konfigurieren.

Wenn Anwender von Office 2000, Office XP oder Office 2003 auf Microsoft Office 2010umsteigen, wird häufig das Menüband der neuen Version als einer der entscheidenden Umgewöhnungsfaktoren genannt. Das Ausblenden oder Reduzieren des Menübands ist eine mögliche Strategie, um den Benutzern die Umstellung zu erleichtern.

Durch das Reduzieren des Menübands sehen im Beispiel die Registerkarten von Excel 2010 ähnlich wie die Menüs von Excel 2003 aus, wenngleich nicht völlig identisch.

Beachten Sie in den Abbildungen die roten Kreise in der rechten oberen Ecke der Excel 2010-Screenshots. Mithilfe dieses Umschaltpfeils können Sie das Menüband manuell erweitern oder reduzieren und den Benutzern die Möglichkeit bieten, die Benutzeroberfläche ihren Wünschen entsprechend anzupassen. Darüber hinaus kann das Menüband mit der Tastenkombination STRG+F1 erweitert beziehungsweise reduziert werden.

Anpassen des Office-2010-Setups

Bei der Bereitstellung von Office 2010 für Ihre Benutzer im Unternehmen können Sie eine angepasste Installation erstellen. In dieser wird das Menüband standardmäßig reduziert wird, wenn die Benutzer eine Office-Anwendung erstmalig öffnen. Hierzu fügen Sie dem Setuppaket bestimmte Registrierungsschlüssel hinzu.

Bei den meisten Office-Anwendungen gibt es einen einzelnen Registrierungswert, mit dem die Darstellung des Menübands kontrolliert wird. Outlook stellt eine Ausnahme dar, doch dazu später mehr.

Dies ist der entsprechende Registrierungswert:

HKCU\Software\Microsoft\Office\14.0\Common\Toolbars\<AppName>\QuickAccessToolbarStyle

Im diesem Wert steht <AppName> für einen der folgenden Werte:

• Access

• Excel

• OneNote

• PowerPoint

• Project

• Publisher

• Visio

• Word

Ausnahme Outlook

Outlook bietet mehr Anpassungsmöglichkeiten. Es gibt 24 verschiedene Registrierungsschlüssel, mit denen das Menüband und die Symbolleiste für den Schnellzugriff kontrolliert werden.

Dies liegt daran, dass es in Outlook viele verschiedene Arten von Elementen und Modulen gibt. Während diese Implementierung im Allgemeinen für die Endbenutzer sichtbar ist, ist die Komplexität in diesem Fall nur an der Oberfläche erkennbar. Wenn Sie demnach das Menüband für Outlook reduzieren möchten, müssen Sie das Outlook-Fenster bestimmen, das reduziert werden soll.

Alle im Bild dargestellten Werte finden Sie unter:

HKCU\Software\Microsoft\Office\14.0\Common\Toolbars\Outlook

Hinzufügen der Registrierungsschlüssel mit dem Office-Anpassungstool

Mit dem Office-Anpassungstool (OAT) können Sie diese Registrierungsschlüssel wie jeden anderen Registrierungsschlüssel hinzufügen. Das Hinzufügen von Registrierungsschlüsseln mithilfe des OAT ist relativ einfach. Weitere Informationen finden Sie im Artikel Office-Anpassungstool in Office 2010 auf Microsofts TechNet.

Office 2010 zusammen mit älteren Office-Versionen einsetzen

Bei der Installation von Office 2010 können Sie grundsätzlich die Testversionen der Anwendungen, die nicht in der erworbenen Edition enthalten sind, mit installieren. Das kann nur dann problematisch sein, wenn entsprechende Vorgängerversionen installiert sind.

Wenn Sie zum Beispiel Office 2010 Home & Student erworben haben, kann beispielsweise die Testversion von Outlook 2010 mit installiert werden. Das ist so lange unproblematisch, wie Sie keine ältere Version der Anwendung haben, die Sie weiter benutzen möchten.

Haben Sie also zum Beispiel ein Outlook 2007 und möchten das zusammen mit den in Office 2010 Home and Student enthaltenen Office 2010 Anwendungen verwenden, dann achten sie darauf, dass Sie entweder das Häkchen vor Kostenlose Testversion von Microsoft Office Professional 2010 einschließen entfernen oder auf Anpassen klicken und dann die Installation der Testversion von Outlook 2010 ausschließen. Ähnliches gilt für Access und Publisher bei Office 2010 Home and Business.

So können Sie genau definieren, welche Anwendungen installiert werden sollen, welche Testversionen und bei welchen Anwendungen die alte Version erhalten bleiben soll.

Produkte : Dieser Tipp funktioniert mit Microsoft Office 2010.

Grafiken freistellen

Um Grafiken freizustellen, kommt meist ein Profiprogramm wie Photoshop zum Einsatz. Ab Office 2010 kann der Benutzer aber in vielen Fällen auf teure Zusatzsoftware verzichten, denn Word, Excel und Powerpoint verfügen nun über eine eigene Freistellfunktion.

Zum Freistellen markieren Sie zunächst die Grafik und klicken im neu eingeblendeten Menüband Bildtools / Format auf die Schaltfläche Freistellen . Über die Anfasser des Markierungsrechtecks lassen sich zunächst die Bildränder beschneiden.

Zum Freistellen klicken Sie auf Zu behaltende Bereiche markieren und dann auf die Bildbereiche, die Sie erhalten möchten. Für zu löschende Bildelemente klicken Sie auf Zu entfernende Bereiche markieren und markieren die Flächen, die verschwinden sollen. Zum Schluss noch auf Änderungen beibehalten klicken.

Produkte : Der Trick funktioniert mit den Anwendungen Word, Excel und Powerpoint aus Microsoft Office 2010 .

Fehlerhafte Office-Dateien trotzdem öffnen

Seit Office 2007 verwendet Microsoft als Format Office Open XML. Die Dokumente werden hierbei als XML-Dateien gespeichert und in einem Archiv gesammelt. Office Open XML erkennen Sie an einem „x“ in der Dateiendung, etwa .docx oder pptx. Einige Mail-Systeme und Webdienste interpretieren diese Dateien allerdings falsch und ändern die Dateiendung in .zip.

Das Problem: Meist wird dadurch die Dateiverknüpfung auf Windows-Systemen geändert, statt Office öffnet das integrierte Archiv-Tool diese Daten – und mit den XML-Dateien kann es nur wenig anfangen.

Es gibt mehrere Wege, dieses Problem zu umgehen. Am einfachsten ist es, die Dateiendung von ZIP wieder in die ursprüngliche Endung zu ändern. Unter Windows 7 ist das aber beispielsweise nicht ohne weiteres möglich. Hier hilft es, wenn man das Dokument mit der jeweiligen Office-Applikation öffnet.

Dazu gehen Sie in auf Datei – Öffnen. Anschließend sollte der Dateimanager erscheinen, dieser zeigt standardmäßig nur die unterstützten Dateitypen an – was im aktuellen Fall nicht weiterhilft.

Neben dem Feld für den Dateinamen gibt es ein Dropdown-Menü. Hier müssen Sie den Eintrag auf „Alle Dateien“ ändern – und schon zeigt der Dateimanager auch die vermeindliche ZIP-Datei an. Ist nach dem Öffnen alles in Ordnung, können Sie das Dokument wie gehabt weiterbearbeiten und neu speichern.

Produkte : Die Lösung funktioniert mit allen Office-Paketen, die Office Open XML unterstützen, egal ob dies nativ oder über das Erweiterungspaket gelöst ist .

Pfad für Dokumentvorlagen in Word 2010 anpassen

Mit jeder neuen Version von Microsoft Office sollen die Anwender die Funktionen noch schneller und bequemer erreichen können. Doch wer in Word 2010 den Speicherort für Dokumentvorlagen ändern möchte, könnte das glatte Gegenteil annehmen: Microsofthat den Weg zum Ziel gut versteckt.

Klicken Sie in Word auf die Registerkarte Datei , dann auf Optionen . Konsequent wäre jetzt die Kategorie Speichern , doch weit gefehlt. Klicken Sie stattdessen im linken Fensterbereich auf Erweitert , scrollen Sie rechts ganz nach unten, bis Sie zum AbschnittAllgemein gelangen. Dort klicken sie auf Dateispeicherorte und können jetzt auf der Registerkarte Speicherort für Dateien den Pfad für die Dokumentvorlagen anpassen.

Produkte : Der Trick funktioniert mit Microsoft Word 2010.

Word 2010: Alte Seitenansicht wiederherstellen

Die Überprüfung von umfangreichen Dokumenten in der Seitenansicht ist vor dem Drucken hilfreich. In Word 2010 empfinden es viele aber als umständlich, überDatei/Drucken die Seitenvorschau per Schieberegler auf die gewünschte Seitenanzahl anzupassen. Das lässt sich ändern.

Am bequemsten dürfte es sein, in Word 2010 den Befehl für die vertraute Seitenansicht in die Schnellzugriffsleiste am oberen Fensterrand einzubauen. Klicken Sie dazu auf die Registerkarte Datei, rufen Sie die Optionen auf, und wählen Sie links die KategorieSymbolleiste für den Schnellzugriff aus.

Markieren Sie nun im Dropdown-Menü Befehle auswählen den Eintrag Alle Befehle und in der Liste darunter den Befehl Seitenansicht-Bearbeitungsmodus . Mit einem Klick aufHinzufügen und OK landet die Option dauerhaft in der Symbolleiste für den Schnellzugriff.

Produkte : Der Trick funktioniert mit Microsoft Word 2010.

Bedingte Formatierung in Excel optimal nutzen

Das Aussehen von Zellen in Excel lässt sich mit einer Bedingung verknüpfen. Diese umfangreiche Funktion war bislang allerdings umständlich in der Handhabung. Dass es auch anders geht, zeigt die Tabellenkalkulation in den aktuellen Versionen.

Excel 2007 und Excel 2010 bringen eine Vielzahl vorgefertigter Schemata für die bedingte Formatierung mit. Der Anwender kann zum Beispiel automatische Farbskalen verwenden oder im Zellenhintergrund einen Balken anzeigen lassen.

Um die neuen Möglichkeiten zu nutzen, markieren Sie die zu bearbeitenden Zellen. Klicken Sie auf der Registerkarte Start auf das Symbol Bedingte Formatierung . Im nun angezeigten Auswahlmenü stehen die unterschiedlichen Formatierungstypen zur Verfügung. Mit dem Befehl Weitere Regeln können Sie auch eigene Varianten erstellen.

Produkte : Der Trick funktioniert mit Microsoft Excel 2007 und 2010.

Excel-Dateien ohne Makros speichern

Bei Excel werden zur Arbeitserleichterung gerne Makros verwendet. Wenn man Excel-Dateien aber weitergeben möchte, ist es oft unerwünscht, dass diese Makros enthalten.

Zumal beim Öffnen der Dateien Sicherheitswarnungen für eine Verunsicherung vieler Empfänger sorgen. Excel 2007 und Excel 2010 benutzen unterschiedliche Dateitypen, je nachdem, ob der Anwender Tabellen mit oder ohne Makros sichern möchte.

Wenn man die Dateien über Speichern unter als Excel-Arbeitsmappe ablegt, entfernt die Tabellenkalkulation alle Makros daraus. Die Dateien erhalten in diesem Fall die Erweiterung XLSX anstatt XLSM.

Produkte : Der Tipp funktioniert mit Excel 2007 und 2010.

In Excel mit tatsächlichen Arbeitstagen rechnen

Wer komplexe Auswertungen fahren muss, oder für Projektabläufe verantwortlich ist, tut gut daran die entsprechenden Zeiträume auf tatsächliche Arbeitstage zu untersuchen. Das dient sowohl als Planungs- wie auch als Argumentationshilfe. Excelstellt hierfür eine gesonderte Funktion zur Verfügung.

Die Situation ist bekannt. Da fallen leichtfertig Äußerungen wie „Das Projekt lässt sich locker in einem Monat stemmen“ und dann bringt besagter Monat gerademal 21 Arbeitstage mit, obwohl es ein Monat mit 31 Bruttotagen ist. Und schon hat man sich einen unrealistischen Abgabetermin eingehandelt.

Über die Excel-Funktion Nettoarbeitstage können Sie berechnen, wie viele Arbeitstage zwischen zwei Daten tatsächlich verfügbar sind. Die Syntax der Funktion ist denkbar einfach

Wenn Sie lediglich Ausgangsdatum und Enddatum eingeben, liefert Ihnen Excel die Arbeitstage für den entsprechenden Zeitraum zurück, ohne die Wochenenden. Damit auch Feiertage oder andere freie Tage, wie etwa Betriebsferien oder geregelte Brückentage, berücksichtigt werden, gilt es noch eine Liste für das Argument „Freie_Tage“ anzulegen. Legen Sie hierfür einen Zellbereich mit den entsprechenden Daten an und vergeben Sie für diesen Bereich einen Namen, den Sie wiederum entsprechend in die Formel einfügen.

Produkte : Die Funktion gehört seit Office 2003 zu Excel. (mje)

Speicherort für Dateien in Excel 2010 dauerhaft einblenden

Insbesondere wenn man Tabellen und Arbeitsmappen auf Netzwerklaufwerken ablegt, kann es hilfreich sein diesen exakten Pfad in der Schnellzugriffsleiste von Exceleinzublenden. Der häufig beliebig komplexe Pfad lässt sich so schnell an Kollegen weiterreichen.

Eben hat man noch die Arbeitsmappe gespeichert, und schon bräuchte man genau diesen Pfad, um ihn an die ebenfalls am Projekt beteiligten Kollegen zu senden. Schließlich ist es allemal besser lediglich den Link als die ganze Datei beispielsweise per Mail zu versenden. In Excel 2010 können Sie den genauen Speicherort der Datei einfach in der Schnellzugriffsleiste einblenden.

Klicken Sie hierzu auf den Pfeil neben der Schnellzugriffsleiste und wählen Sie Weitere Befehle . In der Box Befehle auswählen ist die Option Befehle nicht im Menüband die richtige Wahl. Fügen Sie den Befehl Dokumentenspeicherort der Schnellzugriffsleiste hinzu.

Wenn Sie die Box nicht mehr in der Schnellzugriffsleiste haben wollen, klicken Sie mit rechten Maustaste auf den Rand der Box. Wählen Sie Aus Symbolleiste für den Schnellzugriff entfernen .

Produkte : Dieser Tipp funktioniert mit Excel 2010. Die Vorgehensweise in Excel 2007 ist ähnlich.

In Excel Zellen-Eingabe auf bestimmte Werte

Es gehört zu den alltäglichen Problemen, dass zwischen dem Ersteller eines Excel-Sheets und den Anwendern, die sie ausfüllen, nicht immer ein mentales Übereinkommen hinsichtlich der Zellinhalte besteht. Da werden dann beispielsweise alphanumerische Werte eingeben, obwohl eigentlich nur ganze Zahlen gewünscht waren. Dies erschwert so manche Datenerfassung und macht Nacharbeiten erforderlich. Mit der Funktion Datenüberprüfung aus Excel kann man da Missverständnissen vorbeugen.

Markieren Sie hierfür den Bereich, für den die Überprüfen gelten soll. Wechseln Sie dann zu Daten/Datenüberprüfung . Achtung: Wenn die Datei bereits freigegeben ist, lässt sich die Datenüberprüfung nicht mehr einrichten. Im ersten Register Einstellungen können Sie unter Zulassen bestimmen, welche Werte Sie erlauben wollen. In dem Register Eingabemeldung können Sie einen Text eingeben. Diesen bekommt der Anwender angezeigt, wenn er die Zelle anwählt.

Sie können im Register Fehlermeldung wählen, welche Art angezeigt wird. Zur Auswahl stehen: Stopp , Warnung und Information . Da gilt es bei der Wahl die Sensibilität der Anwender zu berücksichtigten. Bei Stopp bekommt der Anwender solange einen Fehler angezeigt, bis er einen korrekten Wert eingibt. Bei Warnung erscheint die Fehlermeldung und der Warnhinweise, der Anwender kann sich jedoch über Fortfahren und Ja darüber hinweg setzen. Information ist die weichste Variante, hier bekommt der Anwender lediglich den Hinweis angezeigt.

Produkte : Dieser Tipp funktioniert mit Excel 2010 .

Termine in Outlook vor einem bestimmten Datum löschen

In Outlook bleiben eingetragene Termine permanent im Kalender, selbst wenn sie bereits seit Jahren verstrichen sind. Um im Kalender aufzuräumen und die PST-Datei nicht unnötig aufzublähen, lassen sich Uralt-Einträge ganz einfach löschen.

Wechseln Sie in Outlook 2010 über Ansicht / Ansicht ändern zur tabellarischen Kalenderansicht. Sortieren Sie nun die Liste so, dass die Termine chronologisch absteigend dargestellt werden. Anschließend markieren Sie zunächst den ersten Eintrag des Datums, ab dem die alten Daten gelöscht werden sollen, und dann mit der Tastenkombination Shift + Ende alle Termine ab diesem Datum bis zum ältesten Termin.

Mit der Taste Entf lassen sich die markierten Elemente nun in einem Rutsch entfernen. Diese landen zunächst im Ordner Gelöschte Objekte . Endgültig gelöscht sind sie allerdings erst, wenn man per Rechtsklick im Kontextmenü den Ordner leert, erst dann wird auch der Speicherplatz wieder freigegeben.

Den Vorgang, um Objekte aus dem Ordner Gelöschte Objekte zu entfernen, lässt sich auch automatisieren. Dazu muss die Registerkarte Weitere über das Menü Extras undOptionen aufgerufen werden. Anschließend muss man lediglich noch das Kontrollkästchen Bei Programmbeendigung Ordner „Gelöschte Objekte“ leerenaktivieren. Um die Funktion wieder zu deaktivieren, muss der Anwender das Kontrollkästchen entsprechend wieder demarkieren.

Produkte: Der Trick funktioniert mit Microsoft Outlook 2010 .

Outlook 2010: Kontakte nach Nachnamen sortieren

Das Adressbuch von Outlook 2010 sortiert die Kontakte in der Voreinstellung nach Vornamen. Eine Einordnung nach Familienname wäre indes praktischer. Leider ist das Ändern der Sortierung nicht sehr intuitiv gelöst – wir zeigen wie es geht.

Microsoft bietet bei Outlook 2010 natürlich eine Möglichkeit an, die Voreinstellung der Kontaktedarstellung zu ändern.

Bei der etwas umständlichen Vorgehensweise müssen Sie zuerst für alle Kontakte das Feld Speichern unter auf die gewünschte Reihenfolge (Nachname, Vorname) umstellen. Klicken Sie dann auf Datei / Informationen / Konteneinstellungen , und aktivieren Sie die Registerkarte Adressbücher . Doppelklicken Sie auf Outlook-Adressbuch , und aktivieren Sie die Option Wie „Speichern unter“ (Mander, Jens) .

Produkte : Der Trick funktioniert mit Outlook 2010.

Neu: Verschlüsselte Verbindung in Outlook ordnungsgemäß einrichten

Damit Unberechtigte den Mail-Verkehr nicht belauschen können, bieten die meisten Anbieter eine SSL/TLS-Verbindung an. In Outlook lässt sich beim Einrichten eines Kontos angeben, dass die Kommunikation verschlüsselt erfolgen soll. Allerdings verwendet der Microsoft-Client nicht automatisch den richtigen Port.

Für die korrekte Port-Konfiguration ist eine manuelle Nachjustierung erforderlich. Nachdem Sie zunächst im Outlook-Einrichtungsassistenten Name, Mail-Adresse und Passwort angegeben haben, klicken Sie auf Weitere Einstellungen . Wählen Sie die Registerkarte Erweitert , und aktivieren Sie SSL für den Posteingangs- und TLS für den Postausgangsserver.

Bei Ersterem ändert Outlook den Port automatisch von 143 in 993 (IMAP) oder von 110 in 995 (POP). Bei Letzterem erfolgt die entsprechende Anpassung jedoch nicht selbsttätig, sodass es zu einem Fehler kommt, wenn Sie Nachrichten verschicken wollen. Ändern Sie deshalb den eingestellten Port 25 manuell auf Port 465. Manche Server nutzen in einigen Fällen hierfür auch Port 587. Wer auf Nummer sicher gehen will, sollte sich an seinen Mail-Provider wenden.

Produkte : Der Trick funktioniert mit allen aktuellen Versionen von Outlook .

Powerpoint-Präsentationen schützen

Gerade im geschäftlichen Umfeld verschicken viele Benutzer Powerpoint-Dateien häufig per E-Mail. Dabei vergessen sie nur zu leicht, dass ohne Passwortschutz jeder Empfänger den Inhalt der Präsentation manipulieren kann. Das lässt sich mithilfe von Bordmitteln verhindern.

Mit aktiviertem Kennwort kann der Empfänger die Powerpoint-Präsentation zwar noch öffnen, aber nicht ändern. Bis zur Version 2003 gelingt das über den Befehl Extras / Sicherheitsoptionen . Ab PowerPoint 2007 befindet sich die Option im Dialogfeld vonSpeichern unter . Klicken Sie hier zuerst auf die Schaltfläche Tools und dann auf den Eintrag Allgemeine Optionen . Im folgenden Fenster geben Sie im Feld Kennwort zum Ändern das Passwort ein.

Produkte : Der Trick funktioniert mit Microsoft Powerpoint 2003, 2007 und 2010. (mje/cvi)

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Ratgeber: Was ist was bei den Netzwerkprotokollen

Es gibt einige hundert verschiedene Netzwerkprotokolle für die Kommunikation und den Austausch von Anwendungen. Wichtig sind aber nur einige wenige wie IP, SMTP oder DHCP. Unser Beitrag erläutert, welche Protokolle für die Datenübertragung im Netzwerk/Internet die größte Rolle spielen.

Wenn von Netzwerkprotokollen die Rede ist, fällt rasch der Begriff OSI-Schichtenmodell oder OSI-Referenzmodell. OSI steht für Open Systems Interconnection. Das Referenzmodell ist die Designgrundlage von Kommunikationsprotokollen in Netzwerken. Das Modell kennt sieben unterschiedliche Schichten. Empfänger und Absender müssen nach bestimmten Regeln arbeiten, die in Protokollen festgeschrieben sind. Nur so können sie sich einigen, wie Daten weiterverarbeitet werden sollen.

Die Schichten des OSI-Modells kann man grob in Transport- und Anwendungsschichten unterteilen. Zu den transportorientierten Schichten gehören die ersten vier: Hier finden sich Protokolle wie IP, IPsec, IPX, SPX, TCP und UDP. In den Anwendungsschichten sind andere Protokolle zu Hause, beispielsweise FTP, HTTP, HTTPS und SMTP. Die folgende Übersicht bringt Ihnen kurz und prägnant die wichtigsten Netzwerkprotokolle näher.

Appletalk und Ethertalk

Auf Macintosh-Rechnern ist Appletalk standardmäßig vorhanden. Es handelt sich dabei nicht um ein einzelnes Netzwerkprotokoll, sondern um eine Gruppe von ihnen – etwa für den Zugriff auf Dateien oder auf Drucker. Per Appletalk kann man notfalls sogar ohne Ethernet-Kabel eine Verbindung zwischen zwei Computern aufbauen: über die serielle Schnittstelle. Die Verbindung erfolgt dann über Druckerkabel, die auf Macintosh-Rechnern ebenfalls seriell angeschlossen werden. Mehrere Rechner kann man über ein Gerät verbinden, das die Netzverbindung durchschleift. Werden Mac-Rechner über Ethernet verbunden, spricht man von Ethertalk.

Appletalk wurde mit der Betriebssystemversion Mac OS X 10.6 zugunsten IP-basierter Netzwerke aufgegeben. Das Finden von Geräten und Servern im Netzwerk übernimmt beispielsweise Bonjour .

DHCP

DHCP ( Dynamic Host Configuration Protocol ) vereinfacht die Vergabe von IP-Adressen in einem Netzwerk. Benötigt wird dazu mindestens ein DHCP-Server . Der verteilt IP-Adressen an die verschiedenen Clients. Auf Serverseite wird ein Adressraum festgelegt. IP-Adressen aus diesem Pool werden an die Clients vergeben, sobald sie den DHCP-Server darum bitten. Damit das geschieht, muss die Netzwerkkonfiguration der Clients entsprechend eingestellt sein. Das ist heutzutage standardmäßig bei Betriebssystemen wie Linux und Windows der Fall, sodass sich ein Administrator nicht um die Einstellungen der Clients kümmern muss.

Ein DHCP-Server weist IP-Adressen automatisch, dynamisch oder manuell zu. Automatisch können Adressen nur einmal zugewiesen werden. Dabei erhält ein Client, der anhand der MAC-Adresse seiner Netzwerkschnittstelle identifiziert wird, bei der ersten Anmeldung im Netzwerk eine freie IP-Adresse. Die wird an die MAC-Adresse gebunden, und der Client bekommt sie auch künftig bei jeder Anmeldung. Im Gegensatz dazu werden dynamisch verteilte IP-Adressen vom Server nach einer bestimmten Zeit wieder einkassiert.

Die letztere Methode sollte unbedingt im größeren Netzwerk genutzt werden, da dort sonst die IP-Adressen knapp werden könnten. Vorsicht: Das kann sogar in kleineren Netzwerken geschehen, falls man öfter mal virtuelle Umgebungen wie VMware Workstation , Parallels Desktop oder Citrix XenServer einsetzt. Diese erzeugen je nach Konfiguration mehrere virtuelle Netzwerkschnittstellen. Die umständlichste Methode, die aber durchaus zum Einsatz kommt, ist die manuelle Zuweisung von IP-Adressen. Hier kann ein Administrator einem oder mehreren Clients eine ganz bestimmte Adresse zuweisen – etwa einem Router oder einem Netzwerkdrucker.

Die Anfrage seitens der Clients erfolgt mittels Broadcast. Damit wird getestet, wie viele DHCP-Server im Netzwerk vorhanden sind. Der angesprochene Server verschickt als Antwort einen Konfigurationsvorschlag. Akzeptiert der Client diesen, sendet er eine DHCP-Anforderung (DHCP Request). Der Server wiederum schickt im Gegenzug die IP-Adresse und die erforderlichen Parameter. Am Ende der Sitzung schickt der Client eine Freigabe zurück an den Server und meldet so, dass die IP-Adresse nicht mehr benötigt wird (DHCP Release).

FTP, FTPS und SFTP

FTP ( File Transfer Protocol ) ist das Standardformat für den Dateiaustausch über das Internet. Eine FTP-Sitzung erfolgt standardmäßig über den Port 21. Das Protokoll wird meist für den Zugriff auf Dateiarchive genutzt. Dabei können in der Regel auch Nutzer ohne Konto auf den Internetserver zugreifen (anonymous FTP). In anderen Fällen erfolgt die Authentifizierung mittels Benutzername und Kennwort. FTP kennt fast 80 Befehle. Der Zugriff auf die Server erfolgt über grafisch orientierte Programme wie Filezilla, über einen Internet-Browser oder direkt über eine Shell. Dazu gibt der Benutzer auf der Konsole einfach „ftp IP-ADRESSE“ oder „ftp HOST“ ein. Als Eingabeprompt erscheint meist „ftp>“. Eine Liste aller Befehle erhalten Sie dann mit „?“ oder „help“. Eine kurze Erklärung zu den einzelnen Befehlen gibt es mit „? BEFEHL“ oder „help BEFEHL“. Wichtige Kommandos sind:

cd : wechselt das Verzeichnis

close : kappt die Verbindung zum FTP-Server

del : löscht eine Datei auf dem FTP-Server

dir : listet den Verzeichnisinhalt

exit : beendet die FTP-Sitzung

get : Datei herunterladen

ls : listet wie dir Verzeichnisse

mdel : löscht mehrere Dateien auf dem FTP-Server

mget : mehrere Dateien herunterladen

mput : sendet mehrere Dateien zum FTP-Server

open : stellt eine Verbindung zu einem FTP-Server her

put : sendet eine Datei zum FTP-Server

pwd : zeigt das aktuelle Verzeichnis auf dem FTP-Server an

quit : beendet wie exit die FTP-Sitzung

user : sendet Benutzeridentifikation

Daten, die per FTP übertragen werden, sind nicht verschlüsselt. Wer eine sichere Methode mit FTP nutzen will, hat zwei Möglichkeiten: Er kann FTP über SSL (FTPS) nutzen; hierbei wird die FTP-Verbindung verschlüsselt. Oder man überträgt Daten per Secure FTP (SFTP); dann wird die FTP-Verbindung über SSH getunnelt. Man kann diese Möglichkeiten einzeln nutzen, oder wechselt gleich zu SSH als Übertragungsprotokoll. Denn dort ist SFTP als Subsystem seit der Version 2 enthalten, und man spart sich auf dem Host einen Server.

HTTP und HTTPS

HTTP ( Hypertext Tranfer Protocol ) ist das zugrunde liegende Protokoll für das World Wide Web. Es läuft über den Port 80 und übermittelt Daten von einem Webserver zum Web-Browser und umgekehrt; als Transportprotokoll wird – wie bei FTP – TCP/IP verwendet. Dabei werden HTML-Dokumente übertragen, aber ebenso auch Bilder, Audio- und Videodaten. Wie und womit diese zusätzlichen Daten dargestellt werden, wird über die MIME-Typen auf dem Client ermittelt. HTTP gibt es in den Versionen 1.0 und 1.1. Diese unterscheiden sich in einigen Funktionen. So wird etwa in Version 1.0 die Verbindung beendet, sobald die Daten übertragen wurden. In Version 1.1 kann man mit dem Header-Eintrag keep-alive die Verbindung aufrechterhalten. Version 1.1 kann darüber hinaus abgebrochene Übertragungen wieder aufnehmen.

Für verschlüsselte Übertragungen steht HTTPS zur Verfügung – standardmäßig läuft die Kommunikation über den Port 443. Das von Netscape entwickelte Protokoll schiebt eine Schicht zwischen HTTP und TCP. HTTPS ist identisch mit HTTP; die Verschlüsselung erfolgt mittels TLS (Trasnport Layer Security), bis dato als SSL (Secure Socket Layer) bekannt. In HTTPS findet zunächst eine gesicherte Authentifizierung von Server und Client statt. Dann wird ein Sitzungsschlüssel erzeugt und ausgetauscht, der zum Verschlüsseln der übertragenen Daten dient. Wer einen HTTPS-Server einsetzen will, benötigt SSL-Routinen. Diese werden beispielsweise im Apache-Webserver als Modul geladen. Weiterhin benötigt man ein digitales Zertifikat, das üblicherweise von einer Zertifizierungsstelle ausgestellt wird. Die Kosten dafür betragen zwischen rund 40 US-Dollar bis über 1000 US-Dollar pro Jahr. Einige Organisationen wie Startcom und Cacert stellen auch kostenlos Zertifikate aus.

IP, IPv4 und IPv6

IP ( Internet Protocol ) ist die Grundlage des Internets. Dieses selbst besteht aus Backbone-Routern und weiteren Netzen in Universitäten und bei Providern. Sie können weitere Subnetze bilden und in Form von IP-Adressen an Kunden vergeben. Über IP werden die Daten zwischen den Routern gesteuert. Hauptaufgabe des IP ist es, aus den Informationseinheiten kleine Pakete zu schnüren und diese über verschiedene Wege ans Ziel zu liefern – also von einer IP-Adresse zu einer anderen. Dort angekommen, werden sie vom IP-Protokoll wieder in der richtigen Reihenfolge zusammengesetzt.

Die IP-Adressen der Version 4 (IPv4) werden aus vier Oktetten zusammengesetzt. Die vierte Version des Internetprotokolls war die erste, die weltweit eingesetzt wurde. Seither werden die Adressräume knapp. Die beiden letzten freien Adressblöcke wurden im Februar dieses Jahres vergeben. Damit können aus dem IPv4-Adress-Pool mit über vier Milliarden eindeutigen IP-Adressen keine weiteren verteilt werden.

Der direkte IPv4-Nachfolger ist die Version 6, kurz: IPv6 . Adressen haben in dieser IP-Version eine Länge von 128 Bit statt wie bisher 32 Bit. Die aktuellen Betriebssysteme beherrschen diese Form der Adressierung bereits. Das wundert weiter nicht, da IPv6 bereits seit 1998 als Standard gilt. Nach und nach wird diese neue 6er-Version die alte 4er ablösen, da sie wesentlich mehr Adressen ermöglicht: statt zirka 4,3 Milliarden (2 hoch 32) beherrscht IPv6 ungefähr 340 Sextillionen (2 hoch 128). Der weiche Übergang wird außerdem dadurch erreicht, dass IPv6 zum bestehenden IPv4 hinzugeschaltet wird.

Darüber hinaus bietet IPv6 weitere Vorteile: Das Verschlüsselungsverfahren IPsec ist integriert, und die Adressen können automatisch so konfiguriert werden, dass Verfahren wie DHCP überflüssig werden (der Fachmann spricht von zustandsloser Konfiguration). Überflüssig wird auch die Network Adress Translation (NAT): Mit IPv6 erhalten Anwender global eindeutige IP-Adressen, sodass jedes Gerät vom Server bis zum NAS , vom Tablet bis zum Smartphone weltweit seine eigene IP-Adresse erhalten kann – eine Adressumschreibung für das eigene Netzwerk ist damit überflüssig.

IPv6-Adressen werden hexadezimal notiert. Die Zahl ist in acht Blöcke à 16 Bit unterteilt. Die Blöcke werden durch Doppelpunkte getrennt, führende Nullen und Nullen-Blöcke können weggelassen werden. Damit es keine Verwechslungen mit Port-Nummern gibt, werden IPv6-Adressen im Browser in eckige Klammern gesetzt: http://[1020:de2:74a1:::9088:7890:abcd]:631/.

IPX und SPX

IPX ( Internet Protocol Exchange ) und SPX (Sequenced Packed Protocol Exchange) wird von NetBIOS zur Datenübertragung genutzt. Die Protokolle spalten ähnlich wie IP die Daten in Pakete auf und fügen sie am Ziel wieder zusammen. SPX ist eine Erweiterung zu IPX, die auch auf Fehler prüft. Beide benötigen das Netware-Betriebssystem der FirmaNovell .

NetBIOS und NetBEUI

NetBIOS ( Network Basic Input/Output System ) regelt als Standardschnittstelle auf der Transportschicht den Zugriff auf im Netzwerk verfügbare Geräte wie Drucker, Scanner und Streamer. Es wurde 1983 für IBM entwickelt und enthält unter anderem Funktionen zur Namensauflösung. NetBIOS ist auf Netzwerkkarten implementiert und leitet Anfragen vom Benutzer ins Netzwerk weiter.

Das auf NetBIOS aufbauende Transportprotokoll heißt NetBEUI (NetBIOS Extended User Interface). Es ist eine Microsoft-Erweiterung von NetBIOS. NetBEUI wurde für DOS-PCs entwickelt und war unter Windows bis zu Version 2000 und ME der Standard. Das Protokoll ist klein und schnell. Da es auf MAC-Adressen aufsetzt, kommt es ohne IP-Adressen aus; Quell- und Zielcomputer werden über den Host-Namen identifiziert, der maximal 15 Zeichen lang sein darf. Allerdings ist es nicht Routing-fähig, in größeren Netzwerken nicht mehr zeitgemäß und seit Windows Vista nicht mehr in den Microsoft-Produkten verfügbar.

SMB

SMB ( Server Message Block ) oder auch LAN Manager ist hauptsächlich ein Protokoll für Datei und Druckdienste. Es läuft über NetBIOS, NetBIOS over TCP/IP und direkt im TCP/IP-Protokollstapel . SMB implementiert ein NFS -ähnliches Dateisystem und ist so unabhängig vom Dateisystem des Servers. Das macht sich zum Beispiel das Samba-Projekt zunutze, eine freie Implementierung des SMB-Protokolls unter Unix und unixoiden Systemen wie Linux. Mit Samba können damit in heterogenen Umgebungen Windows-Server durch preiswertere Linux-Systeme ersetzt werden.

SMB wurde 1983 bei IBM entwickelt. Anschließend haben Firmen wie Microsoft, SCO und das Samba-Projektteam das Protokoll verbessert. Derzeit aktuell ist die SMB-Version 2, die von Samba ab der Version 3.5 unterstützt wird.

SMTP

SMTP ( Simple Mail Transfer Protocol ) ist das Protokoll für das Versenden von E-Mail. Das Protokoll aus der Anwendungsschicht ist auf dem Port 25 zu finden. Alternativ geht heute der Mail-Versand auch über den Port 587 vonstatten; dort werden für dem System bekannte Benutzer Mails entgegengenommen und weitergeleitet. Das soll unerwünschten Spam verhindern. Vorrangig wird SMPT zum Absenden von E-Mails genutzt; für den Mail-Empfang dienen Protokolle wie POP3 und IMAP . Ein SMTP-Server steht entweder im lokalen Netzwerk zur Verfügung oder ist über externe Server – bei einem Provider auf einer eigenen Internetpräsenz – erreichbar. Im Internet sorgen dann sogenannte Mail Transfer Agents (MTA) für das weitere Übermitteln der Mails.

SMTP-Server kommunizieren untereinander in Klartext. Da SMTP textbasiert ist, kann man zum Beispiel auch ganz einfach per Telnet eine Mail verschicken. Das ist auch der Grund, warum Mail-Adressen nicht als verlässlich gelten. Denn in Telnet ist, wie in anderen Programmen, der Name des Empfängers ebenso frei wählbar wie der des Absenders.

TCP/IP

TCP/IP ( Transmission Control Protocol/Internet Protocol ) heißt deshalb so, weil TCP in den meisten Fällen auf dem Internetprotokoll aufbaut. TCP/IP wurde ursprünglich für das US-Verteidigungssystem entwickelt, um Computer in unterschiedlichsten Systemen miteinander zu verbinden. Das erklärt auch einige Eigenschaften wie die, dass Datenverluste erkannt und automatisch behoben werden oder dass eine Überlastung des Netzwerkes verhindert wird. Während IP sich um den Versand der Pakete kümmert, sorgt TCP für den zuverlässigen Datenstrom zwischen zwei Punkten. Es prüft die Integrität der Daten mithilfe einer Prüfsumme im Paketkopf und stellt die Reihenfolge durch sogenannte Sequenznummern sicher. Ankommende Pakete werden beim Empfänger zusammengefügt, doppelt gesendete werden verworfen.

UDP

UDP ( User Datagram Protocol ) ist ein einfach aufgebautes, verbindungsloses Protokoll. Im Gegensatz zu TCP werden mit UDP Daten übertragen, die nicht unbedingt ankommen müssen. Anders gesagt: Bei UDP gibt es keine Garantie, dass Daten ankommen – bei TCP schon. Die Informationen im Header der Pakete sind aufs Nötigste begrenzt. Das bedeutet auch, dass keine Überlastungskontrolle stattfinden kann. Das Einzige, was mit UDP geprüft werden kann, ist die korrekte Checksumme nach dem Erhalt einer Nachricht.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Kontakte und Daten von iPhone auf Android übertragen

Wir zeigen Ihnen, wie Sie Ihre Daten wie Kontakte von einem iPhone auf ein Android-Handy wie dem Galaxy S9 übertragen.

Der Smartphone-Wechsel mit sämtlichen Daten ist zum Glück kein Problem mehr – selbst systemübergreifende Umzüge von iOS zu Android sind ein Kinderspiel – okay, zumindest fast. Der Datenumzug ist ohne größeren Datenverlust möglich.

Daten von iPhone auf Android übertragen mit Smart Switch

Hersteller wie Samsung und Sony bieten eigene Programme an, um Daten von einem iPhone auf Android-Geräte zu übertragen. Die Software-Oberflächen sind größtenteils selbsterklärend – Sie verbinden immer Ihr Smartphone mit dem PC, wählen als wiederherzustellenden Inhalt das iOS-Backup aus und importieren dieses. Nachfolgend erklären wir Ihnen, wie der Umzug mit der Samsung-Software Smart Switch funktioniert – auch ganz ohne PC.

Mit der Software Smart Switch können Sie die Inhalte Ihres alten Handys auf ein neues Galaxy-Modell übertragen – zum Beispiel auf das Galaxy S9 (Test) oder das Galaxy Note 9 (Test) . Es gibt in diesem Fall drei Möglichkeiten, iOS-Inhalte auf das Galaxy-Smartphone umzuziehen: Via iCloud-Import, direkte USB-Verbindung zum Smartphone oder über den PC.

iCloud-Import: In den iOS-Einstellungen auf Ihrem iPhone unter „iCloud“ legen Sie fest, welche Daten in der iCloud gesichert werden sollen. Um diese auf Ihr neues Galaxy-Gerät zu übertragen, laden Sie die App Smart Switch Mobile auf Ihr Samsung-Handy herunter. Bei den meisten aktuellen Smartphones wie dem Galaxy S9 ist die Anwendung bereits vorinstalliert und im System integriert. Wenn sich die Anwendung nicht im App-Menü befindet, versteckt sich Smart Switch in den Einstellungen unter „Cloud und Konten“. Starten Sie die App auf Ihrem Galaxy-Handy und wählen Sie „Drahtlos – Empfangen – iPhone/iPad“ aus. Anschließend melden Sie sich in iCloud mit Ihren Zugangsdaten an. Wählen Sie die zu übertragenen Inhalte aus und tippen Sie auf „Importieren“. Zur Auswahl stehen unter anderem Kontakte, Kalender, Fotos und Videos.

Via USB: Die Datenübertragung von iPhone zu Samsung via USB funktioniert genau wie beim iCloud-Import. Nur wird in diesem Fall Fall das iPhone mit einem USB-Kabel an das Samsung-Gerät über einen OTG-Adapter angeschlossen wird. Ein solcher liegt dem Galaxy S9 bei.

Sobald das iPhone über USB an das Galaxy-Handy angeschlossen ist, öffnet sich automatisch Smart Switch. Tippen Sie auf Ihrem iPhone bei der Meldung „Diesem Computer vertrauen?“ auf „Vertrauen“ und auf Ihrem Galaxy-Device auf „Weiter“. Anschließend scannt die Software den Inhalt des iPhones und überträgt dann die von Ihnen ausgesuchten Inhalte. Achtung: Das iPhone darf nicht via iTunes verschlüsselt sein, sonst klappt der Transfer nicht.

Über den PC: Stellen Sie sicher, dass sich eine lokal gespeicherte System-Sicherung Ihres iPhones auf dem Computer befindet, die Sie mit iTunes angelegt haben. Achten Sie darauf, dass das Backup durch kein Passwort geschützt ist. Nun laden Sie sich dasDesktop-Programm Smart Switch auf Ihren Windows- oder Mac-Computer herunter und starten es – die Download-Links befinden sich ganz unten auf der Webseite. Verbinden Sie Ihr Galaxy-Smartphone mit dem PC und klicken in Smart Switch auf die Schaltfläche „Wiederherstellen“, danach auf „Sicherungsdaten auswählen“. Stellen Sie „Von iTunes sichern“ ein, wählen das entsprechende iOS-Backup aus und bestimmen dann die zu übertragenen Inhalte aus – Kontakte, Lesezeichen, Bilder, Videos und eine App-Liste. Das Programm zeigt Ihnen eine zu den iOS-Apps passende Liste mit Android-Apps, die Sie auf Ihrem Galaxy-Gerät installieren können.

Kontakte vom iPhone mit Google synchronisieren

Falls Sie kein Google-Konto besitzen, sollten Sie spätestens jetzt eins anlegen. Ein solches benötigen Sie auf Ihrem Android-Handy sowieso, um es vollumfänglich bedienen zu können. Tippen Sie in den iOS-Einstellungen Ihres iPhones auf „Accounts & Passwörter – Account hinzufügen“ und melden sich dann mit Ihrem Google-Konto an, das Sie auch auf Ihrem Android-Handy nutzen. Wählen Sie aus, welche Daten synchronisiert werden sollen – allen voran die Kontakte – und stellen Sie sicher, dass Sie über eine aktive Internetverbindung verfügen. So übertragen Sie alle Kontakte sicher auf das neue Android-Gerät. Die Kontakte sind auf den Google-Servern gesichert, weshalb sie auf allen Android-Geräten sowie am PC nutzbar sind. Kontakte verlieren war gestern!

Fotos vom iPhone auf Android direkt übertragen

Um die vielen mit Ihrem iPhone geknipsten Fotos auf ein Android-Gerät zu bringen, schließen Sie das iPhone an den Computer an. Nun können Sie am PC auf den Speicher des iPhones zugreifen und den Bilder-Ordner „DCIM“ entweder direkt auf ein via USB angeschlossenes Android-Gerät übertragen oder die Fotos zunächst auf dem PC zwischenspeichern.

Auf Android umsteigen mit Drittanbieter-Software

Ein Umzug klappt auch mit dem Programm MobileTrans von Wondershare , mit dem Sie Kontakte, SMS-Nachrichten und Multimedia-Dateien auf das neue Telefon schieben. Allerdings bietet die kostenlose Testversion nur eingeschränkte Versionen. Um das vollständige Programm zu nutzen, müssen Sie zahlen. Die Vollversion kostet für ein Jahr für 1 bis 5 Geräte und einen PC 35 Euro. Die lebenslange Lizenz für genauso viele Geräte kostet 39,99 Euro. Und das lebenslange Familienpaket mit 6 – 10 Geräten und einem PC kostet 67,99 Euro.

Voraussetzung: Sie müssen auf Ihrem Computer die Apple-Verwaltungssoftware iTunes installiert haben, damit Sie Dateien von oder auf ein iOS-Gerät senden können. Darüber hinaus aktivieren Sie bei Ihrem Androiden „USB-Debugging“ unter „Einstellungen -> Entwickler-Optionen -> Debugging –> USB-Debugging“.

Danach wählen Sie die zu kopierenden Daten aus. In diesem Fall können Sie alle Inhalte bis auf Apps und Anruflisten übertragen. Klicken Sie auf „Kopieren“, sendet das Programm den Datenbestand des iOS-Telefons auf den Androiden.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Hardware-Trends 2019: WLAN & Mobilfunk

Ein aktueller WLAN-Router sollte zu schnellen Internetanschlüssen ebenso passen wie zu einem großen WLAN. Wenn Sie aber mehr Tempo und Reichweite im Funknetz brauchen, sollten Sie auf ein Mesh-System setzen.

Die klassische Heimnetzausstattung in Deutschland beinhaltet einen WLAN-Router mit Modem passend zum Internetanschluss. Der Wechsel der Anschlussart oder Anschlussgeschwindigkeit ist deshalb ein guter Zeitpunkt, über einen neuen Router nachzudenken. Dafür bietet AVM das umfassendste Angebot: Die Fritzbox 7590 unterstützt Super-Vectoring für DSL-Tarife mit bis zu 250 MBit/s, wie sie beispielsweise 1&1 (DSL 250), Telekom (Magenta Zuhause XL) und Vodafone (Red Internet & Phone 250 DSL) anbieten. Sie verfügt dabei über 11ac-WLAN mit 1733 MBit/s (5 GHz) plus 800 MBit/s (2,4 GHz) und kostet rund 230 Euro. Eine günstigere Alternative ist mit 130 Euro die etwas schlechter ausgestattete Fritzbox 7530 : Ihr WLAN arbeitet mit maximal 866 sowie 400 MBit/s.

Jeweils rund 20 Euro kostengünstiger sind die ähnlich ausgestatteten DSL-Modemrouter von TP-Link: Den Archer VR2800V für Super-Vectoring gibt es für rund 210 Euro und denArcher VR600 für Vectoring mit bis zu 100 MBit/s für rund 110 Euro. Ebenfalls empfehlenswert ist der Asus DSL-AC87VG . Wenn Sie keinen Umstieg auf einen neuen Onlinetarif planen und den Modemrouter behalten möchten, weil Sie ihn kostenfrei oder stark vergünstigt vom Provider erhalten, können Sie mit einem reinen WLAN-Router das Funknetz beschleunigen. Für kleine Netzwerke reicht ein Gerät mit 2×2- Übertragung, das auf maximal 866 (5 GHz) und 400 MBit/s (2,4 GHz) kommt, wie die Fritzbox 4040 für rund 70 Euro. Sie bringt des Weiteren vier Gigabit-Ports für kabelgebundene Geräte mit und einen USB-3.0-Anschluss, über den Sie einen Stick oder eine Festplatte als Netzspeicher einbinden können. Zukunftssicherer sind allerdings schnellere WLAN-Router mit 3×3 oder 4×4 sowie auch Unterstützung für Multi-User-MIMO (MU-MIMO): Diese Technik nutzen auch immer mehr Smartphones und Notebooks, damit sie der Router gleichzeitig anstatt wie im Netzwerk üblich hintereinander bedienen kann. Hierdurch erhöht sich die Datenrate im gesamten Funknetz. Diese Ausstattung bieten zum Beispiel der Asus RT-AC86U und der Netgear Nighthawk X4S – beide kosten rund 180 Euro.

Preis-Leistungs-Tipp: AVM FRITZBOX 7590

Preis: rund 230 Euro

Ausstattung: Internetanschluss: VDSLSupervectoring / WLAN: 11AC 4×4 (5 GHz: 1733 MBit/s; 2,4 GHz: 800 MBit/s) / LAN: 4x Gigabit / Telefonie: DECT-Basisstation, 2 Telefonanschlüsse (a/b oder TAE) / NAS: 2x USB 3.0 / Besonderheiten: MU-MIMO

Das braucht der Technikfan

WLAN-Abdeckung und Reichweite sind im Heimnetz mittlerweile deutlich wichtiger als Höchstgeschwindigkeit für einzelne Geräte. Weil immer mehr Notebooks, Smartphones und Tablets Anschluss an das Funknetz suchen, reicht ein einzelner WLAN-Repeater wie der AVM Fritz-Repeater 1750E (rund 65 Euro) nicht mehr aus, auch wenn er mit bis zu 1300 MBit/s (5 GHz) beziehungsweise 450 MBit/s (2,4 GHz) arbeitet. Zur lückenlosen WLAN-Abdeckung empfehlen sich deshalb Mesh-Systeme, die es inzwischen von sämtlichen wichtigen Routerherstellern gibt. Je nachdem, wie groß die Wohnung oder das Haus ist, das Sie mit WLAN versorgen wollen, müssen Sie zwischen 100 und 400 Euro ausgeben.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Ethik und Künstliche Intelligenz: Die Zeit drängt – wir müssen handeln

Künstliche Intelligenzen und Roboter werden in unserem Leben immer selbstverständlicher. Was erwarten wir von den intelligenten Maschinen, wie verändert ihre Präsenz in unserem Alltag und die Interaktion mit ihnen unser Selbstverständnis und unseren Umgang mit anderen Menschen? Müssen wir Roboter als eine Art menschliches Gegenüber anerkennen? Und welche Freiheiten wollen wir den Maschinen einräumen? Es ist dringend an der Zeit, die ethischen und rechtlichen Fragen zu klären.

»Die Menschheit steht an der Schwelle zu einer Ära, in der immer raffiniertere Roboter, Bots, Androiden und andere Formen Künstlicher Intelligenz bereitstehen, um eine neue industrielle Revolution zu entfesseln, die keinen Stein unserer Gesellschaft auf dem anderen lassen wird. Die Entwicklung von Robotik und Künstlicher Intelligenz wirft rechtliche und ethische Fragen auf, die eine unmittelbare Intervention auf der Ebene der Europäischen Union erfordern«.

Das Europäische Parlament hat es im vergangenen Jahr ganz drastisch formuliert. Eine neue industrielle Revolution steht an, welche die bestehenden Verhältnisse umpflügen wird.

Wer die Nachrichten aufmerksam verfolgt, erfährt täglich von neuen faszinierenden Leistungen, erbracht von intelligenten Maschinen, die nicht nur unsere Art zu arbeiten verändern werden, sondern unsere gesamte Lebensweise und Lebensmöglichkeiten zu revolutionieren versprechen.

Die gesamte Entwicklung weist eine hohe Dynamik auf, die es schwer macht, im Vor- und Nach-Denken über die Implikationen und Folgen dieses Technologieschubs den Überblick zu behalten und zu angemessenen, zeitgemäßen Urteilen zu kommen.

Für rechtliche und ethische Regularien ist es noch schwieriger. Bis ein Gesetz alle Hürden genommen hat und in Kraft getreten ist, hat sich die Technik unter Umständen schon wieder grundlegend verändert. Und so schleichen sich neben die Verheißungen unüberhörbar auch Stimmen ein, die warnen und uns zum Nachdenken, Umsteuern und Handeln aufrufen.

Die Robotik in Verbindung mit Künstlicher Intelligenz wird nicht nur unsere Arbeitswelt verändern – was sich bereits jetzt beobachten lässt. Sie betrifft nicht allein den Bereich klassischer Industriearbeit, wo zumeist schwere und repetitive Arbeiten ausgeführt werden.

Die neuen Robotergenerationen stehen sowohl in der Industrie wie auch im Service zur Verfügung. Sie kommen – ausgerüstet mit Künstlicher Intelligenz – dem Menschen immer näher und ›erlernen‹ nun zunehmend Tätigkeiten, die dem Zwischenmenschlichen, dem Privaten, wenn nicht sogar Intimen zugeordnet werden.

Es ist nicht zuletzt diese Nähe, Beziehung und Abhängigkeit, die zwischen Mensch und Maschinen entsteht, die aufmerksame Beobachter nach öffentlichen Debatten und entsprechenden Regulierungen rufen lassen.

Dieser Beitrag gibt einen kurzen Überblick über den Stand der ethischen Fragen, die sich mit diesen Entwicklungen verbinden.

Roboter ist nicht gleich Roboter

Das Wort »Roboter« hat seinen Ursprung im Slawischen, wo rab Sklave bedeutet. Rabotaist im Russischen die Arbeit und rabotnik der Arbeiter. 1921 brachte Karel Čapek sein Theaterstück Rossum’s Universal Robots auf die Bühne, in der – allerdings auf biologischem Wege – künstlich hergestellte Menschen als billige Arbeitskräfte dienten.

Damit war der Begriff des Roboters in der Welt. Die Maschinen, die zunehmend menschliche Arbeit übernahmen, folgten erst mit einiger Verzögerung. 1954 wurdeUnimate, der erste Industrieroboter , von George Devol entwickelt [1]. Insbesondere in den 1970er Jahren haben viele produzierende Gewerbe eine Roboterisierung ihrer Arbeit erfahren (beispielsweise die Automobil- und Druckindustrie).

Mittlerweile sind diese Industrieroboter aus den Käfigen ihrer Fertigungsstraßen entlassen worden und arbeiten ›Hand in Hand‹ mit Menschen in der Produktion zusammen. Angesichts ihrer physischen Mächtigkeit müssen sie nun ›vorsichtiger‹ konzipiert werden und das menschliche Gegenüber in seinen Gesten, Bewegungen und idealerweise auch Intentionen erkennen, um so die Kooperation ungefährlich für den Menschen zu gestalten und eine höhere Produktivität und Wertschöpfung zu erreichen.

Neben den Industrierobotern, die vor allem der Produktion wirtschaftlicher Güter dienen, haben sich mit fortschreitender Technik auch Serviceroboter etabliert, die Arbeiten ausführen, die für Menschen zu schwer, belastend oder gefährlich sind; etwa Melkmaschinen oder Maschinen zur Entfernung von giftigen oder verstrahlten Objekten.

In der nächsten Entwicklungsstufe kommen nun solche Roboter hinzu, die Dienstleistungen mit und am Menschen erbringen sollen: Haushalts- und Pflegeroboter , Operations- oder auch Sexroboter, die die Leistungen von Menschen unterstützen, verbessern oder kompensieren oder auch völlig neue Möglichkeiten schaffen.

Solche ›technischen Helfer‹ dienen nicht nur Menschen mit einem rechtlich anerkannten Unterstützungsbedarf, sondern stellen ein Angebot an alle auf einem Markt dar. Besondere ethische Aufmerksamkeit erhalten gegenwärtig solche technischen Systeme, die die im Abbau begriffenen oder ganz verlorengegangenen menschlichen Fähigkeiten (Orientierung, Mobilität, Kommunikation) kompensieren oder ersetzen sollen, etwa intelligente Tagesbegleiter (Avatare) oder soziale Roboter.

In allen Fällen müssen die Schnittstellen zwischen Menschen und Maschinen sehr viel flexibler und die Roboter auf eine komplexe, nicht vollständig berechenbare Interaktion ausgelegt werden.

Im Bereich der Industrierobotik können die Aktionen des Roboters relativ klar programmiert und die Umgebung so gestaltet werden, dass Menschen oder andere Güter nicht gefährdet werden.

Bei Servicerobotern im nicht-sozialen Bereich werden eine zielgerichtete Ausführung der Arbeiten und der Ausschluss von Gefährdungen weitgehend durch eine (Fern-)Steuerung des Roboters durch den Menschen gewährleistet.

Bei Servicerobotern allerdings, die (teil-)autonom mit Menschen zum Beispiel in deren Häuslichkeit interagieren sollen, ist eine jede Aktion eindeutig festlegende Programmierung der Roboter ebensowenig möglich wie eine Fernsteuerung. Die Programme und robotischen Aktionen müssen flexibel und ›semantisch‹ ausgelegt werden, d. h. sie müssen sich auf die menschlichen Handlungen (Sprache, Gestik, Mimik) in den jeweiligen Kontexten interpretierend beziehen und kontextspezifische Interaktionen ermöglichen. Um die direkte Mensch-Roboter-Interaktion möglichst sicher und effektiv zu gestalten, müssen die Roboter vom Menschen als Interaktionspartner akzeptiert werden.

Das bedeutet, dass sie vom Menschen als etwas anderes angesehen werden als die technischen Geräte oder Maschinen, die sie bisher instrumentell eingesetzt haben. Im instrumentellen Umgang mit Werkzeugen und Maschinen hatte der Mensch die Handlungshoheit hinsichtlich der Handlungsziele und weitgehend auch der Wege, um diese Ziele zu erreichen.

In dem Maße aber, in dem Roboter zu Handlungspartnern werden mit einem eigenen Anteil an ›Entscheidungen‹ und ›Handlungen‹, in dem Maße muss sich der Mensch auf ein Gegenüber einstellen und ein zunehmendes Maß von Eigenständigkeit dieses Gegenübers akzeptieren.

Es stellt sich die Frage, ob wir Menschen diese Roboter als soziales Gegenüber anerkennen müssen, und was das für unser soziales Miteinander insgesamt bedeutet. Das ist eine ähnliche Frage, wie wir sie menschheitsgeschichtlich bereits für den Umgang mit Tieren – auf eine bisher nicht immer befriedigende Weise – beantworten mussten.

In Bezug auf die Maschinen steht nun aber weniger deren Leidens- und Beziehungsfähigkeit zur Debatte als vielmehr deren ›Rationalität‹ und (simulierte) ›Emotionalität‹. Hier scheint eine Ähnlichkeit vorzuliegen, die Fragen nach Anerkennung von und Umgang mit diesen Maschinen aufwirft.

Das mag auf den ersten Blick weit hergeholt erscheinen, wenn man sich die technische Definition eines Industrieroboters in der ISO 8373 (2012) vergegenwärtigt: »Ein Roboter ist ein frei und wieder programmierbarer, multifunktionaler Manipulator mit mindestens drei unabhängigen Achsen, um Materialien, Teile, Werkzeuge oder spezielle Geräte auf programmierten, variablen Bahnen zu bewegen zur Erfüllung der verschiedensten Aufgaben«.

Warum sollten wir diese Manipulatoren, die zunächst einmal nichts anderes sind als eine Ansammlung aus anorganischer Materie, Elektronik und Software, als soziales Gegenüber anerkennen, ihnen gar so etwas wie Rechte zubilligen oder uns ihnen moralisch verpflichtet fühlen?

Ein zweiter Blick und weitere Überlegungen führen uns zu dem, was einen sozialen Roboter auszeichnet: »Eine physische Entität, die in einem komplexen, dynamischen und sozialen Umfeld ausreichend befähigt ist, um sich auf eine Weise zu verhalten, die förderlich ist für die eigenen Ziele und die der Gemeinschaft«. Das ist ein Definitionsversuch , der schon sehr viel näher an das heranführt, was wir bei Menschen ›soziales Verhalten‹ nennen. Das sind nicht mehr nur komplexe Manipulatoren, sondern Wesen, die ein gewisses Eigeninteresse und einen Bezug auf die Gemeinschaft haben und damit zunehmend auch als ›eigenmächtige‹ Gegenüber auftreten.

Folgt man dieser Spur noch einige Schritte weiter, dann stößt man auf die Tatsache, dass robotische Funktionen von uns Menschen wie Handlungen interpretiert werden, was ein Grundbegriff ethischer Theorien ist und uns nötigt, die Roboter und die Künstliche Intelligenz, die mit ihnen ›auftritt‹, unter ethischer Perspektive genauer zu bedenken.

Und so ist die Forderung des EU-Parlaments auch verständlich, dass wir uns Gedanken machen sollten, welche Erwartungen wir an solche Roboter und Künstliche Intelligenzen heften, welche Entwicklungen wir vermeiden wollen und welche Konstruktionen und Regulierungen daraus erwachsen müssen.

Ethisch gesprochen sind damit die beiden Richtungen aufgerufen, in denen wir uns orientieren und – mit guten Gründen – entscheiden müssen: »wer wir sind und was für Menschen wir sind« und »in welcher Gesellschaft wir leben«. [2]

Ethische Überlegungen zu Robotik und Künstlicher Intelligenz

Versucht man sich einen Überblick über die verschiedenen ethischen Probleme zu verschaffen, die mit dem Aufkommen von ›intelligenten‹ und in jeder Hinsicht (Präzision, Geschwindigkeit, Kraft, Kombinatorik und Vernetzung) immer mächtigeren Robotern verbunden sind, so ist es hilfreich, diese Probleme danach zu unterscheiden, ob sie

1. das Vorfeld der Ethik,

2. das bisherige Selbstverständnis menschlicher Subjekte (Anthropologie) oder

3. normative Fragen im Sinne von: »Was sollen wir tun?« betreffen.

Die folgenden Überlegungen geben einen kurzen Aufriss, mit welchen Fragen wir uns jeweils beschäftigen sollten, wie die verschiedenen Fragenkreise zusammenhängen, und woran wir uns in unseren Antworten orientieren können.

1. Fragen im Vorfeld der Ethik

Betrachtet man die gegenwärtigen Entwicklungen mit ein wenig Abstand, so ist es augenfällig, dass Roboter wie eine langersehnte Antwort auf viele und sehr verschiedene Herausforderungen erscheinen. Ob es um präzisere Operationsmethoden in der Chirurgie, eine bessere Diagnostik in Kliniken und Arztpraxen, die Unterstützung von hilfebedürftigen Menschen , verbesserte Produktion und Logistik, die Erforschung fremder Planeten oder die Befriedigung sexueller Bedürfnisse geht: In allen Bereichen werden Roboter als Lösung entwickelt und angeboten.

Betrachtet man die ökonomischen Erwartungen, die sich mit der Robotik verbinden, und die Programme der Forschungsförderung, so lassen sich für die nächsten Jahrzehnte kräftige Zuwachsraten errechnen.

Zugleich ist jedoch zu fragen, ob mit der starken Fixierung auf robotische Lösungen andere Optionen unter Umständen vernachlässigt und am Ende sogar abgeschnitten werden.

Die Situation in der Pflege mag das illustrieren: Gegenwärtig ist die Rede von einem großen Fachkräftemangel von mehreren zehntausend Menschen. Da diese im Moment realistischerweise nicht zu finden sind, komme man gar nicht umhin, so wird argumentiert, robotische Lösungen mit ins Spiel zu bringen, um die großen gesellschaftlichen Herausforderungen zu bewältigen, die sich in der Pflege aufgrund des demographischen Wandels in den nächsten Jahrzehnten noch verschärfen werden. Dementsprechend wird in vielen Projekten an robotischen Grundfertigkeiten geforscht, die es ermöglichen sollen, dass Roboter in einigen Jahren Tätigkeiten wie Waschen, Umlagern, Essen anreichen oder anderes übernehmen.

Das könnte die Personalsituation tatsächlich entspannen, zugleich aber dazu beitragen, dass immer weniger Menschen sich für diesen Beruf noch interessieren bzw. dafür überhaupt angeworben werden.

Eine Frage in diesem Zusammenhang lautet: Wie steuern wir diese Entwicklung so, dass sie uns mehrere Handlungsoptionen eröffnet anstatt uns vorzeitig welche zu verschließen?

2. Anthropologische Fragen

Eine Frage betrifft die Veränderungen, die sich für uns Menschen dort ergeben, wo wir über uns selbst und unsere Stellung in der Welt nachdenken. Der Mensch galt lange als das einzige Wesen, das Freiheit in Bezug auf seinen Willen, seine Entscheidungen und seine Handlungen hat und deshalb überhaupt moralisch ansprechbar ist. Erst aus der Freiheit für das eine und gegen das andere erwachse dem Menschen die Forderung, moralisch zu denken, zu entscheiden und zu handeln. Das betrifft nicht alle Entscheidungen und Handlungen, sondern solche, die es mit dem moralisch Guten zu tun haben. Nur der Mensch könne sich in solchen Fragen aufgrund seiner Rationalität für das Gute und Gerechte entscheiden.

Diese sehr vereinfacht dargestellte Annahme, die sich bereits hinsichtlich Tieren als diskutabel erweist [3], wird nun durch die Leistungen der Roboter und der Künstlichen Intelligenz erneut und hinsichtlich bestimmter Formen von ›Rationalität‹ in Frage gestellt. Es scheint so, dass es offenbar auch diese Wesen gibt bzw. in naher Zukunft geben wird, die solche ›Freiheiten‹ besitzen und qua ›Künstlicher Intelligenz‹ wohlberechnet einsetzen (beispielsweise autonomes Fahren ).

Zum anderen scheinen bestimmte Formen von Moralität und Rationalität von Maschinen sogar besser erfüllt zu werden als vom Menschen. Maschinen mit Künstlicher Intelligenz können schneller, präziser und unbestechlicher bestimmte Aufgaben ›entscheiden‹.

Auch dies soll an einem Beispiel erläutert werden: Im Rahmen von Behandlungsentscheidungen in Kliniken werden zunehmend Expertensysteme eingesetzt, die die Entscheidungen des behandelnden Teams vorstrukturieren, wenn nicht vorentscheiden. Solche Expertensysteme bestehen aus Rechnern, die mit speziellen Algorithmen weltweit die relevanten Datenbanken nach einem ähnlichen Befund, verschiedenen Behandlungsweisen und -erfolgen durchsuchen und daraus ›Behandlungsempfehlungen‹ ableiten. Nachdem im Krankenhaus Regress-Forderungen aufgrund von Fehlbehandlungen ausgeschlossen werden sollen, ist es naheliegend, den ›Empfehlungen‹ des technischen Systems zu folgen. Die Legitimation einer Entscheidung durch Daten erscheint als die fundiertere.

Man mag mit Fug und Recht einwenden, dass Menschen sich auch in anderen Handlungsfeldern (etwa der Autopilot im Flugzeug) auf die maschinellen Berechnungen und ›Entscheidungen‹ verlassen – und das durchaus mit Erfolg. Hinsichtlich bestimmter Entscheidungskalküle werden wir Menschen von ›unseren‹ Maschinen zunehmend übertroffen – und es kann durchaus ethisch geboten sein, diesen ›Berechnungen‹ zu folgen.

In diesen Feldern geraten wir in eine Abhängigkeit von ihnen, die uns unter Umständen unsicherer und entscheidungsschwächer machen wird. Es kommt hinzu, dass Menschen mit der Delegation von Tätigkeiten an Roboter auch bestimmte kognitive oder manuelle Fertigkeiten verlieren werden. Unter Umständen wird man das mit dem Abstand einiger Jahrzehnte oder Jahrhunderte nostalgisch betrachten. Es könnte aber auch sein, dass wir Menschen uns auf diese Weise um Fertigkeiten bringen, die uns eines Tages auf fundamentale Weise fehlen werden.

Deshalb sollten solche Fragen gründlich bedacht werden, bevor Entscheidungen uns an einen Punkt bringen, den wir als Gattung bedauern müssten.

Überlegungen führen zu einer zweiten Kategorie von Problemen, die sich auf uns Menschen in unserem Selbstverständnis, Selbstverhältnis und unserem Verhältnis zu anderen beziehen.

Technische Geräte, insbesondere Automaten (man denke an den Schachspielenden Türken und die mechanischen Tiere von Vaucanson ) und Roboter haben in der Kultur- und Technikgeschichte der Menschheit immer auch als Spiegel und Medium der Selbstverständigung gedient, was der Mensch sei im Vergleich und im Unterschied zu diesen Maschinen. [4]

Dabei zieht sich eine grundlegend ambivalente Haltung gegenüber diesen Maschinen durch. Das zeigt sich in der Mythologie (Pandora, Golem von Prag) bis zu den jüngsten Science-Fiction-Erzählungen (etwa Real Humans oder Westworld).

Wo Menschen Maschinenwesen schaffen, geht es um die Erweiterung der eigenen menschlichen Lebensmöglichkeiten, die Steigerung der eigenen Mächtigkeit durch sie und zugleich um die Furcht vor der Überwältigung durch diese mächtig gemachten Maschinen.

In ihrer künstlich hergestellten Ähnlichkeit und zugleich Andersartigkeit liefern die Roboter eine ideale Projektionsfläche für menschliche Phantasien über die eigene »Vervollkommnung und Unverbesserlichkeit« [5].

Wie aber verändern die Präsenz von Robotern in unserer Alltagswelt und die Interaktion mit ihnen unser Selbstverständnis, Selbstverhältnis und den Umgang mit anderen?

Vordergründig betrachtet wird es zu einer Übertragung von Erwartungen kommen: solchen, die wir an Menschen haben und nun auf Roboter projizieren, und solchen, die wir an Roboter haben und auf Menschen projizieren.

Bereits jetzt ist erkennbar, dass die kommunikative Zurückhaltung der Künstlichen Intelligenz gegenüber menschlicher Unachtsamkeit oder sogar Rüpelei weitgehend folgenlos bleibt. Wenn Kinder so etwas im alltäglichen Umgang mit Alexa & Co erlernen , dann hat das Auswirkungen auf den sozialen Umgang zwischen Menschen.

Man möchte sich damit trösten, dass das im Wortsinn Kinderkrankheiten sind, die sich mit sozialem Lernen der Menschen und entsprechender Algorithmen-Verfeinerung bei den Maschinen in den nächsten Jahren auswachsen werden. Ein Blick auf Tendenzen einer sozialen Verrohung im Internet sollten einen jedoch vor zu großem Optimismus bewahren.

Schaut man genauer hin, zeigt sich, dass die Erwartungen an den Menschen sich verschieben. Wenn Maschinen stets unaufgeregt, freundlich und sozial akzeptabel auf ihr Gegenüber reagieren, dann wird das für Menschen in vergleichbaren Situationen vermutlich normativ werden. Dass Maschinenbegriffe und -konzepte (Information, Update, Neustart, das Gehirn als CPU) zur Selbstbeschreibung herangezogen werden, deutet an, dass und wie sehr wir uns zum Teil durch die Maschine sehen und zu verstehen suchen.

Eine weitere Frage betrifft die Erscheinung von Künstlicher Intelligenz: Was bedeutet es, wenn sie nicht mehr zwingend verkörpert auftritt, sondern verbaut ist in Wände, Autos, Smartphones?

Intelligenz als Vermögen, in einer Situation problemorientiert zu agieren, ist bei Menschen immer an Leiblichkeit gebunden, also an die Tatsache, sich in dieser Welt qua Körper und mit allen Sinnen zu orientieren und in und mit diesem Körper auch zu agieren.

Künstliche Intelligenz hingegen ist ubiquitär und kann sich für ihre ›Umsetzung in Handlungen‹ ganz verschiedener Organe bedienen. Die Verbindung von Körper und Geist, die den Menschen ausmacht – und die ihm immer wieder auch Probleme bereitet – ist für Künstliche Intelligenz nicht mehr zwingend.

Für den Umgang zwischen Mensch und Technik ist also hier zu fragen, ob und welchen Unterschied es macht, einer verkörperten Künstlichen Intelligenz zu begegnen, beispielsweise im Roboter, oder mit einer körperlosen Künstlichen Intelligenz zu interagieren.

So oder so dürfte diese Andersartigkeit den Menschen in seinem Selbst- und Weltverhältnis herausfordern. Es ist klar, dass der Einsatz von Robotern und Künstlicher Intelligenz eine andere Bedeutung und Konsequenz hat als der Einsatz einer Brille oder eines Smartphones. Letztere können wir als Erweiterung bzw. Kompensation unserer körperlichen und geistigen Fähigkeiten verstehen und instrumentell einsetzen. Dabei werden sie uns über die Zeit so vertraut und so nahe, dass wir sie irgendwann gar nicht mehr als fremd verstehen.

Für Roboter jedoch, die uns als ein eigenständiges, verkörpertes Wesen gegenübertreten, wird diese Anverwandlung nicht möglich sein. Und auch für eine körperlose Künstliche Intelligenz ist das in dem Maße illusorisch, in dem sie sich über selbstlernende Algorithmen und eine weit vernetzte Datenbasis unserer Kontrolle und Zielsetzung entzieht.

Kritisch wird derzeit diskutiert, dass der Mensch in immer mehr Handlungsfeldern die Vorherrschaft verlieren könnte, weil die Maschinen in ihrer Performanz einfach besser sind und zunehmend die Standards setzen. Der Mensch darf sich zwar als Schöpfer dieser großartigen Maschinen sehen. Der Stolz darauf hält sich allerdings in Grenzen. »Prometheische Scham«, wie Günter Anders das Gefühl genannt hat – von der eigenen Schöpfung überrundet und als zu leicht befunden zu werden. [6]

Wie werden wir Menschen damit umgehen? Mit Aggression, Autoaggression, Regression oder auch Konstruktion? Müssen wir Menschen uns selbst ebenfalls aufrüsten, um mit den immer leistungsfähigeren Maschinen noch mithalten zu können? [7]

Die weitere Entwicklung ist keineswegs ausgemacht – und es wird der gemeinsamen menschlichen Anstrengung bedürfen, hier einen konstruktiven Weg zu finden, der uns weder mit Maschinenstürmerei noch mit Unterwerfung unter die Technik überreagieren lässt.

Gefragt ist wohl vielmehr ein erneuertes Selbstverständnis des Menschen, bei dem wir

a) Korrekturen an einem wohl etwas zu optimistischen Selbstbild hinsichtlich unserer menschlichen Einzigartigkeit, rationalen und moralischen Fähigkeit vornehmen und

b) überlegen, welchen Platz wir den intelligenten Maschinen in dieser Welt neben Tieren, Menschen und Göttern zubilligen wollen – oder auch einräumen müssen.

3. Normative Fragen

Der dritte Fragenkreis bezieht sich auf konkrete Situationen und Handlungen, die wir Menschen moralisch bewerten als beispielsweise »gut«, »schlecht«, »vorzugswürdig« oder »unzuträglich«.

Aufgabe der Ethik ist es, solche moralischen Meinungen auf ihre Begründung und Geltung hin zu befragen und so zu einem geschärften ethischen Urteil zu kommen, das idealiter vor der Allgemeinheit moralischer Subjekte verantwortet werden kann und in seiner Umsetzung ein »gelungenes Leben mit und für die Anderen, in gerechten Institutionen« [8] ermöglicht. Das ist eine erste vage Richtungsangabe.

Normative Fragen lassen sich am Ende nur ganz konkret anhand einer bestimmten Situation bearbeiten. Entsprechend liefert die Ethik hier keine pauschalen Urteile wie: »Roboter sind gut/schlecht«, »Künstliche Intelligenz dient dem guten Leben/ist dem guten Leben abträglich«.

Vielmehr muss es bei der ethischen Reflexion darum gehen, ein konkretes »sozio-technisches Arrangement« [9], also das Zusammenwirken von Menschen und Maschinen in seinen Zusammenhängen mit moralischen Orientierungen (wie Gerechtigkeit, Freiheit, Verantwortung) zu evaluieren und auf den entsprechenden Ebenen (etwa Forschung, Anwendung, politische Regulierung) zu tragfähigen Urteilen einschließlich ihrer Umsetzung zu kommen.

Eminente Fragen der Gerechtigkeit erwachsen uns beispielsweise im Bereich der Arbeit, wo Roboter und Künstliche Intelligenz immer mehr Arbeiten übernehmen können und Menschen aus diesen Tätigkeiten herausdrängen.

Dass Technik menschliche Arbeitskräfte verdrängt, ist kein neues Problem. Allerdings sieht es in diesem Fall so aus, dass auf diesem Wege nicht mehr neue Arbeitsplätze entstehen bzw. solche, die völlig neue und höhere Qualifikationen erfordern (Up-skill-Effekt) oder den Menschen die ›übriggebliebenen‹ niederen Tätigkeiten überlässt (Down-skill-Effekt).

Darüber hinaus kommt die Wertschöpfung aus robotischer Arbeit nur wenigen zugute, so dass hier ein weiteres Gerechtigkeitsproblem auftritt. Die Frage kann dann nicht lauten: Sollen wir Roboter überhaupt entwickeln, sondern: Welche Typen von Robotern wollen wir in welchen Einsatzbereichen entwickeln und wie unterbinden wir so gut wie möglich Formen des Missbrauchs und unerwünschte Folgen? Wie gestalten wir sie so, dass ein gutes Leben für den Einzelnen und das Zusammenleben der Vielen in gerechten Institutionen ermöglicht wird?

Fazit

Am Schluss dieser tour d’horizon soll eine aufschließende Überlegung stehen.

Die Technik – und solche sind Roboter und Künstliche Intelligenz nach wie vor – macht nicht das gute Leben. Wir dürfen von der Technik keine Dinge erwarten, die sie nicht leisten kann. Sie kann ein Mittel sein, wenn wir Menschen uns selbst darüber klar sind, was wir als das gute Leben begreifen wollen.

So lange wir das nicht wissen oder dieser Frage ausweichen, wird uns Technik nicht weiterhelfen, sondern sie wird uns womöglich auf Pfade führen, von denen wir irgendwann sagen müssen: Das war’s nicht. Aber dann sitzen wir auf diesen Pfaden fest und werden von ihnen nur schwer herunterkommen.

Der Informatiker Jürgen Schmidhuber hat jüngst in einem Interview prognostiziert, dass es nur noch wenige Jahre dauern werde, bis die technische Intelligenz die menschliche übertreffen und sich das Gefälle zwischen Mensch und Maschine umkehren werde. Er beruhigte aber auch und meinte, es werde für den Menschen gut ausgehen, weil sich die Maschinen uns gegenüber verhalten würden wie wir uns gegenüber unseren Hauskatzen. [10]

Nach welchem Bilde konstruieren wir die neuen intelligenten Maschinen, wieviel Freiheit schreiben wir ihnen ein? Wie können wir uns darauf vorbereiten, dass sie sich ihre Freiheit nehmen werden – auch wenn das nicht in unserem Interesse ist?

Die hier skizzierten Fragen sollten meines Erachtens nicht auf eine Debatte im Kreis der Experten eingeschränkt werden. Forschung, Entwicklung und Einsatz – und nicht zu vergessen: die Entsorgung – von Robotern betreffen die gesamte Gesellschaft.

Im Wortsinn geben wir der Gesellschaft mit den Entscheidungen, die wir in dieser Sache treffen, ein neues Gesicht. Und es liegt an unser aller Achtsamkeit, Verantwortlichkeit und Gestaltungswillen, dass es keine Fratze, sondern ein menschenfreundliches Antlitz ist.

Literatur

[1] Dittmann, Frank (2016): Mensch und Roboter – ein ungleiches Paar. In: Manzeschke, Arne und Karsch, Fabian (Hrsg.): Roboter, Computer und Hybride. Was ereignet sich Menschen und Maschinen?, Baden Baden: Nomos, S. 17–46

[2] Böhme, Gernot (1997): Ethik im Kontext. Über den Umgang mit ernsten Fragen, Frankfurt am Main: Suhrkamp, S. 17

[3] De Waal, Frans (2015): Der Mensch, der Bonobo und die zehn Gebote, Stuttgart: Klett-Cotta

[4] Meyer-Drawe, Käte (1996): Menschen im Spiegel ihrer Maschinen, München: Wilhelm Fink

[5] Kamper, Dietmar und Wulf, Christoph (1994): Einleitung: Zum Spannungsfeld von Vervollkommnung und Unverbesserlichkeit. In: Dies. (Hrsg.): Anthropologie nach dem Tode des Menschen, Frankfurt/Main: Suhrkamp, S. 7-12

[6] Anders, Günter (1956): Die Antiquiertheit des Menschen. Über die Seele im Zeitalter der zweiten industriellen Revolution, München: C. H. Beck

[7] J. C. R. Licklider (1960): Man-Computer Symbiosis. In: IRE Transactions on Human Factors in Electronics, volume HFE-1, pages 4-11, March 1960

[8] Ricœur, Paul (2005): Ethik und Moral. In: Ders.: Vom Text zur Person. Hermeneutische Aufsätze (1970–1999), Hamburg: Meiner, S. 251–267, S. 252, Hervorhebung im Text.

[9] Manzeschke, Arne; Weber, Karsten; Rother, Elisabeth und Fangerau, Heiner (2013): Ergebnisse der Studie »Ethische Fragen im Bereich Altersgerechter Assistenzsysteme«, Berlin: VDI/VDE

[10] Wiedemann, Carolin (2017): Werden wir ihre Katzen sein? In: Frankfurter Allgemeine Sonntagszeitung vom 26. 11. 2017, S. 55

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Ersatz Original 7.4V Yaesu VX6R,VX7R,VXA700/710,FNB80L FNB80LI,vertex FNB-80LI Akku bei Akkusmir.de

Gute Qualität FNB-80LI Akku 48Wh – Kaufen FNB-80LI akku für Yaesu VX6R,VX7R,VXA700/710,FNB80L FNB80LI,vertex bei akkusmir.de. Ihrem zuverlässigen Lieferant für und weitere Ersatzteile für Ihr Laptop. ustausch YAESU FNB-80LI 7.4V Batterienmit niedrigem Preis und 1 Jahr Garantie.

Technische Daten

  • Passend für Marke: YAESU
  • Kapazität:1650MAH
  • Spannung:7.4V
  • Tyyppi:Li-ion
  • Farbe:

Kompatible Produkte:

Passend für folgende Geräte:

Yaesu VX6R,VX7R,VXA700/710,FNB80L FNB80LI,vertex

Wie pflege und lade ich meinen YAESU FNB-80LI Akku richtig?

Wenn Sie ihr hauptsächlich mit Netzteil betreiben, sollten Sie Ihren YAESU FNB-80LI Akku entfernen und bei Seite legen, dies spart Ladezyklen. Nach spätestens ein-zwei Monaten laden Sie Ihn wieder auf.
Achten Sie darauf, dass Sie den Akku nicht vollständig entladen, da dies zu einer „Tiefenentladung“ führen kann, wodurch sich der YAESU FNB-80LI Akku nicht mehr laden lässt. Bei min. 5-7 % Restkapazität können Sie den YAESU FNB-80LI Akku wieder aufladen.
Laden Sie Ihren YAESU FNB-80LI Akku wenn möglich im ausgeschalteten auf, da die optimale Temperatur für Akkus laut Hersteller zwischen 10 und 30 Grad Celsius liegt. Die Temperatur eines eingeschalteten überschreitet in der Regel die 30 Grad Celsius Marke.
Wenn Sie mehrere YAESU FNB-80LI Akkus besitzen, benutzen Sie diese einfach abwechselnd.
Nach längerer Lagerung bzw. Erstbenutzung benötigt ein Akku etwas 2-3 vollständige Ladevorgänge, bevor er seine volle Kapazität wieder erreicht hat.
Vermeiden Sie hohe Temperaturen wie z.B. durch direkte Sonneneinstrahlung, Lagerung in einem heißen Auto etc. (hohe Temperaturen beschleunigen die Selbstentladung und Alterung Ihres Akkus)
Li-Ionen Akkus haben ca. 500-1000 Ladezyklen. Jeder Bootvorgang oder Ein-/Ausschalten mit angestecktem Netzteil ist ein Ladezyklus (auch wenn der Akku eigentlich nicht geladen werden muss). Aus diesem Grund empfehlen wir unseren Kunden den Yaesu VX6R,VX7R,VXA700/710,FNB80L FNB80LI,vertex Akku (wenn möglich) zu entfernen oder den alten Akku einzulegen, wenn das längere Zeit nur am Netz betrieben wird.

Ersatz Original 3.7V KENWOOD TK-2118 TK-3118 Radio PB-40 Akku bei Akkusmir.de

Gute Qualität PB-40 Akku 48Wh – Kaufen PB-40 akku für KENWOOD TK-2118 TK-3118 Radio bei akkusmir.de. Ihrem zuverlässigen Lieferant für und weitere Ersatzteile für Ihr Laptop. ustausch KENWOOD PB-40 3.7V Batterien mit niedrigem Preis und 1 Jahr Garantie.

Technische Daten

  • Passend für Marke: KENWOOD
  • Kapazität:1100MAH
  • Spannung:3.7V
  • Tyyppi:Li-ion
  • Farbe:

Kompatible Produkte:

Passend für folgende Geräte:

KENWOOD TK-2118 TK-3118 Radio

Wie pflege und lade ich meinen KENWOOD PB-40 Akku richtig?

Wenn Sie ihr hauptsächlich mit Netzteil betreiben, sollten Sie Ihren KENWOOD PB-40 Akku entfernen und bei Seite legen, dies spart Ladezyklen. Nach spätestens ein-zwei Monaten laden Sie Ihn wieder auf.
Achten Sie darauf, dass Sie den Akku nicht vollständig entladen, da dies zu einer „Tiefenentladung“ führen kann, wodurch sich der KENWOOD PB-40 Akku nicht mehr laden lässt. Bei min. 5-7 % Restkapazität können Sie den KENWOOD PB-40 Akkuwieder aufladen.
Laden Sie Ihren KENWOOD PB-40 Akku wenn möglich im ausgeschalteten auf, da die optimale Temperatur für Akkus laut Hersteller zwischen 10 und 30 Grad Celsius liegt. Die Temperatur eines eingeschalteten überschreitet in der Regel die 30 Grad Celsius Marke.
Wenn Sie mehrere KENWOOD PB-40 Akkus besitzen, benutzen Sie diese einfach abwechselnd.
Nach längerer Lagerung bzw. Erstbenutzung benötigt ein Akku etwas 2-3 vollständige Ladevorgänge, bevor er seine volle Kapazität wieder erreicht hat.
Vermeiden Sie hohe Temperaturen wie z.B. durch direkte Sonneneinstrahlung, Lagerung in einem heißen Auto etc. (hohe Temperaturen beschleunigen die Selbstentladung und Alterung Ihres Akkus)
Li-Ionen Akkus haben ca. 500-1000 Ladezyklen. Jeder Bootvorgang oder Ein-/Ausschalten mit angestecktem Netzteil ist ein Ladezyklus (auch wenn der Akku eigentlich nicht geladen werden muss). Aus diesem Grund empfehlen wir unseren Kunden den KENWOOD TK-2118 TK-3118 Radio Akku (wenn möglich) zu entfernen oder den alten Akku einzulegen, wenn das längere Zeit nur am Netz betrieben wird.

Ersatz Original 3.8V/4.35V Lenovo K100 K900 BL207 Akku bei Akkusmir.de

Gute Qualität BL207 Akku 48Wh – Kaufen BL207 akku für Lenovo K100 K900 handys bei akkusmir.de. Ihrem zuverlässigen Lieferant für Smartphone und weitere Ersatzteile für Ihr Laptop. ustausch LENOVO BL207 3.8V/4.35V Smartphone Batterien mit niedrigem Preis und 1 Jahr Garantie.

Technische Daten

  • Passend für Marke: LENOVO
  • Kapazität:2450MAH/9.31Wh
  • Spannung:3.8V/4.35V
  • Tyyppi:Li-ion
  • Farbe:

Kompatible Produkte:

Passend für folgende Geräte:

Lenovo K100 K900

Wie pflege und lade ich meinen LENOVO BL207 Akku richtig?

Wenn Sie ihr Smartphone hauptsächlich mit Netzteil betreiben, sollten Sie Ihren LENOVO BL207 Akku entfernen und bei Seite legen, dies spart Ladezyklen. Nach spätestens ein-zwei Monaten laden Sie Ihn wieder auf.
Achten Sie darauf, dass Sie den Akku nicht vollständig entladen, da dies zu einer „Tiefenentladung“ führen kann, wodurch sich der LENOVO BL207 Akku nicht mehr laden lässt. Bei min. 5-7 % Restkapazität können Sie den LENOVO BL207 Akku wieder aufladen.
Laden Sie Ihren LENOVO BL207 Akku wenn möglich im ausgeschalteten Smartphone auf, da die optimale Temperatur für Akkus laut Hersteller zwischen 10 und 30 Grad Celsius liegt. Die Temperatur eines eingeschalteten überschreitet in der Regel die 30 Grad Celsius Marke.
Wenn Sie mehrere LENOVO BL207 Akkus besitzen, benutzen Sie diese einfach abwechselnd.
Nach längerer Lagerung bzw. Erstbenutzung benötigt ein Akku etwas 2-3 vollständige Ladevorgänge, bevor er seine volle Kapazität wieder erreicht hat.
Vermeiden Sie hohe Temperaturen wie z.B. durch direkte Sonneneinstrahlung, Lagerung in einem heißen Auto etc. (hohe Temperaturen beschleunigen die Selbstentladung und Alterung Ihres Akkus)
Li-Ionen Akkus haben ca. 500-1000 Ladezyklen. Jeder Bootvorgang oder Ein-/Ausschalten mit angestecktem Netzteil ist ein Ladezyklus (auch wenn der Akku eigentlich nicht geladen werden muss). Aus diesem Grund empfehlen wir unseren Kunden den Lenovo K100 K900 Akku (wenn möglich) zu entfernen oder den alten Akku einzulegen, wenn das Smartphone längere Zeit nur am Netz betrieben wird.

PC-Absturz: Gründe und Schutzmaßnahmen

Ein plötzlicher PC-Absturz ist der Super-Gau. Wir nennen typische Gründe dafür, weswegen der Rechenknecht streiken kann. Und geben Tipps als Schutzmaßnahmen gegen Abstürze.

Zunächst ist es nur ein kleines Stottern. Als nächstes stürzen Programme ab und merkwürdige Geräusche dringen aus Ihrem Arbeits-PC. Es folgt der obligatorische Bluescreen: Ihr PC ist gecrasht und Sie sitzen bloß da, warten einen Neustart ab und hoffen, dass all das keine ernsthaften Schäden hinterlassen hat. Zumal auf Ihrem Arbeits-PC alle Dateien liegen, die Sie für Ihr aktuelles Projekt dringend  benötigen. Und der Kunde wartet…

Für solche Horror-Szenarien gibt es viele mögliche Ursachen. Umso wichtiger ist es zu wissen, wie und warum ein PC zusammenbricht, um Abstürze in Zukunft zu vermeiden. Denn eines sollten Sie sich immer vor Augen halten: Der nächste Crash Ihres PCs könnte auch sein letzter sein.

Exklusiv: PC-Welt-Rettungs-DVD hilft bei jedem Windows-Notfall

Hardware-Konflikte

Die meisten Bluescreens sind das Resultat von Hardware- und Installations-Konflikten. Alle Ihre System-Komponenten brauchen IRQs (Interrupt Request Channels) wenn sie installiert werden und jede Komponente benötigt ihren eigenen Kanal, um richtig zu funktionieren. Wenn sich zwei Komponenten den gleichen Kanal teilen und gleichzeitig benutzt werden, kann es zu einem Absturz kommen.

Werfen Sie einen Blick in Ihren Geräte-Manager (bei Windows 7 finden Sie diesen unter „Systemsteuerung, Hardware und Sound“) und suchen Sie nach Geräten, die mit einem gelben Ausrufezeichen markiert sind. Hier liegen die Probleme, die sich oft allein mit einem Treiber-Update beheben lassen. Suchen Sie einfach auf der Webseite des Geräteherstellers nach den neuesten Treibern oder installieren Sie notfalls die betroffene Hardware neu.

RAM-Fehler

Fehler beim Arbeitsspeicher können ebenfalls die Ursache zahlreicher Bluescreens und Boot-Fehler sein. Zum Glück gehören Ihre RAM-Module zu den am einfachsten zu überprüfenden und auch auszutauschenden Komponenten.

Bemühen Sie zunächst die kostenlose Software Memtest86+ um sicherzugehen, dass der Problemherd tatsächlich Ihr RAM ist. Wenn Fehler entdeckt werden, müssen Sie als nächstes herausfinden, welcher Ihrer RAM-Riegel betroffen ist. Entfernen Sie dazu alle Riegel aus Ihrem System bis auf einen, den Sie in den primären Speicherslot stecken. Wenn das System nun ordnungsgemäß bootet und Memtest86+ keine Fehler entdeckt, fahren Sie nach dem gleichen Schema mit den verbleibenden RAM-Riegeln fort. Dabei immer nur einen Riegel gleichzeitig in den RAM-Slot stecken und booten, bis das System entweder Boot-Fehler produziert, oder Memtest86+ ein Problem entdeckt.

Wenn Sie herausgefunden haben, welches Modul die Probleme verursacht, können Sie es einfach durch einen neuen Riegel ersetzen. Achten Sie aber darauf, dass er kompatibel zu Ihrem Motherboard und den anderen RAM-Modulen ist.

Ihr Feind: Die Hitze

Computer erhitzen sich. Das wissen wir spätestens, wenn der Lüfter im Desktop-PC mal wieder besonders laut rotiert, oder sich unsere Beine nach ein paar Stunden unter dem Laptop wie frisch gegrillt anfühlen. Alles im Innern eines PCs erzeugt Abwärme. Und Hitze kann dazu führen, dass Komponenten instabil werden und Ihren PC zum Absturz bringen. Zum Glück, muss man fast sagen; denn PCs sind so gebaut, dass sie sich bei zu großer Hitzeentwicklung automatisch abschalten, um bleibende Hitzeschäden an Komponenten zu vermeiden.

Wenn Sie das Gefühl haben, Ihr PC leitet die Wärme nicht ausreichend ab, überprüfen Sie zuerst alle verbauten Ventilatoren auf ihre Funktionstüchtigkeit. Wenn sich einer gar nicht oder zu langsam bewegt, sehen Sie nach, ob alle Kabelverbindungen richtig sitzen. Wenn die Kabel richtig angeschlossen sind und sich der Lüfter trotzdem nicht bewegt, ist es besser, ihn auszutauschen. Als nächstes stellen Sie sicher, dass alle Lüftungsschlitze, Gitter und Filter in Ihrem PC frei von Staub, Tierhaaren und anderen Materialien sind und die Luft so ausreichend zirkulieren kann. Diese Stellen sind wahre Brutstätten für Hitzebildung. Wenn Sie stark verstaubte oder anderweitig blockierte Komponenten entdecken, reinigen Sie sie mit einem speziellen Luftdruckspray.

Wenn Sie einen Laptop besitzen, achten Sie darauf, dass dieser beim Arbeiten stets auf einem harten, flachen Untergrund steht, der die Lüftungsschlitze nicht verschließt oder behindert. Sie können die Temperatur Ihres Systems mit kostenlosen Tools, etwa dem PC Wizard , überwachen. Zusätzlich zu ein paar anderen nützlichen Infos zeigt es Ihnen die Echtzeit-Temperatur aller Ihrer Komponenten an. Wenn in puncto Luftzirkulation alles tiptop ausschaut und Ihr PC sich trotzdem überhitzt, werfen Sie einen Blick in Ihre BIOS-Einstellungen. Wenn Sie während einer Übertaktungs-Eskapade an den Volt-Einstellungen herumgespielt haben, setzen Sie diese wieder auf ihre Ursprungswerte zurück. Je mehr Volt einer Komponente zugefügt, desto heißer wird sie.

Vielleicht haben Sie auch kürzlich eine neue CPU eingebaut? Dann könnte die Ursache für die Abstürze darin liegen, dass Sie die Wärmeleitpaste falsch aufgetragen haben. Entfernen Sie das Wärmeleitblech also wieder, reinigen Sie die Oberflächen mit einem Wattebausch und Isopropyl-Alkohol und versuchen Sie es erneut. Für das Auftragen von Wärmeleitpaste gibt es verschiedene Theorien, das Ziel ist jedoch stets das gleiche: Die Wärmeleitpaste legt sich zwischen die mikroskopisch kleinen Hügel und Täler auf der Oberfläche der CPU und der Wärmeleitplatte, um den bestmöglichen Kontakt zwischen beiden Komponenten herzustellen. Die Paste wirkt nicht, wenn zu wenig davon aufgetragen wurde und ebenso bleibt sie wirkungslos, wenn zu viel benutzt wurde. Arbeiten Sie also am besten nach der „Erbsen-Methode“: Setzen Sie einen kleinen, erbsengroßen Tropfen der Paste in die Mitte der CPU und setzen Sie dann das Wärmeleitblech direkt darauf. Der natürliche Druck verteilt die Paste gleichmäßig.

Fehlerquellen Netzteil und Festplatte

Es ist zwar immer befriedigend, wenn man einen alten PC mit neuen, leistungsstärkeren Komponenten aufrüsten kann. Und auch das (leichte) Übertakten der CPU führt oft zu erstaunlichen Performance-Ergebnissen. Doch Sie sollten nur so weit upgraden, wie die Leistung Ihres Netzteils hierfür ausreicht. Ansonsten kann Ihr PC instabil werden und unerwünschte Neustarts provozieren.

Es ist nicht einfach herauszufinden, welche Komponenten am meisten Strom verbrauchen. Die Webseite des jeweiligen Geräteherstellers kann aber Aufschluss geben. So können Sie zumindest in etwa den gesamten Stromverbrauch Ihres PCs errechnen und mit der Leistung Ihres Netzteils vergleichen. Wenn sich herausstellt, dass Ihr Netzteil die Summe der Strom verbrauchenden Komponenten nicht stemmen kann, müssen Sie eine Entscheidung treffen. Wenn Sie Ihre CPU übertaktet haben, können Sie den Prozessor wieder in seinen Ursprungszustand versetzen, um Strom einzusparen. Alternativ ersetzen Sie einige besonders stromhungrige Teile durch sparsamere Komponenten. Oder Sie bauen ein leistungsstärkeres Netzteil ein. Ein 500- bis 650-Watt-Netzteil reicht in aller Regel für einen PC mit durchschnittlicher Leistung aus.

Fragmentierte Festplatten

Jedes Mal, wenn Sie eine Datei speichern, ein Programm installieren oder etwas löschen, wird Ihre Festplatte ein klein wenig fragmentierter – und dadurch instabiler. Das verlangsamt sie nicht nur, es kann Ihrem Betriebssystem auch Probleme bereiten, wenn es darum geht, systemrelevante Dateien für den Betrieb zu finden. Nicht selten wird Ihr System dabei aufgeben und es nochmal versuchen wollen – mit einem Absturz.

Ungefähr wöchentlich sollten Sie deshalb Ihre Festplatten (HDD) defragmentieren. Der Prozess dauert je nach Festplattengröße und Dateienmenge allerdings unangenehm lang und ist ausgesprochen hinderlich, wenn Sie nebenbei gerade am PC arbeiten müssen (während des Defragmentierens können Sie keine Dateien abspeichern). Starten Sie den Vorgang also lieber, wenn Sie Ihre Arbeit beendet haben – zum Beispiel nach Büroschluss.

Wichtig: Das Defragmentieren ist bei Solid State Drives (SSDs) nicht notwendig. SSDs speichern alle Daten bereits in einer fortlaufenden Reihenfolge (statt zufälliger Reihenfolge) und sind anfällig für Schäden, wenn sie trotzdem defragmentiert werden.

Unordentliche Registry

Die Registry Ihres PCs ist eine weitläufige Bibliothek von Systemeinstellungen. Die manchmal auch zu Bluescreens und anderen Fehlern führen können. Denn selbst wenn Sie ein Programm deinstallieren, können Registry-Einstellungen zurückbleiben. Diese Einstellungen sind im alltäglichen PC-Gebrauch nutzlos, können aber Systemfehler und Konflikte beinhalten. Denn Ihr PC wird die fehlerbehafteten Registry-Einträge wieder und wieder scannen – und verlangsamt so andere Prozesse. Zu viel davon und Ihre System-Stabilität geht endgültig den Bach runter.

Ein guter Registry-Cleaner – etwa Free Wise – ist das perfekte Tool, um den ganzen Abfall loszuwerden. Free Wise scannt Ihre Registry, findet die Probleme und beseitigt sie – und Ihre Registry ist wieder sauber.

Der gefürchtete Virus

Ja, auch Malware ist ein wichtiger Verursacher von Bluescreens. Zum Glück ist die Lösung simpel: Starten Sie das Antivirus-Programm Ihres Vertrauens, stellen Sie sicher, dass es auf dem aktuellsten Stand ist und scannen Sie Ihr System mit dem gründlichsten Scan, den das Programm zu bieten hat.

Wenn der Virus Sie daran hindert, Ihre Antiviren-Software zu starten, starten Sie Ihren Rechner im abgesicherten Modus neu, indem Sie beim Bootprozess F8 drücken, bevor das Windows-Logo auftaucht. Der abgesicherte Modus hindert alle irrelevanten Programme und Treiber daran, zu starten – nur das Kernsystem wird geladen. Im abgesicherten Modus sollten Sie in der Lage sein, Ihr Antiviren-Programm zu starten und den Scan durchzuführen.

22 Antivirus-Programme unter Windows 7 im Test

Hinweise sammeln, Probleme beheben

Jede Information, die Sie aus einem Bluescreen ziehen können, hilft Ihnen dabei, die Lösung für Ihr spezielles Problem zu finden. Wenn Sie also ein Bluescreen plagt, schreiben Sie sich so viel davon auf, wie Sie können und suchen Sie dann online nach Informationen zu den einzelnen Fehlermeldungen. Diagnostizieren Sie das Problem und lösen Sie es – denn das Problem einfach nur zu ignorieren, wird es auf lange Sicht verschlimmern.

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie