Ethik und Künstliche Intelligenz: Die Zeit drängt – wir müssen handeln

Künstliche Intelligenzen und Roboter werden in unserem Leben immer selbstverständlicher. Was erwarten wir von den intelligenten Maschinen, wie verändert ihre Präsenz in unserem Alltag und die Interaktion mit ihnen unser Selbstverständnis und unseren Umgang mit anderen Menschen? Müssen wir Roboter als eine Art menschliches Gegenüber anerkennen? Und welche Freiheiten wollen wir den Maschinen einräumen? Es ist dringend an der Zeit, die ethischen und rechtlichen Fragen zu klären.

»Die Menschheit steht an der Schwelle zu einer Ära, in der immer raffiniertere Roboter, Bots, Androiden und andere Formen Künstlicher Intelligenz bereitstehen, um eine neue industrielle Revolution zu entfesseln, die keinen Stein unserer Gesellschaft auf dem anderen lassen wird. Die Entwicklung von Robotik und Künstlicher Intelligenz wirft rechtliche und ethische Fragen auf, die eine unmittelbare Intervention auf der Ebene der Europäischen Union erfordern«.

Das Europäische Parlament hat es im vergangenen Jahr ganz drastisch formuliert. Eine neue industrielle Revolution steht an, welche die bestehenden Verhältnisse umpflügen wird.

Wer die Nachrichten aufmerksam verfolgt, erfährt täglich von neuen faszinierenden Leistungen, erbracht von intelligenten Maschinen, die nicht nur unsere Art zu arbeiten verändern werden, sondern unsere gesamte Lebensweise und Lebensmöglichkeiten zu revolutionieren versprechen.

Die gesamte Entwicklung weist eine hohe Dynamik auf, die es schwer macht, im Vor- und Nach-Denken über die Implikationen und Folgen dieses Technologieschubs den Überblick zu behalten und zu angemessenen, zeitgemäßen Urteilen zu kommen.

Für rechtliche und ethische Regularien ist es noch schwieriger. Bis ein Gesetz alle Hürden genommen hat und in Kraft getreten ist, hat sich die Technik unter Umständen schon wieder grundlegend verändert. Und so schleichen sich neben die Verheißungen unüberhörbar auch Stimmen ein, die warnen und uns zum Nachdenken, Umsteuern und Handeln aufrufen.

Die Robotik in Verbindung mit Künstlicher Intelligenz wird nicht nur unsere Arbeitswelt verändern – was sich bereits jetzt beobachten lässt. Sie betrifft nicht allein den Bereich klassischer Industriearbeit, wo zumeist schwere und repetitive Arbeiten ausgeführt werden.

Die neuen Robotergenerationen stehen sowohl in der Industrie wie auch im Service zur Verfügung. Sie kommen – ausgerüstet mit Künstlicher Intelligenz – dem Menschen immer näher und ›erlernen‹ nun zunehmend Tätigkeiten, die dem Zwischenmenschlichen, dem Privaten, wenn nicht sogar Intimen zugeordnet werden.

Es ist nicht zuletzt diese Nähe, Beziehung und Abhängigkeit, die zwischen Mensch und Maschinen entsteht, die aufmerksame Beobachter nach öffentlichen Debatten und entsprechenden Regulierungen rufen lassen.

Dieser Beitrag gibt einen kurzen Überblick über den Stand der ethischen Fragen, die sich mit diesen Entwicklungen verbinden.

Roboter ist nicht gleich Roboter

Das Wort »Roboter« hat seinen Ursprung im Slawischen, wo rab Sklave bedeutet. Rabotaist im Russischen die Arbeit und rabotnik der Arbeiter. 1921 brachte Karel Čapek sein Theaterstück Rossum’s Universal Robots auf die Bühne, in der – allerdings auf biologischem Wege – künstlich hergestellte Menschen als billige Arbeitskräfte dienten.

Damit war der Begriff des Roboters in der Welt. Die Maschinen, die zunehmend menschliche Arbeit übernahmen, folgten erst mit einiger Verzögerung. 1954 wurdeUnimate, der erste Industrieroboter , von George Devol entwickelt [1]. Insbesondere in den 1970er Jahren haben viele produzierende Gewerbe eine Roboterisierung ihrer Arbeit erfahren (beispielsweise die Automobil- und Druckindustrie).

Mittlerweile sind diese Industrieroboter aus den Käfigen ihrer Fertigungsstraßen entlassen worden und arbeiten ›Hand in Hand‹ mit Menschen in der Produktion zusammen. Angesichts ihrer physischen Mächtigkeit müssen sie nun ›vorsichtiger‹ konzipiert werden und das menschliche Gegenüber in seinen Gesten, Bewegungen und idealerweise auch Intentionen erkennen, um so die Kooperation ungefährlich für den Menschen zu gestalten und eine höhere Produktivität und Wertschöpfung zu erreichen.

Neben den Industrierobotern, die vor allem der Produktion wirtschaftlicher Güter dienen, haben sich mit fortschreitender Technik auch Serviceroboter etabliert, die Arbeiten ausführen, die für Menschen zu schwer, belastend oder gefährlich sind; etwa Melkmaschinen oder Maschinen zur Entfernung von giftigen oder verstrahlten Objekten.

In der nächsten Entwicklungsstufe kommen nun solche Roboter hinzu, die Dienstleistungen mit und am Menschen erbringen sollen: Haushalts- und Pflegeroboter , Operations- oder auch Sexroboter, die die Leistungen von Menschen unterstützen, verbessern oder kompensieren oder auch völlig neue Möglichkeiten schaffen.

Solche ›technischen Helfer‹ dienen nicht nur Menschen mit einem rechtlich anerkannten Unterstützungsbedarf, sondern stellen ein Angebot an alle auf einem Markt dar. Besondere ethische Aufmerksamkeit erhalten gegenwärtig solche technischen Systeme, die die im Abbau begriffenen oder ganz verlorengegangenen menschlichen Fähigkeiten (Orientierung, Mobilität, Kommunikation) kompensieren oder ersetzen sollen, etwa intelligente Tagesbegleiter (Avatare) oder soziale Roboter.

In allen Fällen müssen die Schnittstellen zwischen Menschen und Maschinen sehr viel flexibler und die Roboter auf eine komplexe, nicht vollständig berechenbare Interaktion ausgelegt werden.

Im Bereich der Industrierobotik können die Aktionen des Roboters relativ klar programmiert und die Umgebung so gestaltet werden, dass Menschen oder andere Güter nicht gefährdet werden.

Bei Servicerobotern im nicht-sozialen Bereich werden eine zielgerichtete Ausführung der Arbeiten und der Ausschluss von Gefährdungen weitgehend durch eine (Fern-)Steuerung des Roboters durch den Menschen gewährleistet.

Bei Servicerobotern allerdings, die (teil-)autonom mit Menschen zum Beispiel in deren Häuslichkeit interagieren sollen, ist eine jede Aktion eindeutig festlegende Programmierung der Roboter ebensowenig möglich wie eine Fernsteuerung. Die Programme und robotischen Aktionen müssen flexibel und ›semantisch‹ ausgelegt werden, d. h. sie müssen sich auf die menschlichen Handlungen (Sprache, Gestik, Mimik) in den jeweiligen Kontexten interpretierend beziehen und kontextspezifische Interaktionen ermöglichen. Um die direkte Mensch-Roboter-Interaktion möglichst sicher und effektiv zu gestalten, müssen die Roboter vom Menschen als Interaktionspartner akzeptiert werden.

Das bedeutet, dass sie vom Menschen als etwas anderes angesehen werden als die technischen Geräte oder Maschinen, die sie bisher instrumentell eingesetzt haben. Im instrumentellen Umgang mit Werkzeugen und Maschinen hatte der Mensch die Handlungshoheit hinsichtlich der Handlungsziele und weitgehend auch der Wege, um diese Ziele zu erreichen.

In dem Maße aber, in dem Roboter zu Handlungspartnern werden mit einem eigenen Anteil an ›Entscheidungen‹ und ›Handlungen‹, in dem Maße muss sich der Mensch auf ein Gegenüber einstellen und ein zunehmendes Maß von Eigenständigkeit dieses Gegenübers akzeptieren.

Es stellt sich die Frage, ob wir Menschen diese Roboter als soziales Gegenüber anerkennen müssen, und was das für unser soziales Miteinander insgesamt bedeutet. Das ist eine ähnliche Frage, wie wir sie menschheitsgeschichtlich bereits für den Umgang mit Tieren – auf eine bisher nicht immer befriedigende Weise – beantworten mussten.

In Bezug auf die Maschinen steht nun aber weniger deren Leidens- und Beziehungsfähigkeit zur Debatte als vielmehr deren ›Rationalität‹ und (simulierte) ›Emotionalität‹. Hier scheint eine Ähnlichkeit vorzuliegen, die Fragen nach Anerkennung von und Umgang mit diesen Maschinen aufwirft.

Das mag auf den ersten Blick weit hergeholt erscheinen, wenn man sich die technische Definition eines Industrieroboters in der ISO 8373 (2012) vergegenwärtigt: »Ein Roboter ist ein frei und wieder programmierbarer, multifunktionaler Manipulator mit mindestens drei unabhängigen Achsen, um Materialien, Teile, Werkzeuge oder spezielle Geräte auf programmierten, variablen Bahnen zu bewegen zur Erfüllung der verschiedensten Aufgaben«.

Warum sollten wir diese Manipulatoren, die zunächst einmal nichts anderes sind als eine Ansammlung aus anorganischer Materie, Elektronik und Software, als soziales Gegenüber anerkennen, ihnen gar so etwas wie Rechte zubilligen oder uns ihnen moralisch verpflichtet fühlen?

Ein zweiter Blick und weitere Überlegungen führen uns zu dem, was einen sozialen Roboter auszeichnet: »Eine physische Entität, die in einem komplexen, dynamischen und sozialen Umfeld ausreichend befähigt ist, um sich auf eine Weise zu verhalten, die förderlich ist für die eigenen Ziele und die der Gemeinschaft«. Das ist ein Definitionsversuch , der schon sehr viel näher an das heranführt, was wir bei Menschen ›soziales Verhalten‹ nennen. Das sind nicht mehr nur komplexe Manipulatoren, sondern Wesen, die ein gewisses Eigeninteresse und einen Bezug auf die Gemeinschaft haben und damit zunehmend auch als ›eigenmächtige‹ Gegenüber auftreten.

Folgt man dieser Spur noch einige Schritte weiter, dann stößt man auf die Tatsache, dass robotische Funktionen von uns Menschen wie Handlungen interpretiert werden, was ein Grundbegriff ethischer Theorien ist und uns nötigt, die Roboter und die Künstliche Intelligenz, die mit ihnen ›auftritt‹, unter ethischer Perspektive genauer zu bedenken.

Und so ist die Forderung des EU-Parlaments auch verständlich, dass wir uns Gedanken machen sollten, welche Erwartungen wir an solche Roboter und Künstliche Intelligenzen heften, welche Entwicklungen wir vermeiden wollen und welche Konstruktionen und Regulierungen daraus erwachsen müssen.

Ethisch gesprochen sind damit die beiden Richtungen aufgerufen, in denen wir uns orientieren und – mit guten Gründen – entscheiden müssen: »wer wir sind und was für Menschen wir sind« und »in welcher Gesellschaft wir leben«. [2]

Ethische Überlegungen zu Robotik und Künstlicher Intelligenz

Versucht man sich einen Überblick über die verschiedenen ethischen Probleme zu verschaffen, die mit dem Aufkommen von ›intelligenten‹ und in jeder Hinsicht (Präzision, Geschwindigkeit, Kraft, Kombinatorik und Vernetzung) immer mächtigeren Robotern verbunden sind, so ist es hilfreich, diese Probleme danach zu unterscheiden, ob sie

1. das Vorfeld der Ethik,

2. das bisherige Selbstverständnis menschlicher Subjekte (Anthropologie) oder

3. normative Fragen im Sinne von: »Was sollen wir tun?« betreffen.

Die folgenden Überlegungen geben einen kurzen Aufriss, mit welchen Fragen wir uns jeweils beschäftigen sollten, wie die verschiedenen Fragenkreise zusammenhängen, und woran wir uns in unseren Antworten orientieren können.

1. Fragen im Vorfeld der Ethik

Betrachtet man die gegenwärtigen Entwicklungen mit ein wenig Abstand, so ist es augenfällig, dass Roboter wie eine langersehnte Antwort auf viele und sehr verschiedene Herausforderungen erscheinen. Ob es um präzisere Operationsmethoden in der Chirurgie, eine bessere Diagnostik in Kliniken und Arztpraxen, die Unterstützung von hilfebedürftigen Menschen , verbesserte Produktion und Logistik, die Erforschung fremder Planeten oder die Befriedigung sexueller Bedürfnisse geht: In allen Bereichen werden Roboter als Lösung entwickelt und angeboten.

Betrachtet man die ökonomischen Erwartungen, die sich mit der Robotik verbinden, und die Programme der Forschungsförderung, so lassen sich für die nächsten Jahrzehnte kräftige Zuwachsraten errechnen.

Zugleich ist jedoch zu fragen, ob mit der starken Fixierung auf robotische Lösungen andere Optionen unter Umständen vernachlässigt und am Ende sogar abgeschnitten werden.

Die Situation in der Pflege mag das illustrieren: Gegenwärtig ist die Rede von einem großen Fachkräftemangel von mehreren zehntausend Menschen. Da diese im Moment realistischerweise nicht zu finden sind, komme man gar nicht umhin, so wird argumentiert, robotische Lösungen mit ins Spiel zu bringen, um die großen gesellschaftlichen Herausforderungen zu bewältigen, die sich in der Pflege aufgrund des demographischen Wandels in den nächsten Jahrzehnten noch verschärfen werden. Dementsprechend wird in vielen Projekten an robotischen Grundfertigkeiten geforscht, die es ermöglichen sollen, dass Roboter in einigen Jahren Tätigkeiten wie Waschen, Umlagern, Essen anreichen oder anderes übernehmen.

Das könnte die Personalsituation tatsächlich entspannen, zugleich aber dazu beitragen, dass immer weniger Menschen sich für diesen Beruf noch interessieren bzw. dafür überhaupt angeworben werden.

Eine Frage in diesem Zusammenhang lautet: Wie steuern wir diese Entwicklung so, dass sie uns mehrere Handlungsoptionen eröffnet anstatt uns vorzeitig welche zu verschließen?

2. Anthropologische Fragen

Eine Frage betrifft die Veränderungen, die sich für uns Menschen dort ergeben, wo wir über uns selbst und unsere Stellung in der Welt nachdenken. Der Mensch galt lange als das einzige Wesen, das Freiheit in Bezug auf seinen Willen, seine Entscheidungen und seine Handlungen hat und deshalb überhaupt moralisch ansprechbar ist. Erst aus der Freiheit für das eine und gegen das andere erwachse dem Menschen die Forderung, moralisch zu denken, zu entscheiden und zu handeln. Das betrifft nicht alle Entscheidungen und Handlungen, sondern solche, die es mit dem moralisch Guten zu tun haben. Nur der Mensch könne sich in solchen Fragen aufgrund seiner Rationalität für das Gute und Gerechte entscheiden.

Diese sehr vereinfacht dargestellte Annahme, die sich bereits hinsichtlich Tieren als diskutabel erweist [3], wird nun durch die Leistungen der Roboter und der Künstlichen Intelligenz erneut und hinsichtlich bestimmter Formen von ›Rationalität‹ in Frage gestellt. Es scheint so, dass es offenbar auch diese Wesen gibt bzw. in naher Zukunft geben wird, die solche ›Freiheiten‹ besitzen und qua ›Künstlicher Intelligenz‹ wohlberechnet einsetzen (beispielsweise autonomes Fahren ).

Zum anderen scheinen bestimmte Formen von Moralität und Rationalität von Maschinen sogar besser erfüllt zu werden als vom Menschen. Maschinen mit Künstlicher Intelligenz können schneller, präziser und unbestechlicher bestimmte Aufgaben ›entscheiden‹.

Auch dies soll an einem Beispiel erläutert werden: Im Rahmen von Behandlungsentscheidungen in Kliniken werden zunehmend Expertensysteme eingesetzt, die die Entscheidungen des behandelnden Teams vorstrukturieren, wenn nicht vorentscheiden. Solche Expertensysteme bestehen aus Rechnern, die mit speziellen Algorithmen weltweit die relevanten Datenbanken nach einem ähnlichen Befund, verschiedenen Behandlungsweisen und -erfolgen durchsuchen und daraus ›Behandlungsempfehlungen‹ ableiten. Nachdem im Krankenhaus Regress-Forderungen aufgrund von Fehlbehandlungen ausgeschlossen werden sollen, ist es naheliegend, den ›Empfehlungen‹ des technischen Systems zu folgen. Die Legitimation einer Entscheidung durch Daten erscheint als die fundiertere.

Man mag mit Fug und Recht einwenden, dass Menschen sich auch in anderen Handlungsfeldern (etwa der Autopilot im Flugzeug) auf die maschinellen Berechnungen und ›Entscheidungen‹ verlassen – und das durchaus mit Erfolg. Hinsichtlich bestimmter Entscheidungskalküle werden wir Menschen von ›unseren‹ Maschinen zunehmend übertroffen – und es kann durchaus ethisch geboten sein, diesen ›Berechnungen‹ zu folgen.

In diesen Feldern geraten wir in eine Abhängigkeit von ihnen, die uns unter Umständen unsicherer und entscheidungsschwächer machen wird. Es kommt hinzu, dass Menschen mit der Delegation von Tätigkeiten an Roboter auch bestimmte kognitive oder manuelle Fertigkeiten verlieren werden. Unter Umständen wird man das mit dem Abstand einiger Jahrzehnte oder Jahrhunderte nostalgisch betrachten. Es könnte aber auch sein, dass wir Menschen uns auf diese Weise um Fertigkeiten bringen, die uns eines Tages auf fundamentale Weise fehlen werden.

Deshalb sollten solche Fragen gründlich bedacht werden, bevor Entscheidungen uns an einen Punkt bringen, den wir als Gattung bedauern müssten.

Überlegungen führen zu einer zweiten Kategorie von Problemen, die sich auf uns Menschen in unserem Selbstverständnis, Selbstverhältnis und unserem Verhältnis zu anderen beziehen.

Technische Geräte, insbesondere Automaten (man denke an den Schachspielenden Türken und die mechanischen Tiere von Vaucanson ) und Roboter haben in der Kultur- und Technikgeschichte der Menschheit immer auch als Spiegel und Medium der Selbstverständigung gedient, was der Mensch sei im Vergleich und im Unterschied zu diesen Maschinen. [4]

Dabei zieht sich eine grundlegend ambivalente Haltung gegenüber diesen Maschinen durch. Das zeigt sich in der Mythologie (Pandora, Golem von Prag) bis zu den jüngsten Science-Fiction-Erzählungen (etwa Real Humans oder Westworld).

Wo Menschen Maschinenwesen schaffen, geht es um die Erweiterung der eigenen menschlichen Lebensmöglichkeiten, die Steigerung der eigenen Mächtigkeit durch sie und zugleich um die Furcht vor der Überwältigung durch diese mächtig gemachten Maschinen.

In ihrer künstlich hergestellten Ähnlichkeit und zugleich Andersartigkeit liefern die Roboter eine ideale Projektionsfläche für menschliche Phantasien über die eigene »Vervollkommnung und Unverbesserlichkeit« [5].

Wie aber verändern die Präsenz von Robotern in unserer Alltagswelt und die Interaktion mit ihnen unser Selbstverständnis, Selbstverhältnis und den Umgang mit anderen?

Vordergründig betrachtet wird es zu einer Übertragung von Erwartungen kommen: solchen, die wir an Menschen haben und nun auf Roboter projizieren, und solchen, die wir an Roboter haben und auf Menschen projizieren.

Bereits jetzt ist erkennbar, dass die kommunikative Zurückhaltung der Künstlichen Intelligenz gegenüber menschlicher Unachtsamkeit oder sogar Rüpelei weitgehend folgenlos bleibt. Wenn Kinder so etwas im alltäglichen Umgang mit Alexa & Co erlernen , dann hat das Auswirkungen auf den sozialen Umgang zwischen Menschen.

Man möchte sich damit trösten, dass das im Wortsinn Kinderkrankheiten sind, die sich mit sozialem Lernen der Menschen und entsprechender Algorithmen-Verfeinerung bei den Maschinen in den nächsten Jahren auswachsen werden. Ein Blick auf Tendenzen einer sozialen Verrohung im Internet sollten einen jedoch vor zu großem Optimismus bewahren.

Schaut man genauer hin, zeigt sich, dass die Erwartungen an den Menschen sich verschieben. Wenn Maschinen stets unaufgeregt, freundlich und sozial akzeptabel auf ihr Gegenüber reagieren, dann wird das für Menschen in vergleichbaren Situationen vermutlich normativ werden. Dass Maschinenbegriffe und -konzepte (Information, Update, Neustart, das Gehirn als CPU) zur Selbstbeschreibung herangezogen werden, deutet an, dass und wie sehr wir uns zum Teil durch die Maschine sehen und zu verstehen suchen.

Eine weitere Frage betrifft die Erscheinung von Künstlicher Intelligenz: Was bedeutet es, wenn sie nicht mehr zwingend verkörpert auftritt, sondern verbaut ist in Wände, Autos, Smartphones?

Intelligenz als Vermögen, in einer Situation problemorientiert zu agieren, ist bei Menschen immer an Leiblichkeit gebunden, also an die Tatsache, sich in dieser Welt qua Körper und mit allen Sinnen zu orientieren und in und mit diesem Körper auch zu agieren.

Künstliche Intelligenz hingegen ist ubiquitär und kann sich für ihre ›Umsetzung in Handlungen‹ ganz verschiedener Organe bedienen. Die Verbindung von Körper und Geist, die den Menschen ausmacht – und die ihm immer wieder auch Probleme bereitet – ist für Künstliche Intelligenz nicht mehr zwingend.

Für den Umgang zwischen Mensch und Technik ist also hier zu fragen, ob und welchen Unterschied es macht, einer verkörperten Künstlichen Intelligenz zu begegnen, beispielsweise im Roboter, oder mit einer körperlosen Künstlichen Intelligenz zu interagieren.

So oder so dürfte diese Andersartigkeit den Menschen in seinem Selbst- und Weltverhältnis herausfordern. Es ist klar, dass der Einsatz von Robotern und Künstlicher Intelligenz eine andere Bedeutung und Konsequenz hat als der Einsatz einer Brille oder eines Smartphones. Letztere können wir als Erweiterung bzw. Kompensation unserer körperlichen und geistigen Fähigkeiten verstehen und instrumentell einsetzen. Dabei werden sie uns über die Zeit so vertraut und so nahe, dass wir sie irgendwann gar nicht mehr als fremd verstehen.

Für Roboter jedoch, die uns als ein eigenständiges, verkörpertes Wesen gegenübertreten, wird diese Anverwandlung nicht möglich sein. Und auch für eine körperlose Künstliche Intelligenz ist das in dem Maße illusorisch, in dem sie sich über selbstlernende Algorithmen und eine weit vernetzte Datenbasis unserer Kontrolle und Zielsetzung entzieht.

Kritisch wird derzeit diskutiert, dass der Mensch in immer mehr Handlungsfeldern die Vorherrschaft verlieren könnte, weil die Maschinen in ihrer Performanz einfach besser sind und zunehmend die Standards setzen. Der Mensch darf sich zwar als Schöpfer dieser großartigen Maschinen sehen. Der Stolz darauf hält sich allerdings in Grenzen. »Prometheische Scham«, wie Günter Anders das Gefühl genannt hat – von der eigenen Schöpfung überrundet und als zu leicht befunden zu werden. [6]

Wie werden wir Menschen damit umgehen? Mit Aggression, Autoaggression, Regression oder auch Konstruktion? Müssen wir Menschen uns selbst ebenfalls aufrüsten, um mit den immer leistungsfähigeren Maschinen noch mithalten zu können? [7]

Die weitere Entwicklung ist keineswegs ausgemacht – und es wird der gemeinsamen menschlichen Anstrengung bedürfen, hier einen konstruktiven Weg zu finden, der uns weder mit Maschinenstürmerei noch mit Unterwerfung unter die Technik überreagieren lässt.

Gefragt ist wohl vielmehr ein erneuertes Selbstverständnis des Menschen, bei dem wir

a) Korrekturen an einem wohl etwas zu optimistischen Selbstbild hinsichtlich unserer menschlichen Einzigartigkeit, rationalen und moralischen Fähigkeit vornehmen und

b) überlegen, welchen Platz wir den intelligenten Maschinen in dieser Welt neben Tieren, Menschen und Göttern zubilligen wollen – oder auch einräumen müssen.

3. Normative Fragen

Der dritte Fragenkreis bezieht sich auf konkrete Situationen und Handlungen, die wir Menschen moralisch bewerten als beispielsweise »gut«, »schlecht«, »vorzugswürdig« oder »unzuträglich«.

Aufgabe der Ethik ist es, solche moralischen Meinungen auf ihre Begründung und Geltung hin zu befragen und so zu einem geschärften ethischen Urteil zu kommen, das idealiter vor der Allgemeinheit moralischer Subjekte verantwortet werden kann und in seiner Umsetzung ein »gelungenes Leben mit und für die Anderen, in gerechten Institutionen« [8] ermöglicht. Das ist eine erste vage Richtungsangabe.

Normative Fragen lassen sich am Ende nur ganz konkret anhand einer bestimmten Situation bearbeiten. Entsprechend liefert die Ethik hier keine pauschalen Urteile wie: »Roboter sind gut/schlecht«, »Künstliche Intelligenz dient dem guten Leben/ist dem guten Leben abträglich«.

Vielmehr muss es bei der ethischen Reflexion darum gehen, ein konkretes »sozio-technisches Arrangement« [9], also das Zusammenwirken von Menschen und Maschinen in seinen Zusammenhängen mit moralischen Orientierungen (wie Gerechtigkeit, Freiheit, Verantwortung) zu evaluieren und auf den entsprechenden Ebenen (etwa Forschung, Anwendung, politische Regulierung) zu tragfähigen Urteilen einschließlich ihrer Umsetzung zu kommen.

Eminente Fragen der Gerechtigkeit erwachsen uns beispielsweise im Bereich der Arbeit, wo Roboter und Künstliche Intelligenz immer mehr Arbeiten übernehmen können und Menschen aus diesen Tätigkeiten herausdrängen.

Dass Technik menschliche Arbeitskräfte verdrängt, ist kein neues Problem. Allerdings sieht es in diesem Fall so aus, dass auf diesem Wege nicht mehr neue Arbeitsplätze entstehen bzw. solche, die völlig neue und höhere Qualifikationen erfordern (Up-skill-Effekt) oder den Menschen die ›übriggebliebenen‹ niederen Tätigkeiten überlässt (Down-skill-Effekt).

Darüber hinaus kommt die Wertschöpfung aus robotischer Arbeit nur wenigen zugute, so dass hier ein weiteres Gerechtigkeitsproblem auftritt. Die Frage kann dann nicht lauten: Sollen wir Roboter überhaupt entwickeln, sondern: Welche Typen von Robotern wollen wir in welchen Einsatzbereichen entwickeln und wie unterbinden wir so gut wie möglich Formen des Missbrauchs und unerwünschte Folgen? Wie gestalten wir sie so, dass ein gutes Leben für den Einzelnen und das Zusammenleben der Vielen in gerechten Institutionen ermöglicht wird?

Fazit

Am Schluss dieser tour d’horizon soll eine aufschließende Überlegung stehen.

Die Technik – und solche sind Roboter und Künstliche Intelligenz nach wie vor – macht nicht das gute Leben. Wir dürfen von der Technik keine Dinge erwarten, die sie nicht leisten kann. Sie kann ein Mittel sein, wenn wir Menschen uns selbst darüber klar sind, was wir als das gute Leben begreifen wollen.

So lange wir das nicht wissen oder dieser Frage ausweichen, wird uns Technik nicht weiterhelfen, sondern sie wird uns womöglich auf Pfade führen, von denen wir irgendwann sagen müssen: Das war’s nicht. Aber dann sitzen wir auf diesen Pfaden fest und werden von ihnen nur schwer herunterkommen.

Der Informatiker Jürgen Schmidhuber hat jüngst in einem Interview prognostiziert, dass es nur noch wenige Jahre dauern werde, bis die technische Intelligenz die menschliche übertreffen und sich das Gefälle zwischen Mensch und Maschine umkehren werde. Er beruhigte aber auch und meinte, es werde für den Menschen gut ausgehen, weil sich die Maschinen uns gegenüber verhalten würden wie wir uns gegenüber unseren Hauskatzen. [10]

Nach welchem Bilde konstruieren wir die neuen intelligenten Maschinen, wieviel Freiheit schreiben wir ihnen ein? Wie können wir uns darauf vorbereiten, dass sie sich ihre Freiheit nehmen werden – auch wenn das nicht in unserem Interesse ist?

Die hier skizzierten Fragen sollten meines Erachtens nicht auf eine Debatte im Kreis der Experten eingeschränkt werden. Forschung, Entwicklung und Einsatz – und nicht zu vergessen: die Entsorgung – von Robotern betreffen die gesamte Gesellschaft.

Im Wortsinn geben wir der Gesellschaft mit den Entscheidungen, die wir in dieser Sache treffen, ein neues Gesicht. Und es liegt an unser aller Achtsamkeit, Verantwortlichkeit und Gestaltungswillen, dass es keine Fratze, sondern ein menschenfreundliches Antlitz ist.

Literatur

[1] Dittmann, Frank (2016): Mensch und Roboter – ein ungleiches Paar. In: Manzeschke, Arne und Karsch, Fabian (Hrsg.): Roboter, Computer und Hybride. Was ereignet sich Menschen und Maschinen?, Baden Baden: Nomos, S. 17–46

[2] Böhme, Gernot (1997): Ethik im Kontext. Über den Umgang mit ernsten Fragen, Frankfurt am Main: Suhrkamp, S. 17

[3] De Waal, Frans (2015): Der Mensch, der Bonobo und die zehn Gebote, Stuttgart: Klett-Cotta

[4] Meyer-Drawe, Käte (1996): Menschen im Spiegel ihrer Maschinen, München: Wilhelm Fink

[5] Kamper, Dietmar und Wulf, Christoph (1994): Einleitung: Zum Spannungsfeld von Vervollkommnung und Unverbesserlichkeit. In: Dies. (Hrsg.): Anthropologie nach dem Tode des Menschen, Frankfurt/Main: Suhrkamp, S. 7-12

[6] Anders, Günter (1956): Die Antiquiertheit des Menschen. Über die Seele im Zeitalter der zweiten industriellen Revolution, München: C. H. Beck

[7] J. C. R. Licklider (1960): Man-Computer Symbiosis. In: IRE Transactions on Human Factors in Electronics, volume HFE-1, pages 4-11, March 1960

[8] Ricœur, Paul (2005): Ethik und Moral. In: Ders.: Vom Text zur Person. Hermeneutische Aufsätze (1970–1999), Hamburg: Meiner, S. 251–267, S. 252, Hervorhebung im Text.

[9] Manzeschke, Arne; Weber, Karsten; Rother, Elisabeth und Fangerau, Heiner (2013): Ergebnisse der Studie »Ethische Fragen im Bereich Altersgerechter Assistenzsysteme«, Berlin: VDI/VDE

[10] Wiedemann, Carolin (2017): Werden wir ihre Katzen sein? In: Frankfurter Allgemeine Sonntagszeitung vom 26. 11. 2017, S. 55

EAY64449302 LG DA-180C19 EAY64449302 netzteile Netzteile/Adapters
PA5267U-1BRS akkus für Toshiba Portege X20W X20W-D-10R serie
404600 akkus für Bose SOUNDLINK I II III
FSP400-70LQ FSP400-601UG netzteile FSP Mini Itx/Flex ATX 400W 80plus Gold Certified Active Netzteile/Adapters
A15-150P1A Clevo W650KK1 P950HP Gaming Netzteile/Adapters
LB62119E akkus für LG R500 S510-X
061384 061385 akkus für BOSE SOUNDLINK Mini serie

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht.