KI und Ethik: Widersprüche und Fehler einer wichtigen Debatte
von Karsten Weber (Regensburg)
Moralische Maschinen: Falsche Fragen, falsche Antworten
Seit geraumer Zeit tauchen auf den Wissenschaftsseiten und/oder in den Feuilletons von Tages- und Wochenzeitungen immer Texte auf, die sich mit den moralischen Eigenschaften intelligenter Maschinen beschäftigen (eine ohne Zweifel willkürliche, in jedem Fall aber unvollständige Auswahl: Singularity: Erst Mensch gegen Mensch, dann Mensch gegen Maschine, Werden wir für sie wie Katzen sein?, Beherrscht uns künftig künstliche Intelligenz?, Alle Roboter sind von Geburt an gleich). Mal abgesehen davon, dass ähnliche alarmistische Überlegungen vermutlich auch im Zuge der dampfmaschinengetriebenen und später elektrifizierten Industrialisierung in großer Zahl geäußert wurden, ist mit Sicherheit festzustellen, dass es bzgl. der Angst vor der intelligenten Maschine nichts Neues unter der Sonne gibt: Ein Blick in die (populär‑)wissenschaftliche Literatur insbesondere der 1970er Jahre beweist, wie sehr Künstliche Intelligenz schon vor fast 50 Jahren zu beunruhigen wusste – paradigmatisch ist hier sicher Joseph Weizenbaums Buch Die Macht der Computer und die Ohnmacht der Vernunft, das unter diesem Titel 1977 in deutscher Sprache erschien; das englische Original war ein Jahr vorher unter dem Titel Computer power and human reason. From judgment to calculation veröffentlicht worden.
Die Autorinnen und Autoren dieser Texte scheinen sehr oft von der Angst getrieben zu sein, dass es nicht mehr lange dauern wird, bis die Menschheit mit Maschinen konfrontiert sein wird, deren kognitiven Fähigkeiten jenen der Menschen ebenbürtig oder gar überlegen sein werden – und dass es außerfrage stünde, dass dies passieren wird. Ray Kurzweil popularisierte für diesen Zeitpunkt den Ausdruck ‚Singularität‘ in seinem Buch The Singularity Is Near: When Humans Transcend Biology(eine interessante Kritik dazu findet sich hier), obwohl er beileibe nicht der erste war, der dieses Wort verwendete, um zu beschreiben, dass es einen historischen Augenblick geben könnte, ab dem Maschinen den Menschen auch in Hinblick auf Intelligenz den Rang ablaufen würden (siehe Wikipedia: Technologische Singularität).
Doch – so kann man viele Texte zu diesem Thema zusammenfassen – selbst wenn die Singularität noch auf sich warten lassen sollte, müssten wir als Menschen einsehen, dass intelligente Maschinen in sehr vielen Bereichen des Lebens Entscheidungen treffen werden. Da diese Entscheidungen mit dem Wohl und Wehe eines oder vieler Menschen verbunden sein werden, müssten, so wird in der Regel geschlossen, die entsprechenden Maschinen ethisch entscheiden und handeln. Der Titel eines Artikels von Alexandre Lacroix – Können Maschinen moralisch handeln? – kann hier als paradigmatisch angesehen werden. So klar die Frage gestellt wird, so klar kann man sie beantworten, doch leider liest man insbesondere in den Massenmedien fast immer die falschen Antworten. Denn auch wenn der Tenor der vielen Beiträge in Tages- und Wochenzeitungen anderes lauten mag, muss doch betont werden, dass derzeit nichts dafür spricht, dass Maschinen moralisch handeln könnten – ja schon die Frage ist falsch gestellt, denn darin stecken implizit Annahmen, die schlicht nicht zutreffen.
Maschinen als moralische Agenten?
Eine kleine Maschinentypologie kann dies verdeutlichen. Denn wenn man fragt, ob Maschinen moralisch handeln können, dann muss man – bewusst oder nicht – annehmen, dass diese Maschinen einen bestimmten Grad an Autonomie erreichen und somit als moralische Akteure – oder, wie oft formuliert wird, als moralische Agenten – gelten müssen. Das kann nun aber sehr vieles heißen:
- Das Verhalten solcher Maschinen ist moralisch relevant und muss daher durch moralische Normen und Werte bestimmt sein. Diese werden von Menschen in der Programmierung der Maschinen implementiert und fortan durch die Maschinen als Regeln befolgt. Autonomie liegt hier nicht vor, sondern nur Regelbefolgung.
- Maschinen sind moralische Agenten insofern, dass sie selbst kognitive Kapazitäten besitzen, um intentional moralische Normen und Werte zu beachten. Dies erweist sich schon bei einem sehr kurzen Blick in die einschlägige Literatur als hochgradig umstritten, da daran gezweifelt wird, dass Maschinen Intentionalität besitzen (Beispiele dafür finden sich hier). Ohne Intentionalität kann jedoch nicht von Handeln, sondern nur von Verhalten gesprochen werden.
- Nicht nur sind Maschinen moralische, sondern sogar ethische Agenten. Das heißt, dass sie die kognitiven Fähigkeiten besitzen, selbst moralische Normen und Werte zu formulieren, zu begründen und in der Folge sich für eine bestimmte Menge von ihnen zu entscheiden und andere zu verwerfen. Danach handelt eine entsprechende Maschine nach den selbstgewählten moralischen Normen und Werten.
- In Erweiterung dazu können ethische Agenten den selbstgewählten moralischen Normen und Werten widersprechend agieren – sie wären dann nichts weniger als das technische Spiegelbild des Menschen mit all seinen moralischen Defekten.
Alle Beispiele moralischer Maschinen, die derzeit diskutiert werden – ob es nun autonome Pkws oder autonome Waffensysteme sein mögen, fallen (bisher) ausschließlich in die erste Kategorie. Trotzdem wird von Maschinen gesprochen, die selbständig moralisch relevante Entscheidungen treffen. Woher kommt diese Konfusion?
Sein oder Schein
In seinem Maßstäbe setzenden Aufsatz Computing Machinery and Intelligence aus dem Jahr 1950 schlug der britische Mathematiker Alan M. Turing einen Test vor, mit dessen Hilfe entschieden werden könne, ob eine Maschine intelligent sei bzw. denken würde – allerdings muss das Wort ‚denken‘ in diesem Kontext in Anführungszeichen gesetzt werden. Die Idee Turings ist so einfach wie genial: Gelänge es einer Maschine in diesem Test nicht als Maschine identifiziert, sondern für einen Mensch gehalten zu werden, so hätte diese Maschine den Turing-Test bestanden: Die Maschine wäre ‚intelligent‘ oder würde ‚denken‘. ‚Denken‘ heißt im Kontext des Tests bestimmte kommunikative Fähigkeiten zu besitzen, ohne dass damit bereits unterstellt werden würde, wie diese realisiert sein müssen. Mit dem Bestehen des Turing-Tests geht somit nicht einher, dass angenommen werden würde, dass eine Maschine genauso dächte wie ein Mensch, sondern eben nur, dass es dieser Maschine gelänge, in einem Menschen die Überzeugung zu wecken, mit einem denkenden Wesen zu interagieren. Um den Turing-Test bestehen zu können, ist es also nicht wichtig, dass die Maschine tatsächlich denkt, sondern es ist wichtig, dass Menschen die Überzeugung haben, dass sie denkt. ‚Denken‘ ist hier also eine Zuschreibung; der Unterschied zwischen ‚X denkt‘ und ‚ich glaube, dass X denkt‘ ist, so kann man Turing verstehen, im Grunde nicht sinnvoll zu ziehen. Mit anderen Worten: Bezüglich des Denkens ist nicht so sehr die Erste-Person-Perspektive wichtig, sondern die Dritte-Person-Perspektive.
Nun kann man diese Aussage über das Denken auch auf andere psychische Phänomene wie Emotionen, Wünsche, Ziele, Intentionen, Motive und so fort ausweiten und sagen, dass auch der Unterschied zwischen ‚X hat Gefühle‘ und ‚ich glaube, dass X Gefühle hat‘ oder ‚X hegt Überzeugungen‘ und ‚ich glaube, dass X Überzeugungen hegt‘ und vielen anderen ähnlichen psychischen Phänomenen nicht sinnvoll gezogen werden kann, da wir stets nur das beobachtbare äußere Verhalten zur Beurteilung darüber heranziehen können, ob unser Gegenüber denkt, Gefühle hat oder Überzeugungen hegt. John McCarthy hat diese Überlegung schließlich in seinen Arbeiten so zugespitzt, dass er selbst so einfachen Mechanismen wie Heizungsthermostaten das Haben von Überzeugungen zubilligte (wie man hier nachlesen kann). Man kann Turing ebenso wie McCarthy so verstehen, dass zur Operationalisierung der Messung von Intelligenz oder auch von Emotionen oder gar Moralität stets nur das äußere Verhalten des jeweiligen Untersuchungsobjekts herangezogen werden kann; folgt man diesem Grundannahme, macht die Unterscheidung von ‚X denkt‘ und ‚ich glaube, dass X denkt‘ nun tatsächlich keinen Sinn mehr, weil wir die Aussage ‚X denkt‘ nur auf Grundlage des äußeren Anscheins, also dem sichtbaren Verhalten, von X treffen können. Man kann sogar so weit gehen zu sagen, dass ‚X denkt‘ und ‚es sieht so aus, als ob X denke‘ zwar möglicherweise tatsächlich einen Unterschied bedeutet, sofern wir fragen, wie es sich denn nun wirklich verhält, aber dass bzgl. unserer Wahrnehmung bzw. Erkenntnis insbesondere in alltäglichen Interaktionen kein Unterschied zu ziehen ist.
Das heißt nichts anderes, als dass es unerheblich wäre, ob unser Gegenüber tatsächlich mentale Zustände hat, wirklich denkt, fühlt, glaubt, wünscht, oder ob wir nur der Überzeugung sind, dass es so sei; für unser Handeln spielt das keine Rolle, solange wir mit unseren Zuschreibungen an unser Gegenüber erfolgreich sind, die Interaktion also gelingt. In der Gestaltung von Geräten und insbesondere im Bereich der Mensch-Maschine-Interaktion kann man sich dies nun erfolgreich zunutze machen. Wenn die Designer solcher Geräte es erreichen können, in den Nutzerinnen und Nutzern die Überzeugung zu wecken, dass das Gerät denkt, fühlt, glaubt, wünscht – kurz: augenscheinlich etwas Ähnliches wie man selbst ist, so sind Interaktionen meist erfolgreicher.
Die moralische Frage
Designerinnen und Hersteller von Robotern oder KI-Systemen könnten daher versucht sein Maschinen auf eine solche Weise zu gestalten, dass sie von Menschen als künstliche moralische Agenten angesehen werden. Der Ausdruck ‚künstlicher moralischer Agent‘ soll dabei heißen, dass Menschen eher die Maschine für deren Handlungen und den Folgen dieser Handlungen verantwortlich machen als deren Designer oder Herstellerinnen. Mit Sicherheit werden diese Agenten versagen – ganz genauso wie ordinäre Maschinen das zuweilen ebenfalls tun. Wenn dies geschieht und diese Maschinen als künstliche moralische Agenten akzeptiert werden würden, machten jene Menschen, die mit ihnen interagieren, vermutlich die Maschinen für ihre Aktionen und deren Folgen verantwortlich – zumindest bis zu einem gewissen Maß.
Das wäre moralisch aber mehr als zweifelhaft, doch derzeit existieren keine auf autonome artifizielle Agenten anwendbaren moralischen Normen. Aber eher früher als später werden solche Normen dringend benötigt: Nicht weil wir bereits in der Lage wären, künstliche moralische Agenten zu bauen, sondern weil sie durch schlichte Zuschreibung erzeugt werden – und das ist sehr einfach und ein alltäglicher Vorgang. Es ist daher naheliegend, dass entsprechende moralische und soziale Normen die Designer und Erbauerinnen solcher Maschinen ansprechen müssen, nicht die Maschinen selbst. Denn in Bezug auf die Mensch-Maschine-Interaktion kann man sehr leicht Szenarien bspw. für den Bereich des E-Commerce entwerfen, in denen es durchaus nützlich wäre, die Überzeugung bei Menschen zu erzeugen oder zu stärken, dass das jeweilige mechanische Gegenüber ein wohlinformierter, moralisch verantwortlicher und vertrauenswürdiger Agent ist, der nur im Interesse der Menschen agiert. Um es direkt zu sagen: Autonome artifizielle Agenten könnten dazu benutzt werden, Menschen zu verführen oder gar zu betrügen.
Autonomie ist nicht gleich Autonomie
Tatsächlich liegt hier aber ein problematisches, wenn nicht sogar falsches Verständnis von Autonomie vor. Eine Ursache für das Missverständnis bzgl. Autonomie rührt daher, dass der Begriff der Autonomie mit ganz unterschiedlichen Bedeutungen verbunden wird, die sehr oft nicht klar auseinandergehalten werden. So schreiben die Autorinnen und Autoren eines Abschlussberichtsfür ein vom BMBF gefördertes Projekt, dass „[v]iele der Eigenschaften, die technische Interaktionsfähigkeit ermöglichen, unter dem Schlagwort ‚autonome Technik‘ gefasst [werden]; dabei unterscheidet sich die Bedeutung von ‚autonom‘ von Fall zu Fall erheblich und v.a. zwischen den Technikwissenschaften und der Philosophie. Im technischen Bereich bedeutet autonome Technik je nachdem autark, mobil, automatisch, umweltunabhängig, adaptiv, lernend, innovativ oder opak, nicht vorhersagbar. Entscheidend ist für den Autonomiegrad von Technik auch das Maß an technischer Selbstkontrolle bzw. Kontrolle von Technik durch den Menschen.“
Anders ausgedrückt: Die Rede von der Autonomie ist verfehlt, denn es existieren je nach Wissenschaftsdisziplin ganz verschiedene Autonomiebegriffe. Damit greift die gerade in den Massenmedien häufig undifferenzierte Rede über Autonomie und autonome Maschinen zu kurz. Autonome Fahrzeuge mögen in absehbarer Zeit in dem oben genannten technischen Sinne autonom sein, in einem moralischen Sinne sind sie dies damit aber noch lange nicht. Von ethischen Maschinen könnte begrifflich sinnvoll jedoch nur dann gesprochen werden, wenn sich diese Maschinen eine Moral selbst geben würden und dieser freiwillig folgten – denn genau dies bedeutet Autonomie (αὐτός νόμος / autós nómos = Selbstgesetzgebung) im Kontext ethischer Überlegungen. In der obigen Typologie entspricht das der dritten und vierten sowie vermutlich schon der zweiten Abstufung autonomer Maschinen.
Sollten solche Maschinen realisiert werden, müsste dann auch akzeptiert werden, dass deren Aktionen nicht mehr vorhersehbar wären – genauso, wie dies für Menschen ebenfalls gilt. Damit aber wäre die Zielsetzung, mit der Menschen Maschinen bauen, konterkariert, denn Maschinen sollen reproduzierbare Ergebnisse liefern, sie sollen unter gleichen Bedingungen gleiche Ergebnisse produzieren. Es mag Anwendungen geben, in denen in einem gewissen Maße von solchen Erwartungen abgewichen werden kann und sogar muss, beispielsweise in der Mensch-Maschine-Interaktion: Hier wäre es eher störend oder gar verwirrend, wenn eine Maschine immer mit den immer gleichen Worten auf eine bestimmte Frage reagierte. Eine gewisse Varianz in den Antworten könnte die Interaktion erleichtern und menschenähnlicher gestalten. Doch dieser Varianz müssten Grenzen gesetzt werden, um beispielsweise verletzende oder beleidigende Äußerungen zu verhindern. Würden jedoch Maschinen der dritten oder vierten Stufe gebaut, könnte dies nicht mehr garantiert werden. Doch tatsächlich beginnen die Probleme viel früher, wie am Beispiel von Microsofts Chatbot Tay zu erkennen ist. Dieser lernende Chatbot verwandelte sich in kürzester Zeit in ein rassistisches Programm in Reinform, so dass es Microsoft sehr schnell – nach nur 24 Stunden – wieder vom Netz nehmen musste. Neben dem Schaden erntete das Unternehmen auch sehr viel Spott.
Schlussfolgerung
Daher sollte folgende moralische Norm stets beachtet werden: Gestalte keine Maschinen, die die menschlichen Interaktionspartner vergessen lassen, dass sie mit Maschinen interagieren. Damit würde die Unvermeidbarkeit der Vermenschlichung von Maschinen entgegengewirkt und sichergestellt, dass die Aktionen eines autonomen artifiziellen Agenten stets dessen Designerinnen und Herstellern zugerechnet werden kann. Ähnlich argumentieren Deborah Johnson und Keith W. Miller, wenn sie in Un-making artificial moral agents schreiben (Kursiv von mir):
“Debate about the moral agency of computer systems takes place at a certain level of abstraction and the implication of our analysis is that discourse at this level should reflect and acknowledge the people who create, control, and use computer systems. In this way, developers, owners, and users are never let off the hook of responsibility for the consequences of system behavior.”
Dem ist nicht mehr viel hinzuzufügen: Dass es uns schwer fällt, selbst in akademischen Debatten, über Künstliche Intelligenz nicht in einer Weise zu sprechen, die darauf hinausläuft, Technik zu vermenschlichen, ist keine Entschuldigung dafür, es nicht zumindest zu versuchen und auf reißerische Überschriften und kaum haltbare Behauptungen zu verzichten. Es mag mühsam sein, aber das Thema wäre es wert, immer wieder zu bedenken und darauf hinzuweisen, dass Maschinen (derzeit und vermutlich auch in absehbarer Zukunft) keine Entscheidungen treffen, keine moralischen Urteile fällen und schon gar nicht ethisch räsonieren – Menschen tun dies, weil sie Personen sind; Maschinen jedoch sind (derzeit und vermutlich auch in absehbarer Zukunft) keine Personen, denn dazu fehlen alle entscheidenden Voraussetzungen. Im Tierreich gäbe es viele weitaus besser geeignete Kandidaten für diesen Status (aber das ist eine andere Diskussion). Da Maschinen keine Personen sind, können sie auch keine moralische Verantwortung tragen – dies sollte, wie Deborah Johnson und Keith W. Miller zurecht betonen, niemals durch unseren Sprachgebrauch verschleiert werden. Menschen tragen Verantwortung für den Einsatz von Technik – ob nun Künstliche Intelligenz drin steckt oder nicht, macht da keinen Unterschied und darf keinen Unterschied machen.
Anmerkung
Der vorliegende Beitrag enthält überarbeitete Teile eines vor einigen Jahren publizierten Textes mit dem Titel Ist da jemand? Über unsere Bereitschaft und die Unvermeidbarkeit Maschinen zu vermenschlichen sowie von mir verfasste und für diesen Blogbeitrag modifizierte Fragmente aus dem Aufsatz Maschinenethik und Technikethik von Karsten Weber und Thomas Zoglauer.
Prof. Dr. phil. habil. Karsten Weber ist einer der drei Direktoren des Regensburg Center of Health Sciences and Technology (RCHST) und Ko-Leiter des Instituts für Sozialforschung und Technikfolgenabschätzung (IST) an der Ostbayerischen Technischen Hochschule (OTH) Regensburg sowie Honorarprofessor für Kultur und Technik an der Brandenburgischen Technischen Universität (BTU) Cottbus-Senftenberg. Er beschäftigt sich derzeit vor allem mit normativen und sozialen Fragen des Einsatzes von Technik im Gesundheitsbereich und in der Pflege; Künstliche Intelligenz ist dabei ebenfalls ein Thema.