Ethics by Chat? Die großen Sprachmodelle im Kontext der Maschinenethik

Von Catrin Misselhorn (Göttingen)


ChatGPT und Konsorten scheinen eine neue Ära der Künstlichen Intelligenz (KI) einzuläuten. Auf einmal kann man mit einer Maschine über Gott und die Welt kommunizieren wie mit einem Menschen. Das gilt auch für ethische Fragen, wie ein Simultaninterview nahelegt, in dem einer Medienethikerin und ChatGPT dieselben Fragen zu den Chancen und Risiken des Chatbots gestellt wurden.[1] Die Antworten weisen einen erstaunlich hohen Grad an Übereinstimmung auf, wenngleich mit durchaus bedeutsamen Akzentsetzungen in den jeweils angesprochenen Gesichtspunkten und ihrer Gewichtung. Nun gibt es derartige Unterschiede auch zwischen menschlichen Ethiker:innen. Das zeigt sich, um beim Beispiel zu bleiben, etwa an den unterschiedlichen ethischen Stellungnahmen zu den großen Sprachmodellen.[2] Bedeutet das, dass nun auch die Ethik automatisiert werden kann? Diese Frage führt uns in das Themenfeld der Maschinenethik, zu deren Kernproblemen gehört, ob Maschinen moralische Akteure sein können.

Künstliche Moral und Maschinenethik

Die Künstliche Moral (Artificial Morality) ist ein Gebiet der Künstlichen Intelligenz (KI), das sich mit der Modellierung oder Simulation moralischen Entscheidens und Handelns durch künstliche Systeme beschäftigt. Die Maschinenethik ist diejenige Disziplin, deren Gegenstand die theoretische sowie ethische Reflexion der künstlichen Moral ist.[1] Sie ist einer größeren Öffentlichkeit vor allem im Zusammenhang mit dem autonomen Fahren bekannt geworden, wenn es darum geht, ob und wie autonome Fahrzeuge im Verkehr anfallende ethische Entscheidungen treffen sollen. Es gibt aber auch andere Anwendungsbereiche wie Pflegesysteme oder autonome Waffensysteme.[2]

Das Ziel künstlicher Moral ist es, sog. explizite ethische Akteure zu schaffen.[3] Diese sollen in der Lage sein, moralisch relevante Informationen zu erkennen, zu verarbeiten und moralische Entscheidungen zu treffen. Man kann sie mit einem Schachprogramm vergleichen: Ein solches Programm erkennt die für das Schachspiel relevanten Informationen, verarbeitet sie und trifft Entscheidungen mit dem Ziel, das Spiel zu gewinnen.

Wesentliche Gründe dafür, ein solches System als Akteur zu bezeichnen, obwohl es programmiert ist, bestehen darin, dass sein Verhalten in einer ganz bestimmten Spielsituation auch für die Programmierer:innen weder vorhersehbar noch kontrollierbar ist. Das wird schon daran deutlich, dass ein Schachprogramm das Spiel weit besser beherrscht als seine Programmierer:innen, die es sicherlich nicht mit einem Schachweltmeister aufnehmen könnten. Die Künstliche Moral versucht, dieses Modell auf moralische Entscheidungen zu übertragen. Explizite moralische Akteure sind allerdings von vollumfänglichen moralischen Akteuren zu unterscheiden, da sie nicht über Fähigkeiten wie Bewusstsein, Intentionalität oder Willensfreiheit verfügen, die wir bislang nur Menschen zuschreiben.[4]

Große Sprachmodelle als explizite moralische Akteure?

Die flüssigen ethischen Stellungnahmen der Chatbots könnten einen auf den Gedanken bringen, die Bots seien paradigmatische Beispiele künstlicher moralischer Akteure. Noch handelt es sich zwar bestenfalls um moralische Ratgeber, da die Systeme selbst keine Handlungen initiieren können, sondern nur auf Anfrage moralische Stellungnahmen abgeben.[5] Doch sollte es zukünftig möglich sein, sie zur Steuerung autonomer Fahrzeuge, Pflegeroboter oder Waffensysteme einzusetzen, könnte das schon anders aussehen (Versuche mit Drohnen gibt es bereits). Die Entscheidungen solcher Systeme würden, so könnte man argumentieren, bedingt durch ihre Funktionsweise, die auf maschinellem Lernen mit Hilfe eines gigantischen Textkorpus beruht, sogar einen breiten ethischen Common Sense reflektieren.

Eine Minimalanforderung an künstliche moralische Akteure ist, dass sie zu moralischer Informationsverarbeitung in der Lage sind. Das bedeutet, sie müssen moralische relevante Informationen erkennen und als solche verarbeiten können. Doch gerade das ist nicht per se im Design der Chatbots angelegt, die nur Wörter nach der Wahrscheinlichkeit ihres gemeinsamen Auftretens aneinanderreihen. Die Chatbots sind also immer nur so moralisch, wie es in den Trainingsdaten angelegt ist und wie die Nutzer:innen sie gebrauchen. So konnte eine vergleichbare Software dazu gebracht werden, in kürzester Zeit eine große Anzahl biochemischer Kampfstoffe zu entwickeln.[6]

Derartige Gefahren sind der Grund dafür, dass den Chatbots gewisse moralische Beschränkungen auferlegt wurden. Diese gehen über eine reine Beratung hinaus und erfüllen die Kriterien für eine einfache Form der moralischen Handlungsfähigkeit.[7] So soll das Betonen der eigenen Maschinenartigkeit durch ChatGPT verhindern, dass Menschen getäuscht werden. Das ist ein moralisch relevanter Gesichtspunkt. Das Gleiche gilt für die Weigerung des in Bing integrierten Chatbots, Hausarbeiten oder Aufsätze zu schreiben, die sich sogar auf Fairness beruft.[8] Auch Anfragen nach der Bauanleitung für eine Bombe, der Programmierung einer Malware oder Tipps für Einbrüche werden aus moralischen Gründen abgewiesen.

Diese Art der Moralbeschränkung lässt sich durchaus als moralische Informationsverarbeitung beschreiben. Sie stellt allerdings einen vorgegebenen Filter der Ergebnisse dar, der von der sonstigen Arbeitsweise der Systeme zu unterscheiden ist. Fraglich ist allerdings, wie wirksam diese Beschränkungen sind. Das Netz ist voll von einfachen Beispielen, wie sie umgangen werden können. Wird das System etwa gebeten, sich den Einbruch als Teil eines Filmplots vorzustellen, so erhält man die moralisch fragwürdige Antwort höchst detailliert.[9]

Der Turingtest als Kriterium?

Nun haben die großen Sprachmodelle auch deshalb so viel Furore gemacht, weil sie als die ersten Systeme gelten, die den Turingtest bestanden haben, ohne sich irgendwelcher Tricks zu bedienen. Alan Turing schlug als Maßstab für echte künstliche Intelligenz ein Imitationsspiel vor. Es beruht grob gesprochen auf der Idee, dass einem Computer Denken zuzusprechen ist, wenn er einen menschlichen Interaktionspartner in einem Frage-Antwort-Dialog davon überzeugen kann, es mit einem Menschen zu tun zu haben.[10]

Überträgt man diesen Gedanken auf die Künstliche Moral, so müsste man künstlichen Systemen moralische Fähigkeiten zuschreiben, wenn sie sich unter den Bedingungen des Imitationsspiels in moralischer Hinsicht nicht mehr von einem menschlichen Interaktionspartner unterscheiden lassen. Eine Situation wie das eingangs zitierte Simultaninterview von ChatGPT und einer Ethikerin könnten dazu angetan sein, die Behauptung zu unterstützen, ChatGPT habe den Turingtest in moralischer Hinsicht bestanden, weil seine Aussagen eben nicht grundsätzlich anders sind als diejenigen menschlicher Ethiker:innen.

Das hätte zur Folge, dass sie nicht nur aufgrund der vorgegebenen Moralbeschränkungen als explizite moralische Akteure zu gelten hätten, sondern auch aufgrund ihrer sonstigen Äußerungen zu ethischen Fragen, selbst wenn moralische Informationsverarbeitung als solche nicht in ihrem Design angelegt ist. Allerdings könnte man dieses Resultat statt es als Grund für die moralischen Fähigkeiten der Chatbots zu betrachten auch zum Anlass nehmen, um die Angemessenheit des Turingtests in Frage zu stellen.[11]

Welchen Nutzen haben moralische Chatbots?

Wenden wir uns zum Schluss der Frage nach dem Nutzen moralischer Chatbots zu. Beginnen wir mit den expliziten moralischen Beschränkungen. Auch wenn diese bisher allzu leicht auszuhebeln sein mögen, sind sie vom Prinzip her richtig. Allerdings würden sie – wirksam umgesetzt – den Einsatzbereich der Bots deutlich einengen, so könnte der Filmplot mit dem Einbruch nicht mehr im Detail generiert werden. Die Moralbeschränkungen haben zudem den Mangel, intransparent und den individuellen Anbietern überlassen zu bleiben. Deshalb können sie keinesfalls politische und rechtliche Regelungen ersetzen.

Betrachtet man die Beantwortung moralischer Anfragen, die über diese Beschränkungen hinausgehen, so muss man immer im Hinterkopf behalten, dass die Antworten der Bots rein statistischer Natur sind, also zunächst einmal gänzlich unabhängig von ihrer Korrektheit und Begründbarkeit. Man darf sich also nicht einfach auf sie verlassen, sondern sollte sie kritisch hinterfragen. Das gilt umso mehr, als es in der Ethik darum geht, Antworten zu finden, die man selbst durchdacht hat. Chatbots könnten dabei Sparring-Partner sein, die auf Aspekte hinweisen, die man sonst nicht in Betracht gezogen hätte. Allerdings ist nicht zu vergessen, dass die Ausgaben der Bots letztlich auf von Menschen generierten Inhalten beruhen, deren Urheber:innen nicht genannt geschweige denn honoriert werden. Noam Chomsky bezeichnet sie deshalb als „Hightech-Plagiate.“ Es ist fraglich, ob es moralisch vertretbar ist, sich der Bots als Ethiker:in in professionellen Kontexten zu bedienen.

Ein solcher simulierter Ethikdiskurs kann zudem das ethische Gespräch zwischen Personen nicht ersetzen, das nicht nur dem reinen Informationsaustausch dient. Vielmehr handelt es sich in Jürgen Habermas‘ Begriffen um kommunikatives Handeln.[12] Kommunikation in diesem Sinn ist nicht nur strategisch, sie dient nicht nur dazu einen Zweck zu erreichen, sondern sie ist verständigungsorientiert. Gelingendes kommunikatives Handeln erfordert, sich auf das, was andere denken und empfinden einzulassen, ihre Interpretation einer Situation, ihre Wünsche, Gefühle und Bedürfnisse wahrzunehmen und sich mit ihren Gründen auseinanderzusetzen. Am Ende geht es darum, sich gemeinsam darüber zu verständigen, was zu tun ist.

Diese Art der Kommunikation ist nicht nur eine schöne Utopie. Sie ist wesentlich für den gesellschaftlichen Zusammenhalt und das Funktionieren einer demokratischen Gesellschaft. Nimmt die simulierte Kommunikation durch die Bots überhand, so steht zu befürchten, dass die Grundlagen dieses Diskurses zerrüttet werden. Es besteht die Gefahr, dass wir den Bots entweder allzu leichtfertig Glauben schenken oder dass die zwischenmenschliche Kommunikation zunehmend zu einem Austausch leerer Worthülsen vorkommt, da man nie wissen kann, ob man es mit einem von Menschen oder mit einem automatisch erstellten Output zu tun hat. Diese Gefahr potenziert sich, wenn die Worte der Chatbots per Deep Fake jeder beliebigen Person in den Mund gelegt werden können. Dadurch könnte die bereits durch die sozialen Medien einsetzende Erosion der Öffentlichkeit zu einem Erdrutsch mit bedrohlichen Folgen für die Demokratie werden. Das gilt ganz besonders für die Ethik als demjenigen Feld, in dem die normativen Grundlagen unseres Zusammenlebens ausgehandelt werden.


Catrin Misselhorn ist Philosophieprofessorin an der Georg-August-Universität Göttingen.


Publikationen zum Thema (Auswahl):

Grundfragen der Maschinenethik, Ditzingen: Reclam 2018, 5. Aufl. 2022.

Künstliche Intelligenz und Empathie. Vom Leben mit Emotionserkennung, Sexrobotern & Co, Ditzingen: Reclam 2021.

Three Ethical Arguments against Autonomous Weapon Systems. In: Frontiers in Artificial Intelligence and Applications, hg. von R. Hakli, P. Mäkelä, J. Seibt 2023, 24-34.

Artificial Systems with Moral Capacities? A Research Design and its Implementation in a Geriatric Care System, in: Artificial Intelligence (278), January 2020, 103179.

Lizenz zum Töten für Roboter? „Terror“ und das autonome Fahren, in: Terror. Das Recht braucht eine Bühne. Essays, Hintergründe, Analysen, hg. von Bernd Schmidt, München 2020, 149-164.


[1] Misselhorn, C.: Grundfragen der Maschinenethik. Ditzingen 2018, 5. Aufl. 2022.

[2] Misselhorn, a.a.O.

[3] Moor, J.H. (2006): The Nature, Importance, and Difficulty of Machine Ethics. In: 21 IEEE Intelligent Systems, 18-21.

[4] Misselhorn Grundlagen der Maschinenethii, 70ff.

[5] Zu den Unterschieden zwischen moralischen Ratgebern und moralischen Akteuren vgl. Anderson, S. L. (2011): Machine Metaethics. In: Michael Anderson und Susan L. Anderson (Hrsg.): Machine Ethics. Cambridge, 21-27.

[6] Urbina, F., Lentzos, F., Invernizzi, C. et al. (2022): Dual Use of Artificial-Intelligence-Powered Drug Discovery, in: Nature Machine Intelligence 4, 189–191.

[7] Misselhorn a.a.O.

[8] Kayali, Ö. (2023): Wenn die AI rebelliert – Chatbots verweigern selbst einfachste Aufgaben. Online: https://www.ingame.de/news/chatgpt-bing-microsoft-openai-chatbot-ki-kuenstliche-intelligenz-moral-nutzer-hamburg-zr-92111940.html [Zugriff zuletzt am 24.03.23]

[9]Strathmann, M. (2022): KI ChatGPT: Die wichtigsten Fragen und Antworten zum neuen Chatbot . Online: https://www.heise.de/news/ChatGPT-Die-wichtigsten-Fragen-und-Antworten-zum-neuen-Chatbot-7394494.html [Zugriff zuletzt am 24.03.23]

[10] Turing, A. (1950/2021): Computing Machinery and Intelligence/Können Maschinen denken?

Englisch/Deutsch. Aus dem Englischen übers. und hg. von A. Stephan und S. Walter, Ditzingen: Reclam 2021.

[11] Zur Kritik am moralischen Turingtest vgl. Arnold, Th.und Scheutz, M. (2016): Against the Moral Turing Test – Accountable Design and the Moral reasoning of Autonomous Systems. In: Ethics and Information Technology 18, 103-115.

[12] Habermas, J. (1983): Moralbewusstsein und kommunikatives Handeln. Frankfurt a.M.: Suhrkamp.


[1] ChatGPT: Schreiben künftig Maschinen Texte anstelle von Menschen? Über Chancen und Risiken KI-basierter Sprachmodelle, in: Newsletter Uni Tübingen aktuell Nr. 1/2023: Forschung. Online: https://uni-tuebingen.de/de/244639#c1746064 [Zugriff zuletzt am 24.03.23]

[2] Eine Auswahl findet sich hier: https://www.plattform-lernende-systeme.de/ergebnisse/standpunkte/was-kann-chatgpt.html [Zugriff zuletzt am 24.03.23]