Künstliche Intelligenz und unser Selbstverständnis der Techniknutzung

Von Johannes Kögel und Andreas Wolkenstein (München)

Das mediale Interesse an künstlicher Intelligenz (KI) – wie an so vielen anderen Themen – steigt und fällt seit Jahrzehnten. Je nach Anlass werden dann die immer gleichen Bedrohungen hervorgekehrt und die immer gleichen Risiken gebetsmühlenartig wiederholt. Besonders medienwirksame Ereignisse waren etwa die Siege von Schachcomputern gegen Schachweltmeister (Deep Blue 1997 gegen Garry Kasparov und Deep Fritz 2006 gegen Waldimir Kramnik) oder der Software AlphaGo gegen den mehrfachen Go-Weltmeister Lee Sedol im Jahre 2016. Dabei wurde ein ums andere Mal unmissverständlich gezeigt, dass der Mensch der Maschine unterlegen sei. Der Computer triumphiert. Die künstliche Intelligenz habe die menschliche Intelligenz überholt und abgehängt.

Das Furchteinflößende dieser Demonstrationen von Maschinenintelligenz hat jedoch, so scheint uns, über die Zeit abgenommen. Und das mit Recht. Worum handelt es sich hier schließlich? – Um reine Rechenleistung. Jeder Taschenrechner rechnet schneller und effizienter als wir und dazu noch fehlerfrei. Tippfehler müssen wir auf die eigene Kappe nehmen.

Großartig ändert sich daran auch nichts, dass sich diese Computerprogramme übermenschliche Schach- oder Go-Fähigkeiten selbst beigebracht haben. Lediglich mit wenigen Ausgangsdaten ausgestattet, ist es diesen Rechenmaschinen möglich, sich innerhalb kürzester Zeit Fähigkeiten anzueignen, von denen kein menschlicher Spieler zu träumen vermag. Dieser selbstgesteuerte Lernprozess wird als „Machine Learning“ oder, wenn auf neuronale Netzwerke gestützt, als „Deep Learning“ bezeichnet.

Computer sind, wenn es ums Rechnen geht, unübertroffen. Daher verwenden wir sie auch gerne, inzwischen fast überall. So soll es auch sein. Die Rechenleistung von Computern stellt eine unermessliche Erleichterung für unsere Arbeitswelt dar.

Dass man das so nüchtern betrachten kann, liegt daran, dass es sich bei den Schachcomputern und Ähnlichem um so genannte „schwache“ KI handelt. Schwache KI zeichnet sich dadurch aus, dass sie auf einem ganz bestimmten Gebiet und eben nur diesem Gebiet Anwendung findet. AlphaGo kann nur Go spielen und sonst nichts. Die Einparkhilfe kann einparken, Face ID kann Gesichter erkennen, usw. AlphaGo nutzt seine gewonnene Berühmtheit nicht dazu, als Präsident*in zu kandidieren, und Face ID bereichert sich nicht durch die Ausspähung von Privatpersonen. Sie können dazu missbraucht werden, doch dies nur durch Personen: durch Entwickler*innen, Unternehmer*innen, Hacker*innen oder sonstige Personen, die sich dazu Zugang verschaffen können.

Gleichzeitig verweisen die KI-Erfolge als Belege maschineller Dominanz auf ein recht einseitiges Intelligenzverständnis. Betrachtet man lediglich Rechenleistung als Maßstab für Intelligenz, hat der Mensch der Maschine tatsächlich wenig entgegenzusetzen. Doch was Deep Fritz, AlphaGo und Co machen, ist, unzählig viele Möglichkeiten im Vorhinein zu berechnen. Sie erahnen keinen Bluff und lesen auch sonst keine affektiven Zustände in Menschen aus, obwohl auch an solcher Software gearbeitet wird. – Man spricht hier von „Emotional AI“ (McStay 2018). Bereits der KI-Pionier Marvin Minsky betonte die Bedeutung von Emotionen für die KI. Diese müsse zur „Emotion Machine“ (2006) werden. – Der Punkt ist, dass das menschliche Spektrum an Fähigkeiten, Kompetenzen, Dispositionen und Charakteristika um einiges breiter ist als das jeglicher Form von bestehender KI.

All diese Gewissheiten scheinen sich jedoch grundlegend zu ändern, wenn es doch eines Tages soweit seien sollte; also wenn AlphaGo seine spielerischen Erfolge selbständig auf Instagram und Twitter postet, seine Biographie über Amazon verkauft und beim virtuellen (oder sogar haptischen) Kaffeetrinken mit digitalen oder analogen Bekannten über seine Erfolgsaussichten beim nächsten Turnier parliert. Spätestens dann wäre der Punkt der „starken“ KI erreicht: eine Form von KI, die verschiedene Kompetenzen in sich vereint und von der Außenwelt als ganzheitliche Akteur*in wahrgenommen werden kann. Ein solches Szenario bringt auf einen Schlag wieder all jene Befürchtungen und Ängste zu Tage, die von jeher mit KI in Verbindung gebracht worden sind: das Ende der Menschheit und die Übernahme der Welt von rein rational operierenden und emotionslosen Maschinen und Robotern oder Androiden.

Noch sind wir nicht soweit, Expert*innen sagen die erste starke KI allerdings für die kommenden Jahrzehnte voraus.

Abschied vom herkömmlichen Handlungs- und Technikverständnis

Wie diese starke KI einmal aussehen und funktionieren wird und welche Form und Operationsweise an Intelligenz diese haben wird, ist unklar. Was unseres Erachtens allerdings als absehbar erscheint, ist, dass unser traditionelles Verständnis von Techniknutzung und damit auch von Handlungen fragwürdig werden und der Änderung bedürfen wird. Es wird dann nicht mehr angenommen werden können, dass wir ein technisches Medium X verwenden um damit Y zu erreichen. Die starke KI wird nämlich selbst entscheiden, was es tut, und das auf eine Weise, die von außen betrachtet nicht verlässlich vorhergesagt werden kann. Wir möchten an dieser Stelle keine Mutmaßungen anstellen, wie sich das Techniknutzungs- und Handlungsverständnis entwickeln wird. Alternative Handlungskonzeptionen, sei es die Prozessontologie, die Akteur-Netzwerk-Theorie oder Theorien verteilter Handlungsfähigkeit, durchziehen sowohl die sozialtheoretische als auch die Philosophiegeschichte. Wir möchten am Beispiel eines eigenen Forschungsprojekts zu Hirn-Computer-Schnittstellen bzw. Brain-Computer-Interfaces (BCIs) aufzeigen, dass bereits hier Anzeichen für eine Disruption unseres „klassischen“ Technikverständnisses erkennbar werden.

Ein Brain-Computer Interface (BCI) ist eine Schnittstelle zwischen einem Gehirn und einem Computer, die eine funktionelle Interaktion zwischen Benutzer*in/Person und der Außenwelt unter Auslassung des peripheren Nervensystems (also unter Umgehung von Körperfunktionen wie Motorik oder Sensorik) ermöglicht. Gehirnaktivität wird gemessen (invasiv, das heißt durch implantierte Elektroden, oder nicht-invasiv, zum Beispiel mit Hilfe eines EEG), als digitale Signale prozessiert und in Computerbefehle übersetzt, wodurch man verschiedene Anwendungen ausführen kann, z.B. das Bedienen eines Kommunikationsassistenten, das Spielen eines Computerspiels, oder das Steuern einer Prothese (für weitere Unterscheidungen siehe Graimann et al. 2008). Das heißt, dass man quasi rein durch Gedankenkraft technologische Geräte bedienen kann.
Künstliche Intelligenzen sind nicht notwendigerweise Bestandteil von BCIs, aber machen vieles einfacher. Deep Learning wird beispielsweise bei der Auslesung der neuronalen Aktivität eingesetzt, wodurch die Hirnsignale und damit die gedanklichen Befehle der Nutzer*innen mit der Zeit immer besser erkannt werden können.                                

Als „klassisch“ begreifen wir ein Technikverständnis, das als akteurszentriert aufgefasst werden kann: ein Individuum nutzt oder verwendet eine Sachtechnik um ein bestimmtes Ziel zu erreichen. Z.B. verwende ich einen Hammer um einen Nagel, an dem ich ein Bild aufhängen möchte, in die Wand zu schlagen. Maßgeblich dabei ist meine Handlungsintention, wobei das notwendige Knowhow (die gekonnte Handhabung des Hammers) vorausgesetzt wird.

Wir haben Anwender*innen von BCIs interviewt und nach deren Wahrnehmung und Auffassung der Techniknutzung befragt (Kögel et al. 2020).

Die von uns befragten Anwender*innen verfügen über eine wie bereits beschriebene, also akteurszentrierte Vorstellung von Nutzung. Sie beschreiben den Computer, mit dem sie über Elektroden (EEG oder Implantate) und Kabel verbunden sind, als „verlängerten Arm“ oder „ausführende Kraft“. Für sie steht fest, dass „der Mensch die Maschine steuert“ und nicht andersherum.

In den meisten Fällen verarbeitet der Computer die Befehle (sprich Gedanken) der Anwender*innen so, wie diese das wollen, also entsprechend der Handlungsintention der Personen – was ja als Kriterium für eine gelungene oder erfolgreiche Handlung deklariert wurde. Solange das gewünschte Ergebnis erzielt wird, wird den Anwender*innen auch kein Grund gegeben, ihr Selbstverständnis als Akteur*in sprich als Urheber*in der BCI-Aktionen in Frage zu stellen. D.h. in der Praxis: Die Anwender*in denkt daran, ihren Arm zu heben, und die Armprothese, die über das BCI gesteuert wird, fährt um wenige Zentimeter nach oben. Oder die Anwender*in konzentriert sich auf das „K“, abgebildet auf einem Bildschirm, der eine Matrix mit verschiedenen Buchstaben zeigt, und in dem zuschreibenden Text erscheint ein „K“ in der entsprechenden Textzeile.

Klappt das allerdings nicht, liefert das BCI also ein von der Handlungsabsicht abweichendes Ergebnis, ändert sich das Bild. Schlage ich etwa mit dem Hammer neben den Nagel, nutzt es wenig, die Schuld auf den Hammer, den Nagel oder die Wand zu schieben. Im Falle des BCI erlaubt allein der komplexe und aufwendige Apparat des BCI, sprich der Computer samt seiner Messvorrichtung und den zwischen diesen als auch zwischen Elektroden und den Anwender*innen geschalteten Verbindungen und Kontakten und etwaigen zusätzlichen Gerätschaften (Prothesen, Orthesen, Robotern, Exoskeletten, Rollstühlen, o.Ä.) eine Vielfalt an verschiedenen potentiellen Fehlerquellen.

Die Anwender*in wird dann unsicher: Lag der Fehler an mir? War ich abgelenkt oder habe ich mich nicht stark genug konzentriert? Kam es zu technischen Problemen? Ist die Kalibrierung des Geräts grenzwertig? Sind die Elektroden verrutscht oder sitzen nicht richtig? Ist die eingestellte zeitliche Taktung nicht richtig auf mich abgestimmt? Sind sonstige Störvariablen aufgetreten? Umweltfaktoren, Kontaktschwächen, menschliches Eingreifen in die Software, irgendwelche sonstigen Soft- oder Hardwareprobleme?

Die Situation verkompliziert sich zusätzlich, wenn dem Computer eine weitere Rolle zukommt. So kann beispielsweise eingestellt werden, dass die BCI Aktionen zu 60 % vom Computer und zu 40 % von der Anwender*in initiiert werden sollen. Auch sonstige prozentuale Einstellungen sind möglich. Teilweise wird die Anwender*in darüber im Unwissen gehalten. Damit wird ihr dann auch das Einschätzungsvermögen genommen, ob oder wie sehr sie für den Output des BCI zuständig oder verantwortlich ist. Bei manchen Anwendungen sind auch selbstlernende Programme zwischengeschaltet, die sich im Laufe der Anwendung immer besser an die Anwender*in anpassen können und daher stetig besser Ergebnisse erzielen und mitunter auch im Nachhinein vorherige Fehler oder Misserfolge ausbessern können (etwa bei Buchstabierprogrammen, die zuvor falsch erkannte Buchstaben zu identifizieren vermögen und im Laufe des Anwendungs- und Lernprozesses automatisch korrigieren). Dies beeinflusst ebenso das Einschätzungsvermögen der Anwender*innen sowohl in Bezug auf die eigentlich nicht erfolgreichen aber nun nichtsdestotrotz richtigen Befehle als auch in Bezug auf kommende Befehle, die mitunter weniger akzentuiert durchgeführt werden müssen, da der Computer sich immer besser anzupassen versteht.

Doch auch abgesehen von diesen Szenarien bezeugen die Anwender*innen eine gewisse Unsicherheit bei ungewollten BCI-Ergebnissen. Bei erfolgreichen BCI-Aktionen steht für die Anwender*in fest: „Ich war aktiv“ oder „Ich bin es, der tätig war“. Bei Fehlversuchen heißt es hingegen gerne: „wenn ein falscher Befehl ausgeführt wurde …“, womit bereits ausgedrückt wird, dass es unklar ist, wer oder was genau dafür verantwortlich zu machen ist. Gefragt nach den Ursachen für nicht intendierte BCI-Aktionen kommen die Anwender*innen mitunter ins Grübeln. Ein Anwender sieht zunächst den Fehler bei sich: „Also ich denke, ich habe mich nicht genug konzentriert. Aber es kann auch sein…“, fällt ihm sogleich ein, „dass vielleicht die Messmethode nicht optimal war“, und wenig später kommt er auf den Gedanken: „Vielleicht war die Zeit einfach zu kurz“. Zudem war da auch noch der Baustellenlärm auf der Straße, welcher ebenso das Seinige beigetragen haben möge. Es fällt den Anwender*innen also alles andere als leicht, eindeutige Kausalzusammenhänge in all dem komplexen und voraussetzungsreichen Handlungsgefüge rund um das BCI zu identifizieren.

Zumindest aus subjektiver Sicht wird dann die Ursache-Wirkung-Verkettung, die die stillschweigende Grundlage für unser Handlungsselbstverständnis im Alltag bildet, fragwürdig und unterbrochen. Das Schema „Ich benutze Technik X um Y zu erreichen“ funktioniert nicht mehr reibungslos, da zum einen X mehr zu dem Handlungsoutput beiträgt als mir das lieb wäre, und zum anderen ich mit X derart eng verbunden bin, dass es schwer fällt, klar identifizierbare und von anderen Komponenten separierbare Verursachungsquellen zu erkennen und/oder zu benennen. 

Die Sache einfacher macht es, wenn Emotionen im Spiel sind. Wir hatten ja bereits festgestellt, dass Emotionen bzw. zumindest das Erkennen und Simulieren von Emotionen bisher nicht von KI auf einem vergleichbaren Level gewährleistet werden können. Emotionen bleiben daher etwas zutiefst Menschliches. Emotionen treten bei der Anwendung von BCIs vor allem dann gerne auf – in Form von Frustration und Ärger – wenn das BCI nicht so will, wie es die Anwender*in gerne hätte. Die Problematik dabei ist, wie es ein Anwender beschreibt: „Ich durfte mich in dem Moment nicht aufregen, weil das wäre ja wieder ein Signal gewesen und das hätte das Training verfälscht.“ Starke Gefühlsregungen, wie der Ärger über einen unerwünschten BCI-Output (z.B. die Auswahl des Buchstaben „T“ durch den Computer, obwohl man das „K“ ansteuern wollte), führen zu starken Hirnsignalen, die die für die BCI-Tätigkeiten gewünschten Hirnsignale überdecken oder zumindest beeinflussen, sodass es in der Folge immer zu weiteren Fehlversuchen und unerwünschten BCI-Outputs kommt. „Du darfst keine Emotionen haben“ ist das Fazit des Anwenders, zumindest nicht dann, wenn man an das BCI angeschlossen ist. Dieser Umstand, dieser „Imperativ der Emotionslosigkeit“, stellt eine Herausforderung für eine reibungslose Techniknutzung dar. Wie für KI im Allgemeinen gilt es für das BCI für die Zukunft, Emotionen entsprechend verarbeiten zu können. Bis es soweit ist, stellen sie eine dankbare Identifikationsquelle dar: Wo Emotionen im Spiel sind, da bin ich involviert, ist die Fehlerquelle für unerwünschte BCI-Aktionen erkennbar und damit mir als verantwortlichem Verursacher zuschreibbar.

Die Herausforderungen der Zukunft

Damit wurde skizziert, worin wir eine, wenn nicht gar die wesentlichste Herausforderung, für unser gewöhnliches, kausal informiertes Denken generell, aber für die Wissenschaft und ihr Prozedere im Besonderen sehen. Die Zusammenhänge zwischen Ereignissen, geordnet nach Ursachen und Wirkungen, gehen uns verloren. Künstliche Intelligenz liefert uns Ergebnisse ohne jegliche Transparenz dafür, wie es zu diesen gekommen ist. Diese Diskrepanz, diese Erklärungslücke wurde in dem brillanten Essay von Jonathan Zittrain (2019) The Hidden Costs of Automated Thinking als „Intellektuelle Schuld“ bezeichnet. Während wir diese zum Beispiel bei Medikamenten, die wirken, aber deren Wirkweise wir (noch) nicht verstehen, bereit sind hinzunehmen, wird dies problematisch, wenn es Einzug erhält in die technische Welt, welche wiederum ganz wesentlich unser Leben bestimmt. Wie hier beschrieben, kann dies relevant werden, wenn es um unsere eigene Handlungsfähigkeit und damit unsere Selbsteinschätzung und unser Selbstbild geht.

Manche postulieren, diese Erklärungslücke, diese intellektuelle Schuld einfach hinzunehmen und für das wissenschaftliche Paradigma ein „End of Theory“ (Anderson 2008) zu postulieren.  Erklärungsmodelle seien danach obsolet, Daten kreieren ihre eigenen Ergebnisse unabhängig von Theorien, Modellen und Hypothesen. Das hieße allerdings nicht nur, ad absurdum zu führen, was Wissenschaft ist und bisher war, sondern es hieße auch für uns in unserem Alltag, schlichtweg auszuhalten, dass man nicht weiß, was wie und mit welchen Konsequenzen geschieht. Wir wissen von den wenigsten Sachen, wie sie eigentlich funktionieren, es kümmert uns nicht. Zumindest nicht solange sie nicht unvorhersehbare oder überraschende Resultate liefern. Oder es hat uns bisher beruhigt zu wissen, dass irgendwer sich zumindest prinzipiell womit auch immer auskenne. Und damit dies auch zumindest prinzipiell so bleibt, sollte uns daran gelegen sein, nach Erklärungen zu suchen und möglichst erklärungskräftige Antworten auf schwieriger werdende Fragen zu finden.

Für unser Beispiel hieße das, für Technologien der Gegenwart und Zukunft wie BCIs neue Erklärungsansätze für Handlungen zu entwickeln. Theoretische Ansätze stehen, wie gesagt, zur Verfügung. Ob man nun mit diesem oder jenem Ansatz arbeiten mag: Feststeht, dass mit der Künstlichen Intelligenz nicht nur Fragen über Technologie, sondern vor allem auch Fragen über unser Selbstverständnis als Menschen und handlungsfähige Personen aufgeworfen werden.


Anderson, Chris. 2008. The End of Theory: The Data Deluge Makes the Scientific Method Obsolete. Wired, June 23, 2008.

Graimann,  Bernhard/Allison, Brendan & Pfurtscheller, Gert. 2008. Brain–Computer Interfaces: A Gentle Introduction. In: Graimann, B./ Pfurtscheller, G. & Allison, B. (Hrsg.) Brain-Computer Interfaces. Heidelberg: Springer, 1-27.

Kögel, Johannes/ Jox, Ralf J., & Friedrich, Orsolya. 2020. What is it like to use a BCI? – Insights from an Interview Study with Brain-Computer Interface Users. BMC Medical Ethics.

McStay, Andrew. 2018. Emotional AI: The Rise of Empathic Media. London: Sage.

Minsky, Marvin. 2006. The Emotion Machine: Commonsense Thinking, Artificial Intelligence, and the Future of the Human Mind. New York, NY: Simon & Schuster.

Zittrain, Jonathan. 2019. The Hidden Costs of Automated Thinking. The New Yorker, July 23, 2019.


Johannes Kögel ist Wissenschaftlicher Mitarbeiter am Institut für Ethik, Geschichte und Theorie der Medizin der LMU München. Zurzeit beschäftigt er sich mit Brain-Computer-Interfaces, Xenotransplantation und simbabwischen Migrant*innen in Südafrika. Im Fokus stehen dabei stets Grenzerfahrungen und -überschreitungen, sei die Grenze physisch/körperlich, geographisch/territorial/politisch, oder ideell/sozial konstruiert. Er studierte Philosophie und Soziologie in München und Kapstadt.

Andreas Wolkenstein arbeitet als Wissenschaftlicher Mitarbeiter am Institut für Ethik, Geschichte und Theorie der Medizin der Ludwig-Maximilians-Universität München. Dort beschäftigt er sich unter anderem mit neuroethischen Themen und der Ethik künstlicher Intelligenz. Sein besonderes Interesse gilt der politischen Philosophie und dem Versuch, verschiedene angewandte Ethiken unter dem Blickwinkel der politischen Philosophie zu betrachten. Er hat in Tübingen und Paris Philosophie, Theologie und Geschichte studiert.