Chat GPTs als eine Kulturtechnik betrachtet – eine philosophische Reflexion

Von Sybille Krämer (Leuphana Universität Lüneburg)


Meine Überlegungen wollen beschreiben und ein Stück weit verstehen, was geschieht und was möglich sein wird angesichts von Chatbots (beispielsweise Chat GPTs), die  gegenwärtig Furore machen. Mein Blick ist kulturtechnisch präformiert und philosophisch grundiert.  Es geht mir in diesem Blog nicht darum, diese Version Künstlicher Intelligenz zu kritisieren oder ihre Mängel zu reklamieren, denn das wird vielfach schon getan. Und die Fehler von heute sind die Fortschritte von morgen. Ich möchte vielmehr nachdenken über das, was die Leistungen der Chabots aussagen über die ‚Natur‘ der Sprache, das Kommunizieren und Verstehen, sowie das Mensch/Maschine Verhältnis.  

1. Die Avantgarde zeitgenössischer Software Künstlicher Intelligenz (KI) besteht darin, Algorithmen zu entwickeln, die neue, noch nicht dagewesene Bilder (etwa Dall-E) oder neue Texte (etwa GPT von OpenAI oder Bard von Google) generieren und zwar mittels natürlichsprachlicher Eingaben. Diese Erzeugnisse sind jeweils Unikate und keine Plagiate. Sie sind synthetisch neu erzeugt, nicht irgendwo im Netz aufgefunden. Signifikant ist, dass die neuesten Chatbots eine Nutzung Künstlicher Intelligenz als eine Kulturtechnik  zur Verfügung stellen. Und dass diese Algorithmen auch nicht nur als ‚Hintergrundverfahren‘ laufen, wie es jetzt schon der Fall ist bei Spamfiltern, Gesichtserkennung, GPS-Navigation und Smartphone Fotografie. Vielmehr kann diese Software von Nutzer*innen bewusst eingesetzt werden, um mit Hilfe natürlichsprachlicher Instruktionen Bilder, Quellcode und Texte zu erzeugen. Wir beziehen uns im Folgenden auf die textgenerierenden Chatbots GPT 1-4.

2. Diese auf Large Language Models (LLMs) beruhenden Chatbots arbeiten nicht semantisch im Sinne des menschlichen Sprachverstehens. Sie verstehen nicht die Bedeutung dessen, was sie als Text synthetisieren. Alles, was die Systeme tun, vollzieht sich auf der Ebene der Mustererkennung und Musterproduktion. Die Grundlage bilden Milliarden im Training eingespeister zumeist englischsprachiger Dokumente, die gemäß der Nationalsprache der Nutzerinnen automatisch übersetzt werden; und die durch jede bestätigte Anwendung erweitert und optimiert werden.

3. Die Technik selbstlernender- und optimierender Neuronaler Netze, die Bildung interner Modelle, die auf einer Vielzahl sich im Training überhaupt erst justierender Parameter beruhen, ist nicht neu. Neu jedoch sind die riesigen Datenkorpora, die beim Training eingesetzt werden. Die Innovativität der LLMs liegt also weniger auf Seiten der Lernalgorithmik, sondern auf Seiten der umfangreichen Datifizierung. Augenfällig ist die ‚woke Kommunikationsform‘, mit der neue GPT-Versionen auf Nutzerinstruktionen reagieren. Supervision und Kontrolle durch Hunderte von Clickworkern sollen verhindern, dass diese Chatbots, wie in der Vergangenheit oftmals geschehen, in Rassisten oder Hetzer mutieren.

4. Die Bausteine, mit denen das System arbeitet, sind Buchstabensequenzen (Tokens), die in Zahlenwerte transformiert werden. Also keineswegs bedeutungsvolle Einheiten, die für das menschliche Sprachverstehen grundlegend sind. Berechnet wird die Position dieser Token im Kontext aller übrigen, es geht um Nähe und Entfernungen zwischen Tokens, mit denen die Wahrscheinlichkeit errechnet wird, dass ein bestimmtes Wort dem nächsten folgt. Spielfeld und Operationsbasis von LLMs sind also durch Tokens strukturierte, damit maschinenlesbar gemachte Oberflächen von Datenkorpora. Dieser Umgang mit Daten unterscheidet sich von der Art des menschlichen – auf Sinn und Bedeutung bezogenen – Informations- und Sprachverstehens. Ein Chatbot versteht nicht, was er kommuniziert. Gleichwohl darf dieser Unterschied nicht missverstanden werden als eine grundlegende Beschränkung für die Möglichkeiten maschineller Texterzeugung. Das Besondere der gegenwärtig eingesetzten Large Language Models besteht darin, dass Texte produziert werden, die von menschengemachten Texten nicht mehr unterscheidbar sind. 

5. Möglich ist diese erstaunliche Produktivität aufgrund statistischer Methoden in der Analyse von Datenkorpora. Um die Relevanz dieser ‚statistische Natur‘ am Beispiel des Konzeptes ‚Algorithmus‘ zu verdeutlichen:  Während die klassischen Problemlösungsalgorithmen, die vom schriftlichen Rechnen bekannt sind, bei korrekter Anwendung notwendig zur Lösung führen können prädiktive, also statistisch arbeitende Algorithmen nur wahrscheinliche Outputs erzeugen (95% Katzenbild, 5% Hundebild): das Ergebnis kann stimmen – oder auch nicht. Statistische Einsätze machen nur Sinn wo Texte, Bilder, Musik etc. in strukturierte Punktmengen transformierbar sind. Was Statistiken dann berechnen ist die Verteilung von Elementen in den Populationen: Deshalb spielt das Räumliche, also Nähen und Distanzen zwischen den Punkten, eine so grundlegende Rolle.  

6. Der Computer (hier als Chiffre für digitalisierte Algorithmensysteme) verkörpert eine Oberflächentechnologie. Doch es wäre falsch der ‚Oberflächlichkeit‘ computergenerierter Verfahren die ‚Tiefe‘ hermeneutischer Interpretation seitens der Menschen entgegenzuhalten. Wir sind zwar sozialisiert mit dem Narrativ einer Rhetorik, bei der tiefgründiges Denken erwünscht und fruchtbar, an der Oberfläche zu bleiben dagegen diskriminiert, wenn nicht gar als ‚oberflächlich’ tabuisiert wird. Doch menschliche Erkenntnisarbeit ist undenkbar ohne den Einsatz von Bildern, Schriften, Diagrammen, Graphen oder Karten. Alle Wissenschaften, viele Künste, komplexe Architektur und Technik und die Verwaltung großer Organisationen sind nicht machbar ohne das Medium einer ‚Kulturtechnik der Verflachung‘. Die Projektion in die Zweidimensionalität ist eine kulturstiftende Produktivkraft.

7. Der Computer ist überdies eine forensische Maschine: Mustererkennung und Mustererzeugung sind seine ‚Heimstätte‘ und sein ‚Heimspiel‘. Spuren unserer symbolischen Praktiken, die uns selbst verborgen bleiben, werden im Data-Mining der Maschinen zutage gefördert und auch zum Einsatz gebracht. Daher sind ‚lernende Algorithmen‘ gerade in dem, was an ihnen problematisch ist, auch ein Spiegel der Erkenntnis, welcher zu Bewusstsein bringen kann, was wir gerne verdrängen. Beispielsweise die Verzerrungen und Vorurteile in unserem Alltagsverhalten, dessen Daten als Trainingsgrundlage für lernende Algorithmen dienen und dann von den Algorithmen konkret angewendet werden. 

8. Zu dem, was gerne verdrängt wird, gehören akademisch die blinde Flecken im Selbstbild der Geisteswissenschaften, die Hermeneutik und Interpretation gerne als Königsweg und Alleinstellungsmerkmal deuten. Das ist falsch.  Denn auch die Geisteswissenschaften haben von Anbeginn – denken wir an historische Datierung, an Seitenzahlen, Konkordanzen, Werkkataloge –  nicht nur mit Zahlen und Daten, sondern ‚buch’stäblich auch mit Objekten und Materialien zu tun haben, die gefunden, gesammelt, geordnet, ausgezeichnet, annotiert, verglichen, archiviert etc. werden müssen. Ohne dieses ‚Handwerk des Geistes‘ wäre geisteswissenschaftliche Interpretation nicht möglich. Es ist zu erwarten, dass die digitale Literalität als eine Kulturtechnik, ohne welche akademische Gelehrsamkeit heute kaum praktizierbar ist, sich unter dem Einfluss von GPTs verändern wird.  So wie heute Suchanfragen im Netz eine unerlässliche Dimension  geisteswissenschaftlicher Arbeit sind, so werden in Zukunft Assistenzarbeiten von ChatGPT (Literaturlisten zusammenstellen, Kurzinfos über Buchinhalte/Aufsätze geben, abstracts schreiben etc. ) viele Bereiche geisteswissenschaftlicher Arbeit unterstützen. Dass es um ‚unterstützen‘ und nicht um ‚ersetzen‘ geht, ist bedeutsam. Denn alle GPT produzierten Texte sind fiktional; es liegt an uns, diese immer auch zu überprüfen auf Wahrheit und Faktizität. Aber gilt das nicht für jeden Text? 

9. Mit dieser Frage zeichnet sich ein ethisches Problem ab. In 95 % dessen, was wir wissen,  verlassen wir uns auf Worte, Schriften und Bilder anderer. Dass wir unsere Überzeugungen eigenhändig auch rechtfertigen können (wie es die Philosophie vorgibt bzw. erwartet), gilt für nur wenige Wissensbereiche. Im Rahmen der Sozialität unserer Epistemologie verlassen wir uns in vielen Hinsichten auf das was andere uns erzählen/zeigen. Es ist das Vertrauen in Personen und Institutionen (Schulen, Verlage…), welche das ‚Wissen durch die Worte anderer‘ erst ermöglicht. Als Menschen neigen wir dazu denen zu vertrauen, die uns am ähnlichsten sind (daher die ‚Gentlemen‘ eingesetzt als Zeugen im Beginn der Neuzeit, als Experimente noch nicht reproduzierbar waren). Doch wie verhält es sich mit der Vertrauenswürdigkeit unter den Bedingungen ChatGPT erzeugter Texte? Liegt im Schwund des Vertrauens ein Problem?

10. Das ethische Hauptproblem liegt darin, dass Fakes nun so zwanglos produzierbar sind (‚Schreibe einen Text mit 300 Zeilen, warum Impfen schädlich ist‘). Doch das Problem der Fake News ist nicht neu. Neu und ungeklärt ist z.B., wie im Bildungsbereich, an Schulen und Universitäten mit dem GPT- Potenzial umzugehen ist.  Dieser Umgang muss gelehrt werden, aber damit verbunden muss auch gelernt werden, wie die Assistenz durch GPTs und die Verwendung von maschinengenerierten Texten – wie bei jedem Rückgriff auf die Verwendung nicht selbst entwickelter Ideen – im akademischen Kontext zu belegen ist.

11. Wir gewinnen einen anderen Blick auf uns: Kommunikation und Kultur sind in hohem Maße ritualisiert, beruhen auf Wiederholung, bei welcher der Sinn dessen, was man tut, nicht so maßgeblich ist, wie die Art wie man etwas tut. Unsere Produktivität im Denken beruht gerade auch darauf, Bereiche zu schaffen, in denen wir unter Absehung vom Sinn etwas erfolgreich bewerkstelligen. Wir können gut rechnen, weil wir uns nicht herumschlagen mit der Frage, was eine Zahl oder warum ‚0‘ überhaupt eine Zahl ist. Operieren und beherrschen zu können, ohne verstehen zu müssen ist das allgemeine Dispositiv des Technischen. Und apropos Technik: die menschliche Intelligenz war niemals ‚natürlich‘ und ist auch nicht rein individuell, sondern ist immer schon geprägt durch das soziale Handwerk des Geistes, ist distribuierte soziale Intelligenz. Sich verständigen zu können, ohne ‚sich verstehen zu müssen‘, ist auch ein Geheimnis sprachlicher Kommunikation: Emmanuel Levinas beklagt, dass wir die Anderen stets in der an Odysseus orientierten, egologischen Perspektive deuten (im Andern zu sich selbst zurückkehren). Und um mit einem ketzerischen Satz zu schließen: Ist Interpretation vielleicht nur die Kompensation dafür, etwas nicht zu wissen? Alles das ist nicht neu, neu ist nur, dass GPT solche Gedanken evoziert/provoziert.


Prof. Dr. Dr. h.c. Sybille Krämer war bis 2018 Professorin für Philosophie an der Freien Universität (https://www.geisteswissenschaften.fu-berlin.de/we01/institut/mitarbeiter/emeriti/kraemer/index.html). Derzeit ist sie Gastprofessorin an der Leuphana Universität Lüneburg am Institut für Kulturen und Ästhetik Digitaler Medien (ICAM). Homepage: http://sybillekraemer.de/.

Ehemals Permanent Fellow am Wissenschaftskolleg zu Berlin; ehemals Mitglied im Wissenschaftsrat, im European Research Councel und im Senat der DFG. Zahlreiche Gastprofessuren, Ehrendoktorwürde der Universität Linköping, Schweden. Forschungsgebiete u. a.: Philosophischer Rationalismus und soziale Epistemologie, Sprach- und Medienphilosophie, Kulturtechniken des Digitalen.

Jüngere einschlägige Essays von Sybille Krämer

Der ‚Stachel des Digitalen‘ – ein Anreiz zur Selbstreflexion in den Geisteswissenschaften? Ein philosophischer Kommentar zu den Digital Humanities in neun Thesen, in: Digital Classics Online, Bd. 4,1, (2018) ed. Charlotte Schubert https://doi.org/10.11588/dco.2018.0

‚Kulturtechnik Digitalität‘. Über den sich auflösenden Zusammenhang von Buch und Bibliothek und die Arbeit von Bibliotheken unter den Bedingungen digitaler Vernetzung, in: Christina Köstner-Pemsel, Elisabeth Stadler, Markus Stumpf (Hg.): Künstliche Intelligenz und Bibliotheken. 34. Österreichischer Bibliothekartag. Graz: Grazer Universitätsverlag.

Reflections on ‘operative iconicity’ and ‘artificial flatness’, in: David Wengrow (ed.), Image, Thought, and the Making of Social Worlds, Freiburger Studien zur Archäologie & Visuellen Kultur Bd. 3, Heidelberg 2021: Propylaeum; 252 – 272.  DOI: https://doi.org/10.11588/propylaeum.842

The Artificiality of the Human Mind: A Reflection on Natural and Artificial Intelligence. In: Artificial Intelligence and Humane Enhancement, ed. Herta Nagl-Docekal & Waldemar Zacharasiewicz. Berlin, New York: de Gruyter 2022, S. 17-32.

Should we really ‚hermeneutise‘ the Digital Humanities? A plea for the epistemic productivity of a ‚cultural technique of flattening‘ in the Humanities. In: >Theorytellings: Epistemic Narratives in the Digital Humanities<Journal Cultural Analytics, Vol7, Nr 4, 30.01.2023 https://culturalanalytics.org/article/55592-should-we-really-hermeneutise-the-digital-humanities-a-plea-for-the-epistemic-productivity-of-a-cultural-technique-of-flattening-in-the-humaniti.