Medienbildung und anthropomorphe Maschinen

von Tobias Hölterhof (Köln)


Vor wenigen Woche veröffentlichte ein Startup-Unternehmen aus dem Bereich der künstlichen Intelligenz ein Video auf YouTube. Zu sehen sind zunächst zwei Menschen: Ein Mann und eine Frau stehen bewegungslos da. Sie blicken die Zuschauenden des Videos posend an und tragen lässige Kleidung. Der Mann ist mit einem dunkelgrauen Parka, einer sandfarbenen Hose und hohen Lederstiefeln bekleidet. Die Frau ist weniger warm angezogen. Sie trägt glänzende Stiefel, eine dreiviertel lange, schwarze Hose und einen olivgrünen Pullover. Nach wenigen Sekunden springt das Video zu einer Matrix von drei mal fünf ähnlichen Bildern. Zu sehen sind zunächst sich bewegende Männer. Alle sind lässig bekleidet und verändern ruhig ihre Gebärden. Sie machen einen kleinen Schritt zur Seite oder bewegen bedacht ihre Schultern. Der Blick ist stets nach vorne auf den Zuschauenden gerichtet. Dann metamorphosieren die Personen während ihrer Bewegung zu Frauen. Manche lehnen sich an eine Wand an. Plötzlich kehrt sich die Bewegung der Personen um, als würde der Film eine kurze Zeit rückwärts laufen. Dann sind alle 15 Personen in exakt der gleichen Körperhaltung und -bewegung zu sehen. Die Männer und Frauen sind völlig unterschiedlich gekleidet jedoch halten sie ihre Arme und Hände an der gleichen Stelle. Ihre Schultern haben den gleichen Winkel, der Kopf schaut mit dem gleichen Blick und alle Beine sind leicht angewinkelt. Für einen Augenblick sind alle Bewegungen völlig simultan, dann lösen sie sich wieder aus dem Gleichschritt. Das Video springt auf eine Matrix von sechs mal zehn Bildern. Einige der nun sechzig Personen bewegen sich gleich, andere Bewegungen wirken wie horizontale Spiegelungen. Die Dramaturgie ist ungewöhnlich präzise.

Das Startup-Unternehmen DataGrid hat seinen Hauptsitz auf dem Campus der Universität Kyoto in Japan. Das Geschäftsgebiet ist kreative künstliche Intelligenz: Es falle der künstlichen Intelligenz noch recht schwer, kreative Arbeit zu leisten. So stellt die Firma ihre Geschäftsidee auf ihrer Webseite vor. „We have succeeded in generating high-resolution (1024×1024) images of whole-body who don’t exist using Generative Adversarial Networks (GANs)“, erklärt sie unter dem Video auf YouTube. Generative Adversarial Networks sind Algorithmen in Kontext der künstlichen Intelligenz, die zur Generierung fotorealistischer Bilder verwendet werden. Sie bestehen aus zwei künstlichen neuronalen Netzwerken, die sich duellieren: ein Generator versucht aus einer Datenquelle Darstellungen zu erzeugen, währen ein Diskriminator versucht, diese Darstellungen von den generischen Darstellungen zu unterscheiden (vgl. Goodfellow u. a., 2014). Das gegeneinander Aufspielen dieser beiden Netzwerke erzeugt Visualisierungen, die immer weniger als künstliche Visualisierungen erkennbar sind. Das Online-Magazin digitaltrends.com bezeichnet die Produkte als „fake humans“.

Wie in diesem Video besitzt künstliche Intelligenz das Potential zur Täuschung und Vortäuschung des Menschen. Die Unmenschlichkeit einiger Akteure in der digitalen Alltäglichkeit wird für die in ihr handelnden Subjekte jedoch nicht transparent. Dabei handelt es sich um eine moderne Form des Anthropomorphismus. Je mehr das Digitale die menschliche Alltäglichkeit durchdringt, umso mehr scheint es auch menschenähnlicher zu werden. Das Künstliche ist nicht immer als solches zu erkennen: Es bleibt offen, wer Mensch und was Maschine ist. Dieses Video ist hierfür nur ein Beispiel, die Anwendungskontexte sind vielfältig: Social Bots in sozialen Netzwerken, menschenähnliche Roboter in Fabriken oder Pflegeeinrichtungen, etc. Auf diese Weise durchdringt mit vernetzter und intelligenter Technologie auch eine besondere Form des Anthropomorphismus die heutige und digital geprägte Alltäglichkeit. Diese Durchdringung prägt die heutige Welt und mit ihr auch das Verhältnis, welches ein in ihr handelndes Subjekt zur Welt als solches entwickelt und einnimmt. Mit der Veränderung dieses Verhältnisses beschäftigt sich auch Bildung und Medienbildung (vgl. z.B. Meder, 2007).

Doch die Vortäuschung des Menschen scheint die Wahrnehmung zu verzerren: Künstliche Intelligenz spielt mit falschen Karten. Warum suggeriert sie das Menschliche, warum sucht sie das Duell mit dem Menschen? Gibt es keine generische Form der künstlichen Intelligenz? Die hier thematisierte Verzerrung der Wahrnehmung wird auch in der Informatik angesprochen und gilt als „forensisches Problem“ (vgl. z.B. Proudfoot, 2011; Zlotowski u. a., 2015). Es manifestiert sich etwa in der Definition von künstlicher Intelligenz, wie sie Alan Turing vorgeschlagen hat. Dabei handelt es sich nicht wirklich um eine Definition, sondern Turing ersetzt die Definition von künstlicher Intelligenz durch ein Spiel, in welchem eine Maschine die Rolle eines menschlichen Spielers einnimmt. Eine Maschine sei dann intelligent, so Turing, wenn der Mensch nicht bemerkt, dass er gegen eine Maschine spielt (vgl. Turing, 1950). Nicht nur was die Definition einer solchen Maschine angeht stellt sich hier die Frage, inwieweit ein solcher Anthropomorphismus eine objektive Beurteilung künstlicher Intelligenz erschwert. Wie soll man eine intelligente Maschine tatsächlich als Maschine erkennen, wenn sie stets versucht etwas vorzutäuschen? In dieser Frage ist nicht nur das epistemologische Problem der Informatik angesprochen: die Frage spannt auch eine kritische Kategorie auf, die Aspekte von Bildung in einer digital geprägten Alltäglichkeit berühren.

Unter dem YouTube-Video von DataGrid erscheinen zahlreiche Kommentare. Es wird darüber diskutiert, ob diese Technologie die Karrieren von Models zerstören wird. Wozu braucht man noch Menschen und aufwändige Fotoshootings, wenn künstliche Intelligenz die Resultate solcher Arbeit einfach ausrechnen kann? Man könnte Mode-Videos für alle Kleidungsstücke in einem Online-Shop automatisch generieren lassen, ohne dass dafür ein einziger Menschen vor einer Kamera abgelichtet werden müsste.

Die hier angesprochene Befürchtung vertieft das epistemologische Problem. Sie zeigt, dass Maschinen nicht nur aussehen wie Menschen, sie können Menschen auch ersetzen. Im Grunde zählt das Ersetzen menschlicher Arbeit sogar zu den konstitutiven Eigenschaften einer Maschinen (vgl. Krämer, 2003). Der Begriff der Maschine weist demnach neben einer anthropomorphen auch eine den Menschen substituierende Tendenzen auf, indem etwa mühselige Arbeit durch sie vereinfacht wird. In der Verrichtung dieser Arbeit ähneln die Maschine dem Menschen, ist sie anthropomorph. Damit nimmt die Maschine eine nicht unbedeutende Position in einer modernen Gesellschaftsstruktur ein, in der der Beruf und die Berufsarbeit als zentraler fait social alle Dimensionen einer Gesellschaft durchdringt (vgl. Kreutzer, 1999). Somit hat die Maschine bereits eine soziale Dimension ganz unabhängig von ihrem Wüten als künstlicher Intelligenz in sozialen Netzwerken und der digitalen Alltäglichkeit. Doch nun ist diese soziale Dimension nicht nur durch die Arbeitstätigkeit der Maschine gegeben, sondern auch durch ihre Kommunikation und Expression: Künstliche Intelligenz diskutiert in sozialen Medien wie Menschen und sie sieht nun auch noch aus wie Menschen.

Was ist die Perspektive der Medienbildung in einer digitalen Alltäglichkeit, die durch solche Erlebnisse charakterisiert ist? Eine solche Perspektive kann z.B. in einem erfahrungsorientierten Bildungsbegriff gesehen werden, wie ihn etwa Ludwig A. Pongratz vorgelegt hat (vgl. Pongratz, 1988). Entscheidend ist hierfür, dass die menschliche Erfahrung auch ein Moment der Kritik aufweist. Besonders in der differenzierten Erfahrung liegt jenes kritische Potential, welches sich von den alltäglichen und naiven Projektionen abhebt, indem es die Selbsterhaltungstendenzen der alltäglichen Denkmodelle durchbricht und etwas Neues wahrnimmt. Doch wie sieht eine differenzierte Erfahrung von Fake Humans in einer vernetzten Welt aus? Wo kann das kritische und bildende Moment in der Wahrnehmung menschenähnlicher Objekte der digitalen Alltäglichkeit liegen?

Sophia Cristina, eine YouTuberin und Coderin, äußert in einem Kommentar zum Video von DataGrid folgende Befürchtung: „I love technology and not against it, but i fear this will be used for mass alienation, in an example, in my country last election, parties were found to use bots to give arguments in social medias for their propaganda, imagine if those bots looked like a real person?“. Diese Befürchtung zeichnet ein düsteres Bild sozialer Bots. Künstliche Intelligenz könnte nun nicht nur Kommentare in sozialen Netzwerken posten, sondern sie könnte auch durch selbst generierte Videos ihren Botschaften weiter Ausdruck verleihen. Womöglich könnte sie auch künstlich generierte Personas mit einer fiktiven Biographie ausstatten, deren Artefakte man als Fotos oder Videos im Netz auffinden kann. Angst vor Manipulation und Kontrolle durch künstliche Intelligenz wird geäußert. Doch an diesem Punkt wird nicht mehr die Maschine menschenähnlich, sondern der Mensch wird maschinenähnlich. Ein Ansatzpunkt für Medienbildung als differenzierte Erfahrung von Phänomenen künstlicher Intelligenz könnte hier mass alienation als die Entfremdung des Menschen sein. Hierbei äußert die YouTuberin nicht nur eine Befürchtung, sondern auch eine Kritik. Medienbildung als Ermöglichung differenzierter Erfahrung mit künstlicher Intelligenz würde die hierbei dominierenden selbsterhaltenden Denkmodelle aufdecken. Doch reicht das? Kann das gelingen angesichts der Affektivität von Massenphänomenen in Bezug auf die echten Menschen im Internet?

Auf GitHub finden sich zahlreiche Code-Repositorien mit Bot-Detection-Framworks (z.B. BotDetection oder BotFlex). Es wird also aufgerüstet für ein Duell. Auch wenn sich an solchen Entwicklungs- und Forschungsprozessen zu Social-Bot-Detection-Techniques durchaus forschende Bildungsprozesse manifestieren, so dürfte sich die Position einer erfahrungsorientierten Medienbildung nicht in einem solchen Duell zwischen Menschen und Bot erschöpfen. Sie müsste differenzierter hinsehen und auch die verborgenen Projektionen dieses Unterfangens aufdecken. Dabei würden wahrscheinlich die anthropomorphen Tendenzen der künstlichen Intelligenz auch auf anthropologische Aspekte des Menschen hinweisen. Sybille Krämer spricht etwa vom „Computer in uns“ wenn sie automatische, monotone und durchaus stupide Kulturechniken wie etwa das Multiplizieren in der elementaren Arithmetik beschreibt (vgl. Krämer, 2003). Damit erscheint der Algorithmus des Computers nicht nur als Ersetzung einer Kulturtechnik des Menschen, sondern der Mensch wird auch zu einem gewissen Teil maschinenähnlich dargestellt. Eine differenzierte Erfahrung künstlicher Intelligenz könnte in diesem Sinn die Maschine als Produkt menschlicher Arbeit differenzieren und auf das maschinenähnliche im Menschen hinweist. In diesem Duell erscheint der Mensch wie ein Diskriminator. Auch das darin angesprochene Verhältnis des Menschen zu sich selbst ist ein grundlegender Aspekt des Bildungsbegriffs.


Tobias Hölterhof ist Professor für Erziehungswissenschaft an der Katholischen Hochschule NRW in Köln.


Literatur

Goodfellow, Ian; Pouget-Abadie, Jean; Mirza, Mehdi; u. a. (2014): „Generative Adversarial Nets“. In: Ghahramani, Z.; Welling, M.; Cortes, C.; u. a. (Hrsg.) Advances in Neural Information Processing Systems 27. Curran Associates, Inc., S. 2672–2680.

Krämer, Sybille (2003): „Maschinenwesen. Ein Versuch, über den Anthropomorphismus in der Technikdeutung hinauszukommen“. In: Christaller, Thomas; Wehner, Josef (Hrsg.) Autonome Maschinen. Wiesbaden: Westdeutscher Verlag, S. 208–220. — ISBN: 3-531-13751-4

Kreutzer, Florian (1999): „Beruf und Gesellschaftsstruktur. Zur reflexiven Institutionalisierung von Beruflichkeit in der modernen Gesellschaft“. In: Zeitschrift für Pädagogik, Beiheft. 40, S. 61–84.

Meder, Norbert (2007): „Der Lernprozess als performante Korrelation von Einzelnem und kultureller Welt. Eine bildungstheoretische Explikation des Begriffs.“. In: Spektrum Freizeit., S. 119–135.

Pongratz, Ludwig A. (1988): „Bildung und Alltagserfahrung – Zur Dialektik des Bildungsprozesses als Erfahrungsprozeß“. In: Hansmann, Otto; Marotzki, Winfried (Hrsg.) Diskurs Bildungstheorie I: Systematische Markierungen. Weinheim: Deutscher Studienverlag, S. 293–310.

Proudfoot, Diane (2011): „Anthropomorphism and AI: Turing’s much misunderstood imitation game“. In: Artificial Intelligence. 175 (5), S. 950–957, DOI: 10.1016/j.artint.2011.01.006.

Turing, Alan (1950): „Computer machinery and intelligence“. In: Mind. 59 (236), S. 433–460.

Zlotowski, Jakub; Proudfoot, Diane; Yogeeswaran, Kumar; u. a. (2015): „Anthropomorphism: Opportunities and Challenges in Human–Robot Interaction“. In: International Journal of Social Robotics. 7 (3), S. 347–360, DOI: 10.1007/s12369-014-0267-6.