06 Jun

Auf dem Weg in eine wissenschaftstechnologisch-utopische Zukunft – Ein Plädoyer

von Janina Loh (Wien)

In drei Schritten soll im Folgenden das Plädoyer für einen inklusiven und kritischen Diskurs mit Blick auf die modernen Technologien ausformuliert werden, nämlich erstens in einer Forderung nach der Wahrnehmung von Verantwortung im Umgang mit Technik auf (mindestens) vier gesellschaftlichen Ebenen, wofür die Voraussetzung eine radikale Absage an die sog. Neutralitätsthese im Umgang mit Technologien darstellt. Zweitens wird die Notwendigkeit einer kritischen Reflexion konkreter Technologien im Gegensatz zu dem Beharren auf den Extrempositionen einer radikalen Ablehnung aller Technik schlechthin bzw. einer euphorischen Befürwortung neuer Technik betont. Schließlich wird drittens der Frage nach dem (moralisch) Wünschenswerten, nach dem (normativen) Sollen gegenüber der Frage nach dem (technisch) Möglichen und Machbaren eine Vorrangstellung eingeräumt. In diesem Zusammenhang soll abschließend auch auf die Vision einer starken künstlichen Superintelligenz und der ethischen Relevanz einer Beurteilung derselben eingegangen werden.

Erstens – Absage an die Neutralitätsthese der Technik: Technik im Sinne von Technologien, also technologische Artefakte und damit Produkte menschlichen Handelns, sind nicht neutral, und damit ebenso wenig Roboter als spezifische Technologien. Denn nichts, was Menschen tun, ist rein deskriptiv oder evaluativ neutral, denn menschliches Handeln wird immer (ob bewusst oder unbewusst) durch Normen und Werte bestimmt. Gerade durch ihre Intention unterscheidet sich eine Handlung im herkömmlichen Sinne vom Instinkt oder bloßen Verhalten. Durch die Intention gelangen Werte ›in‹ die Handlung. Menschen wählen über Gründe zwischen unterschiedlichen Handlungsalternativen, die zuvor implizit oder explizit gegen andere Gründe abgewogen wurden. So beschreibt Peter-Paul Verbeek in der Einleitung zu seinem Werk What Things Do (2005) an dem Beispiel der Form eines Esstisches, wie bereits einfache technologische Artefakte wie etwa Möbelstücke bestimmte soziale und politische Strukturen wiedergeben und implizit affirmieren: Ein rechteckiger Tisch, der eine Kopfseite hat, mag hierarchische Strukturen ausdrücken, wohingegen an einem runden Tisch alle gleichberechtigt sitzen können. In der Philosophiegeschichte wurde diese inhärente Normativität der Technik durch Hannah Arendt, Karl Marx, Ernst Kapp und andere mit der konzeptionellen und praktischen Vorstellung des Homo Faber auf den Punkt gebracht. Alle Technik ist zweckgebunden und damit nie neutral. Welche konkreten ästhetischen, politischen, ökonomischen, religiösen, sozialen und ethischen Zwecke, Normen und Werte als Maßstab gelten können, sollen und dürfen, bleibt freilich in jedem Einzelfall zu erörtern und damit eine kontinuierliche Aufgabe technikphilosophischer Analyse, ethischer Diskussion sowie gesellschaftlicher Deliberation. In jedem Fall wird dadurch Einwänden technikgläubiger Zeitgenoss*innen, es handele sich doch lediglich ›um Einsen und Nullen‹, ebenso der Boden entzogen wie dem Slogan der National Rifle Association aus den 1980er-Jahren: »Nicht Waffen töten Menschen, Menschen töten Menschen«. Ein*e Schützin* ist eben immer eine Konstellation aus Mensch und Schusswaffe, die* eine wie die andere agieren (in diesem Fall: schießen) nicht ohne einander.[1]

Um die Absage an die Neutralitätsthese der Technik gesellschaftlich zu verankern und ein entsprechend verantwortliches Handeln gewährleisten zu können, bedarf es auf (mindestens) vier gesellschaftlichen Ebenen der Ausbildung und Stärkung eines ethischen Bewusstseins im Umgang mit Technik: (1) im Ethik- und Informatikunterricht der Schulen. Im Ethikunterricht muss Technikethik einen größeren Stellenwert einnehmen als dies bislang der Fall ist, im Informatikunterricht sollte von Anfang an die Normativität jeglichen menschlichen Handelns und der durch dieses geschaffenen Technologien betont werden. Weiterhin bedarf es (2) in den technik- und ingenieurswissenschaftlichen Ausbildungsstätten der Einführung von Ethikpflichtkursen. In nahezu allen anderen Disziplinen ist die Einbindung ethischer Fragestellungen in den Lehrkanon absolut selbstverständlich und grundlegend. Man stelle sich nur einmal vor, ein*e Ärztin* würde auf etwaige Patient*innen losgelassen werden, ohne, dass sie* zuvor im Rahmen des Studiums ethische Pflichtkurse zu Themen wie bspw. Präimplantationsdiagnostik und Sterbehilfe absolviert hätte. Hingegen ist eine ähnliche Haltung der Technik- und Ingenieurswissenschaften in den fraglichen Ausbildungsstätten lediglich schwach vertreten.

Darüber hinaus verlangt es (3) in den Unternehmen, die bereits jetzt Technologien herstellen und auf den Markt bringen, einer Einführung verpflichtender Weiterbildungskurse in Technik- und Roboterethik. Mit frappierender Selbstverständlichkeit werden fragwürdige Geschlechterstereotype, unreflektierte Vermenschlichungen und intransparente Entscheidungen über Handlungsfähigkeit und Entscheidungsautorität, implizit getragen durch in die Entstehung der jeweiligen Technologien eingewobenen Macht- und Autoritätsstrukturen perpetuiert und gesellschaftlich bestätigt. Schließlich verlangt die konsequente Absage an die Neutralitätsthese der Technik und die Forderung nach der Stärkung eines kritischen, ethischen Bewusstseins (4) die verstärkte Einrichtung von Ethikgremien wie etwa der Ethikkommission zum autonomen Fahren. Hiermit geht auch die transparente Gestaltung des akademischen Diskurses einher, der auf die Verstärkte Inklusion gesellschaftlicher und industrieller Akteur*innen eingestellt zu sein hat. Es ist Teil der Verantwortung der Wissenschaftler*innen (sowie aller anderen am Diskurs Beteiligter), Sachverhalte in einer Weise darzustellen, Sprache in einer Weise zu nutzen, dass Außenstehenden eine Teilnahme und Mitsprache ermöglicht wird.   

Zweitens – Forderung nach der kritischen Reflexion konkreter Technologien: Dass der Diskurs über die Einführung moderner Technologien möglichst inklusiv geführt wird, verlangt also nach einer Strukturbildung sowohl ›bottom up‹ (aller Menschen bereits in der Erziehung, in den Schulen) als auch ›top down‹ (unterstützt durch Institute und Gremien), verlangt nach einer Mitarbeit auf (mindestens) den oben geschilderten vier Ebenen. Größtmögliche Inklusion zu garantieren erfordert allerdings auch (und das vermutlich v.a. top down) eine diverse und heterogene Bildung offizieller Institutionen und Gremien, die den wissenschaftlichen Diskurs prägen und die Macht haben, eine Teilhabe Aller an diesem zu befördern oder zu beschränken. Besteht etwa, um es pointiert auszudrücken, eine Ethikkommission für die Produktion und den serienmäßigen Vertrieb von Sexrobotern ausschließlich aus weißen, heterosexuellen, Männern über 50, wird der Diskurs an dieser Stelle damit von Vornherein auf die Teilhabe eines entsprechenden Nutzer*innenkreises nahegelegt und ggf. sogar eingeschränkt bzw. eine Exklusion anderer Stimmen bestärkt.

Allerdings geht es an dieser Stelle nicht nur um die Frage, wer am Diskurs teilnehmen kann, wessen Stimme gehört wird und welches Gewicht eine Position jeweils zugesprochen bekommt, sondern auch darum, worüber der Diskurs geführt wird. In den Debatten um die Entwicklung autonomer artifizieller Systeme, KI und die modernen Technologien im Allgemeinen begegnet man häufig zwei Extremszenarien: die dystopische Sicht, dass die Maschinen die Weltherrschaft an sich reißen werden und die utopische (transhumanistische) Sicht, dass wir irgendwann mit Nanobots verschmelzen, unseren Geist auf einen Computer hochladen und dann virtuell unsterblich werden. Wir haben jedoch nicht den Luxus, uns auf diese Schwarz-weiß-Sicht der Dinge zu beschränken. Wir müssen uns in den großen, chaotischen Grau-Bereich zwischen diesen Polen hineinwagen und Technologien im Einzelnen und kritisch reflektieren. Viele Menschen wechseln, wenn sie über Roboter reden, häufig sehr schnell von der Ebene des konkreten artifiziellen Systems (bspw. dieser Schachcomputer ist sehr viel besser darin, Schach zu spielen, als die meisten Menschen) auf die allgemeine Ebene ›der‹ Maschine (etwa die Maschinen werden irgendwann ›den‹ Menschen überholen). Mit Blick auf Tiere würden wir jedoch nie so verfahren, z.B. würden wir niemals von einem Lawinenspürhund, der sich durch einzigartige Fähigkeiten zum Auffinden von Menschen in Lawinengebieten auszeichnet, auf die abstrakte Ebene ›des‹ Tieres wechseln – und schon gar nicht, um damit zu behaupten, ›das Tier‹ würde die Weltherrschaft anstreben. Technik ist für ganz konkrete Zwecke gemacht. Roboter haben bis auf weiteres ›Inselbegabungen‹. Ein Schachcomputer kann zwar vielleicht besser Schach spielen als die meisten Menschen, ist aber weder in der Lage, Auto zu fahren, Kaffee zu kochen, mit unseren Kindern die Hausaufgaben zu machen, noch in den Krieg zu ziehen. Wir müssen die jeweiligen Kontexte eines Einsatzes von Technik und die fraglichen Technologien im Besonderen kritisch in den Blick nehmen. Das verlangt nach einem transparent geführten Diskurs für akademische und nichtakademische Teilnehmer*innen und die Vermittlung von Sachverstand, Reflexions- und Urteilskraft auf allen Ebenen durch alle Mitglieder einer Gesellschaft und nicht nur für politische, ökonomische und wissenschaftliche Eliten und Lobbygruppen.    

Drittens – Vorrangstellung der Frage nach dem Sollen vor der nach dem Können: Schließlich sollte vor dem Hintergrund des bislang Gesagten deutlich werden, warum ich darauf beharre, dass es nicht ›den‹ Menschen gibt, sondern Menschen im Plural. Und die haben je nach Platz in der Gesellschaft (was ja auch immer eine konkrete Gesellschaft mit spezifischen politischen, ökonomischen und rechtlichen Strukturen ist), finanziellen Möglichkeiten, beruflicher Profession usw. unterschiedliche Weisen der Einflussmöglichkeit. Technologische Entwicklungen sind in jedem Fall keine Naturgesetze! Dass wir irgendwann eine künstliche Superintelligenz entwickeln werden, ist kein Faktum wie bspw. die Tatsache, dass die Sonne jeden Morgen auf- und jeden Abend wieder untergeht. Es gibt allein im deutschsprachigen Raum zahlreiche Beispiele für Technologien, die theoretisch (zumindest mit einer entsprechenden finanziellen und institutionellen Unterstützung) umsetzbar wären, allerdings rechtlich strikten Sanktionen unterliegen (etwa Klonen, die Produktion von ›Designer*innen-Babys‹, der Einsatz von Atomenergie usw.). Technologische Entwicklungen sind menschengemacht und unterliegen menschlichen Bedingungen. Nicht alles, was möglich ist, wird notwendig auch wirklich werden. Behauptet man das Gegenteil, verfällt man einer »self fulfilling prophecy« (einer »sich selbst erfüllenden Prophezeiung«). Ebenso wissen wir spätestens seit Marc-Uwe Klings Roman QualityLand (52017), dass es sich bei Moore’s Law, das besagt, dass sich die Komplexität integrierter Schaltkreise mit minimalen Komponentenkosten regelmäßig (alle 12 bzw. 24 Monate) verdoppelt, nicht um ein Naturgesetz handelt, sondern ebenfalls um eine sich selbst erfüllende Prophezeiung. Denn an der Entwicklung der fraglichen Technologien ist ›die‹ Industrie beteiligt, ›die‹ ein gemeinsames Vorgehen bzw. Meilensteine für ein entsprechend als effizient und wirtschaftlich definiertes Agieren festlegt.

Alles in allem sind etwaige Prognosen über die Zukunft ›des‹ Menschen insgesamt ausnehmend problematisch und stehen unter dem Verdacht der Unwissenschaftlichkeit. Der umtriebige Futurist, Computeringenieur und Erfinder Ray Kurzweil steht exemplarisch für ein solch populärwissenschaftliches Unterfangen, die technologischen Entwicklungen bis weit in die Zukunft hinein zu berechnen. Als Autor von Werken wie u.a. The Age of Intelligent Machines (1990), The Age of Spiritual Machines (1999) und insbesondere The Singularity is Near (2005) ist er wie kein anderer technologischer Posthumanist im öffentlichen Diskurs vertreten. Als Mitbegründer der Singularity University (https://su.org/) in Kalifornien (2008), der ›Brutstätte‹ technologisch-posthumanistischer Wissenschaftler*innen, Unternehmer*innen und Futurist*innen, und seit 2012 Leiter der technologischen Entwicklung (»Director of Engineering«) bei Google repräsentiert Kurzweil die Elite des technologischen Posthumanismus sowie deren Macht und Einfluss.[2] So wird er nicht müde, in zahlreichen Publikationen eine Entwicklung der Geschichte anhand spezifischer technologischer Errungenschaften und Fortschritte zu prognostizieren, nach der euphorische technologische Posthumanist*innen quasi die Uhr stellen können. Kurzweil hat letztlich keinerlei Bedenken im Hinblick auf eine artifizielle Superintelligenz, deren Entwicklung er als einen bedeutsamen Höhepunkt einer exponentiell und quasi notwendig sich abspulenden technologischen Evolution mit dem Jahr 2045 berechnet. Deshalb weist er nur in einem kurzen Absatz darauf hin, dass die Singularität zwar zahlreiche Probleme der Menschen wird lösen können, gleichzeitig allerdings ebenso deren Fähigkeiten zur Selbstzerstörung steigert. Kurzweil korrigiert das lineare Geschichtsbewusstsein durch ein exponentielles. Er begeht dabei allerdings den Fehler zu meinen, aus dem Blick in die Geschichte technologischer Entwicklungen könne ein allgemeines (in seinem Fall ein exponentielles) Prinzip abgeleitet werden, das ihm die Prognose konkreter technologischer Errungenschaften zu einigermaßen genau berechenbaren Zeitpunkten in der Zukunft gestatte. Dabei unterliegt er einer Variante des Induktionsproblems, das schon von David Hume 1740 in seiner Untersuchung über den menschlichen Verstand ausführlich beschrieben wurde: der logischen Unmöglichkeit, von einem Besonderen auf ein Allgemeines zu schließen. Hume stellt die Falschheit der Induktion als allgemeingültige Begründungsstrategie (im Gegensatz zu den korrekten Verfahren einer Erkenntnis durch Intuition, Deduktion oder Empirie) fest, da es »unmöglich [ist], dass irgendwelche Begründungen durch Erfahrung diese Ähnlichkeit der Vergangenheit mit der Zukunft belegen können, denn all diese Begründungen beruhen ja auf der Voraussetzung dieser Ähnlichkeit« (S. 59). Ebenso wenig, wie eine Person, die ihr ganzes Leben lang nur weiße Schwäne gesehen hat, von ihrer Erfahrung darauf schließen kann, dass es nur weiße Schwäne gibt, lässt sich der Eintritt in die Singularität bzw. die Entwicklung einer artifiziellen Superintelligenz anhand bestimmter technologischer Entwicklungen berechnen.   

Der Traum von einer künstlichen Superintelligenz scheint das allgemein anerkannte Ziel der Technikenthusiast*innen wie Kurzweil zu sein und taucht auch in der Roboterethik immer wieder auf, obwohl eine künstliche Intelligenz nicht in Form eines Roboters verkörpert sein muss, um als solche gelten zu können. Doch was ist damit überhaupt gemeint? Der Transhumanist Nick Bostrom differenziert in seinem Buch Superintelligence (2014) drei Formen der Superintelligenz: (1) eine »speed superintelligence«, die sich von der menschlichen Intelligenz nur durch ihre radikal erhöhte Geschwindigkeit unterscheidet; (2) eine »collective superintelligence«, eine Art Schwarmintelligenz, die aus einer großen Anzahl von Einheiten geringerer Intelligenz besteht; sowie (3) eine »quality superintelligence«, die sich nicht nur der Quantität (Geschwindigkeit) nach von menschlichen Formen der Intelligenz unterscheidet, sondern auch hinsichtlich ihrer Qualität (2014: S. 53-56).[3] Doch das prominente und in der technologisch-posthumanistischen Bewegung regelmäßig zitierte Beispiel einer artifiziellen Superintelligenz formulierte bereits 1965 der Mathematiker Irving John Good in dem Text »Speculations Concerning the First Ultraintelligent Machine«, in dem er eine intelligente Maschine beschreibt, die sich selbst weiterzuentwickeln, also in ihre eigene algorithmische Grundstruktur einzugreifen befähigt wäre und noch intelligentere Maschinen erschaffen könnte. Dies nennt er die letzte Erfindung des Menschen. Von einer solchen starken Universal-KI, d.h. einer Künstlichen Intelligenz, die, vergleichbar dem Menschen, in jedem Kontext agieren könnte und nicht, wie gegenwärtige artifizielle Systeme, allein für spezifische Aufgaben und Einsatzbereiche geschaffen wäre, hänge einerseits das »Überleben« (S. 31) der menschlichen Spezies ab, andererseits gingen mit ihr zahlreiche ökonomische, politische, soziale und insbesondere ethische Herausforderungen einher. Zu Letzteren gehört insbesondere Goods Befürchtung, dass die Menschheit überflüssig werden könnte, weiterhin das in seinen Augen »ethische Problem« (S. 34), ob eine Maschine Schmerz empfinden kann sowie ob sie in dem Fall, dass sie veraltet, demontiert werden sollte. Literarisch wird dieser Vision einer starken Universal-KI im deutschsprachigen Raum durch Heinrich Hauser bereits sehr früh in seinem »utopisch-technischen« Roman Gigant Hirn (1962) Ausdruck verliehen, wenn dort die Maschine aufgrund ihrer wachsenden Fähigkeit zur »Automatisierung« und baldigen Zeugungskraft, weitere Maschinen gebären zu können, als »größere Macht« und »höhere Entwicklungsstufe« (S. 99f.) gegenüber dem Menschen beschrieben wird.

Häufig wird der Diskurs über die Entwicklung und Einführung bestimmter Technologien jedoch so geführt, als ob es bereits ausgemacht wäre, dass diese Technologien irgendwann real werden. Dann überlegt Nick Bostrom bspw., welche Werte wir einer starken KI implementieren sollen, anstatt die Frage zu stellen, ob wir überhaupt eine starke KI wollen. Die Frage des technologisch Machbaren und des Könnens darf allerdings der Frage des (moralisch) Wünschbaren und des Sollens nicht vorangestellt werden. In den empirischen Wissenschaften wird das gerne gemacht bzw. existiert da zumeist über die Entwicklung bestimmter Technologien ein Commonsense dahingehend, dass es natürlich gut und richtig ist, besagte Technologie zu entwickeln und auf den Markt zu bringen. Wir müssen aber die Frage nach dem Wünschbaren und dem Sollen explizit stellen und in der Gesellschaft diskutieren. Für uns als Wissenschaftler*innen bedeutet das, den Diskurs in einer Weise zu beeinflussen, dass er möglichst transparent und verständlich geführt werden kann. Wir entmündigen uns, wenn wir einen gesellschaftlichen und technologischen Determinismus dahingehend vertreten, dass sich das Rad der Geschichte vor unseren Augen einfach abspult und wir keine Möglichkeiten der Beeinflussung haben.

Plädoyer für einen inklusiven und kritischen Diskurs: Autonome artifizielle Systeme sind bereits jetzt in allen Sphären des menschlichen Daseins alltägliche Gegenwart. Wir sollten uns um einen offenen und kritischen Diskurs bemühen, der alle Mitglieder einer Gesellschaft gleichberechtigt und auf Augenhöhe zur Partizipation einlädt, heterogen und mehrsprachig strukturiert ist und allen Argumenten Gehör schenkt, jeder Stimme Gewicht gibt. Ein Diskurs dieser Art verlangt die Ausbildung von Urteilskraft und Verantwortungsfähigkeit in allen potenziellen Teilnehmer*innen.

Es scheint, als befänden wir uns mitten auf dem Weg hinein in ein Zeitalter der Automation, das von uns mehr denn je die umsichtige, kritische und bedachte Reflexion der technologischen Errungenschaften fordert, die uns nahezu jeden Tag in den Medien aufs Neue herausfordern. Zugleich aber versuchen wir mit jedem weiteren Schritt, uns unserer (auch) individuellen Verantwortung und der Last des eigenständigen Urteils zu entledigen. Es existieren sicherlich unterschiedliche Möglichkeiten, an der Verantwortung im Umgang mit den (modernen) Technologien im Allgemeinen sowie in der Mensch-Roboter-Interaktion im Speziellen festzuhalten, sie mit anderen in den Diskurs aufgenommenen (nichtmenschlichen) Wesen zu teilen und sie zu transformieren. Keine einzige der ernstzunehmenden Stimmen, so verschieden sie im Einzelnen auch sein, so widersprüchlich sie zuweilen klingen mögen, sucht jedoch jedwede individuelle oder kollektive Verantwortung generell zu leugnen.

Es mag sein, dass ich mit dem Gesagten eine wissenschaftstechnologische Utopie skizziere, dass ein solch inklusiver und kritischer Diskurs zumindest zum gegenwärtigen Zeitpunkt noch nicht existiert. Allerdings liegt es in unserer Hand, das zu ändern und diese Utopie in die Tat umzusetzen.


[1] Dieser Absatz entstand in ähnlicher Weise in der Gründungsphase der Buchreihe Techno:Phil – Aktuelle Herausforderungen der Technikphilosophie (J.B. Metzler), die ich gemeinsam mit Birgit Beck, Bruno Gransche und Jan-Hendrick Heinrichs herausgebe.

[2] Technologischen Posthumanist*innen ist insb. an der Entwicklung einer starken künstlichen Superintelligenz gelegen; vgl. Loh (geb. Sombetzki), Trans- und Posthumanismus zur Einführung, S. 112-118.

[3] Der Transhumanismus strebt primär die technologische Transformation der Menschen zu posthumanen Wesen an; vgl. Loh (geb. Sombetzki), Trans- und Posthumanismus zur Einführung.


Dr. Janina Loh (geb. Sombetzki) ist Universitätsassistentin im Bereich Technik- und Medienphilosophie der Universität Wien. Dieser Text wird in ähnlicher Weise in ihrem Buch Roboterethik. Eine Einführung publiziert, die im September 2019 bei Suhrkamp erscheint.

Print Friendly, PDF & Email