Künstliche Intelligenz befindet sich nicht im Krieg mit Covid-19!
Von Janina Loh (Wien)
Künstliche Intelligenz (KI) und Robotik finden derzeit gegen eine weitere Verbreitung des Coronavirus’ in ganz unterschiedlichen Bereichen vielfachen Einsatz. So etwa in der Diagnose – ob bspw. jemand erhöhte Temperatur hat oder erkrankt ist -, in der Suche nach Impfstoffen und Medikamenten, in Form von Algorithmen, die Vorschläge für eine geeignete Therapie oder für eine Vorauswahl machen, welche Menschen auf das Virus getestet werden sollen, in der Prognose eines weiteren Verlaufs von Covid-19 national bzw. global oder des Verlaufs einer jeweiligen individuellen Erkrankung sowie in den kontrovers diskutierten Tracing-Apps. Roboter unterstützen in China die Polizei bei Patrouille und Ausweiskontrolle, diagnostizieren auf der Straße, an Flughäfen und in Einkaufszentren. Obwohl an den fraglichen Stellen immer auch darauf hingewiesen wird, dass jeder Technologie lediglich eine assistierende Funktion zukommt, dass stets die beteiligten Menschen das letzte Wort, abschließende Entscheidungsbefugnis und umfassend Verantwortung innehaben, durchläuft alle Artikel zu diesen Themen das implizite Narrativ einer KI als artifizieller Retterin, die an unserer Stelle in den Krieg gegen das tödliche Virus zieht, wie ein roter Faden der Konzentration öffentlichen Interesses.
Dabei steht ja ganz generell außer Frage, dass der Einsatz von KI und Robotik in den oben genannten und vergleichbaren Fällen von nur schwer zu überbietender Bedeutung ist. Dank KI lassen sich Diagnosen beschleunigen, Ressourcen gezielt und effizient einsetzen und Risiken minimieren (vgl. Kötter, 31.3.20). Ohne Zweifel können auch einige Gründe für das Reden und Schreiben über KI in dieser Weise angeführt werden. So wecken Schlagzeilen wie “Künstliche Intelligenz im Kampf gegen COVID-19” unser Interesse, bildhafte, plakative Sprache vereinfacht komplexe, technische Vorgänge, was irgendwann – so vermutlich die mindeste Hoffnung – zu mehr Akzeptanz eines Einsatzes von intransparenten und im Detail nur schwer verständlichen Technologien in der breiten Bevölkerung führt.
Allerdings weiß nicht nur Christian Stöcker, dass die mit Blick auf Covid-19 bemühte Kriegsmetaphorik verfehlt ist, weil wir uns schlicht und ergreifend nicht in einem Krieg befinden und weil wir uns durch einen ernst gemeinten und undifferenzierten Gebrauch der Kriegsterminologie im Covid-19-Kontext vollkommen unangemessen auf eine Stufe mit jenen tatsächlich von Krieg betroffenen Menschen stellen. Darüber hinaus verbergen sich in dem genannten Narrativ KI vs. Covid-19 oder noch grundlegender Technik vs. Natur zwei irreführende und gefährliche Vorstellungen, nämlich zum einen die Idee von der eigenständigen artifiziellen Akteurin KI, die nach menschlichen Ansprüchen und in menschlichem Auftrag moralisch korrekt agiert. Zum anderen das personifizierte Feindbild eines Virus’, das wie eine Naturkatastrophe über die Staaten unserer Erde hereingebrochen ist und entsprechend kompromisslos und ohne Rücksicht auf Verluste bekämpft werden kann und muss.
Doch nicht erst dann, wenn, wie uns eine weitere Kriegsmetapher vorschlägt, dieser Zweck (einer kompromisslosen Bekämpfung von Covid-19) tatsächlich alle Mittel (eines Einsatzes von KI und Robotik) heiligt, sollten wir von diesem verführerischen Narrativ einen sicheren Abstand wahren. Denn das erste darin eingebundene Motiv von KI als Retterin verschleiert reale Verantwortlichkeiten, das zweite Motiv von Covid-19 als primärem bzw. einzigem Gegner verschiebt den Fokus von weiteren und mindestens ebenso gewichtigen strukturellen Problemen, die unsere Gesellschaften für Herausforderungen wie Covid-19 erst überhaupt so verwundbar und so angreifbar machen.
Um das erste Motiv zu dekonstruieren: Verantwortlich sind, um es in aller Knappheit und bar jeder theoretischen Begründung zusammenzufassen, immer diejenigen, die KI entwickeln und einsetzen, ihre Entwicklung ermöglichen, fördern und begleiten und die Ergebnisse ihrer Entwicklung überwachen und kontrollieren. Und zwar nicht entweder oder, sondern sowohl als auch! Denn Verantwortung ist insb. in komplexen Kontexten wie diesen auf mehrere Schultern verteilt. Hinzu kommt, dass die beteiligten Menschen gleich mehrere (moralische, politische, rechtliche, ökonomische und weitere) Verantwortlichkeiten haben, die u.U. auch mal in Konflikt miteinander geraten. Verantwortlich sind alle in die fraglichen Umstände involvierten Parteien, die die Voraussetzungen dafür erfüllen, Verantwortung tragen zu können, d.h. mit Autonomie, Handlungsfähigkeit und Kommunikationsfähigkeit ausgestattet sind und über Urteilskraft verfügen. Das schließt die jeweiligen Wissenschaftler*innen ein, die Unternehmen, Politiker*innen, Jurist*innen und andere (wer an weiteren theoretischen Ausflügen in das Wesen der Verantwortung interessiert ist, dem sei ein Blick in mein Buch Verantwortung als Begriff, Fähigkeit, Aufgabe sowie in das von mir mit herausgegebene Handbuch Verantwortung empfohlen).
Selbst wenn die eine oder andere vielleicht sogar gewillt wäre, KI eine reduzierte Form von Akteursschaft oder auch nur Quasi-Akteursschaft (also simulierte oder ‘als ob’ Akteursschaft; vgl. meine Einführung in die Roboterethik) zuzugestehen, bleibt die berechtigte Frage danach, welche KI denn nun konkret gemeint sei. Schließlich handelt es sich in den oben genannten Anwendungsfeldern ja gerade nicht um eine einzige, homogene und personale KI, die Fahnen schwingend und mit klirrenden Waffen auf dem weißen Ross gegen Covid-19 anstürmt. Sondern es sind jeweils sehr unterschiedliche, sehr spezifische Formen maschinellen Lernens, neuronaler Netze und algorithmischer Systeme, die in Diagnose und Prognose zum Einsatz gelangen.
Fußnote: In welchen moralischen Verwerfungen wir Gefahr laufen uns wiederzufinden, wenn wir einer ganz offensichtlich nicht entsprechend entwickelten KI Akteursschaft zuschreiben, sehen wir an dem brisanten Beispiel des Roboters Sophia, der weltweit erste Roboter, der im Oktober 2017 in Saudi-Arabien die volle Staatsbürgerschaft erhielt. Der ‘Fall Sophia’ zog global Kritik auf sich, u.a. deshalb, da Sophia nun mehr Rechte besaß als menschliche Frauen in Saudi-Arabien.
Zudem würde vermutlich niemand so weit gehen, die beteiligten Menschen vollständig aus ihrer Verantwortung zu entlassen, selbst wenn einer ganz konkreten KI Akteursschaft zu attestieren wäre. Eine solche KI-Akteurin wäre im besten Fall ein weiteres ‘Paar Schultern’, auf dem wir einen Teil unserer Verantwortung mit ablegen könnten bzw. das in gegebene Verantwortungskonstellationen eingebunden zu werden verdiente. Es gilt also, die Möglichkeiten, die KI und Robotik uns eröffnen, voll auszuschöpfen, ohne dabei die Grenzen ihrer Selbstständigkeit und dabei Macht und Kompetenz der menschlichen Akteur*innen zu übersehen oder gar etwaige Fehler der letzteren zu entschuldigen bzw. zu leugnen.
Nun zum zweiten Motiv: Dass Menschen an Covid-19 leiden und sterben und dass deshalb eines der ersten Ziele eines Einsatzes von KI unbedingt mit Blick auf die wirksame Zurückdrängung und Einschränkung des Virus zu definieren ist, ist freilich über jeden Zweifel erhaben. Aber es gibt weitere und nicht weniger relevante Herausforderungen, denen wir uns durchaus gemeinsam mit der Hilfe von KI und Robotik zu stellen haben, wollen wir unsere Gesellschaften gegen zukünftige Katastrophen dieser Art wappnen bzw. wollen wir allen Menschen eine faire und gleichberechtigte Teilhabe am gesellschaftlichen Leben ermöglichen. An dieser Stelle seien lediglich auf einige der zahlreichen ausnehmend gefährlichen ‘Gegner*innen’ hingewiesen, die still und heimlich die Grundfesten unserer Gesellschaften aushöhlen und gegen die es sich schon lange, natürlich nicht erst (wenn auch verstärkt) seit Covid-19 lohnt, auf die Straße bzw. in anderer Weise mit Einsatz gegen sie an zu gehen (aber eben nicht ‘in den Krieg zu ziehen’): nämlich die prekäre und menschenunwürdige Situation systemrelevanter Arbeitnehmer*innen, Überforderung in Erziehung, Lehre und Betreuung, Diskriminierung, Exklusion und Vereinsamung jener, die nicht der kapitalistischen Norm gesunder, fitter, junger, weißer, heterosexueller, monogamer, männlicher Konsument*innen entsprechen, transnationale Fluchtbewegungen und Klimawandel (Philosoph*innen wie jene, die sich auf Norbert Paulos und Gottfried Schweigers praefaktisch Philosophieblog oder dem BedenkZeiten Ethik-Blog des Internationalen Zentrums für Ethik in den Wissenschaften austauschen, haben sich dieser und anderer Themen im Zusammenhang mit Covid-19 durchaus auch schon angenommen).
Allen diesen Herausforderungen, vor die sich inklusive Gesellschaften gestellt sehen, ist jedoch gemein, dass KI niemals die alleinige Antwort auf sie bieten kann – wie Technik nie und in keinem Fall alle Probleme der Menschen allein zu lösen in der Lage ist! Im Gegenteil bleibt mit aller Ausdrücklichkeit zu betonen, dass jede Technologie bereits eine Herausforderung an sich darstellt, der wir uns nicht nur vor jedem Einsatz anzunehmen bereit erklären müssen, indem wir Chancen und Risiken verantwortlich abwägen. Nein, wir müssen lernen, eine jeweilige Technologie auch nach ihrer erstmaligen Akzeptanz kritisch im Blick zu behalten und uns auch nach eventuell jahrelanger Gewöhnung an sie nicht scheuen, ihren Einsatz zu widerrufen.
Dieser Text ist zuerst in der Wochenzeitung Falter erschienen.
Dr. Janina Loh (geb. Sombetzki) ist Universitätsassistentin im Bereich Technik- und Medienphilosophie der Universität Wien.