21 Okt

Bias, Sprachassistent*innen und humans in the loop: für eine kritische Ethik Künstlicher Intelligenz

Von Julia Maria Mönig (Bonn)


Technologieethik, genauer gesagt „KI-Ethik“, ist derzeit in aller Munde. Warum es wichtig ist,  die Kategorie „Geschlecht“ dabei zu bedenken, und einen feministischen Blick auf KI zu werfen, zeigen die folgenden Beispiele.

Technologie ist nie wertneutral. In die Technikgestaltung fließen immer bereits Werte, Designvorstellungen, Absichten, Verwendungszwecke und Ziele ein. Dies ist auch − und insbesondere −  bei digitalen Technologien und im Internet der Fall, wenngleich es in den 1990er Jahren die Wunschvorstellung gab, der „Cyberspace“ solle ein herrschaftsfreier Raum sein, in dem alle gleich seien.

Bias: „verzerrte“ Daten

Insofern ist es kein Wunder, wenn festgestellt wird, dass moderne Technologien alte Vorurteile, Stereotypen und Diskriminierungen reproduzieren. Ein Algorithmus wird mit Daten gefüttert, die aus der realen Welt stammen. Wenn dies passiert, so führt dies unter anderem dazu, dass die Angabe der Mitgliedschaft in einem „women’s chess club“ in einem Lebenslauf zur Konsequenz hat, dass weibliche Bewerberinnen herausgefiltert werden, da der Algorithmus aus historischen Daten „gelernt“ hat, dass i.d.R. Männer eingestellt werden. Ein sehr anschauliches Beispiel ist auch die automatisierte Übersetzung mit Software wie Google Translate. Der geschlechtsneutrale unbestimmte Artikel im Englischen wird übersetzt durch Zuschreibungen aus dem – patriarchal geprägten – Erfahrungsschatz. So wird aus „a nurse” „eine Krankenschwester“ während „a doctor“ mit „ein Arzt“ übersetzt wird.

Umgang mit Technologie will gelernt sein

Algorithmen können auch aber auch dabei helfen, geschlechtsspefizische Gewalt zu bekämpfen. So ist in Spanien seit 2007 ein System namens VioGén im Einsatz, das die Polizei in der Risikoeinschätzung für Femizide unterstützen soll.[1] Die Beantwortung eines Fragenkatalogs wird in eine mathematische Formel übersetzt, die eine Zahl ausgibt, mit welcher Wahrscheinlichkeit der Täter gewaltätige Handlungen wiederholden wird. Das Vertrauen von Richter_innen oder Polizist_innen in das System kann jedoch zu Problemen führen, wenn der Software zu unkritisch Glauben geschenkt wird. Die Polizist_inn_en, die mit VioGén umgehen, benötigen deshalb spezielles Training, zum einen technologieunabhängig, jedoch aufgrund des vorgegebenen Fragebogens, in genderspezifischen Fragen und dem sensiblen Umgang mit Opfern, zum anderen im Umgang mit automatisiert erstellten Informationen und Gefahreneinschätzungen. In Bezug auf das System wird von Kritiker_innen außerdem diskutiert, ob die Einstufung „niedriges Risiko“ überhaupt eine Option sein sollte, da bereits der Umstand, den Täter bei der Polizei anzuzeigen, ein Risiko für die Betroffene darstellen kann.

Hey, Siri

Neben den direkten Auswirkungen auf die User_innen, gibt es auch ethische Aspekte, die bedacht werden sollten, wenn Technologie und User Interfaces entworfen werden, und dabei den Objekten ein Geschlecht zugeschrieben wird. Dies hängt mit der menschlichen Tendenz zusammen, technische Artefakte zu anthropomorphisierem, welche − wie vermutlich alles im Leben − sowohl negative als auch positive Auswirkungen haben kann. So kann einerseits beobachtet werden, dass Menschen ihrem Staubsaugerroboter Namen geben und ihn behandeln wie ein Haustier, während es andererseits User_innen gibt, die Roboter respektlos behandeln und gerade z.B. Sprachassistenzdevices mit weiblicher Stimme wie Sklaven behandelt werden.[2]

Hier kommt das von Immanuel Kant in Bezug auf einen Tierquäler, der schließlich einen Mord beging, formulierte Verrohungsargument zum Tragen: führt die respektlose Behandlung bzw. Misshandlung nichtmenschlicher „Wesen“ zu einem Sinken einer Hemmschwelle oder nicht? Ein extremes Beispiel, das in der Diskussion angeführt wird, ist das Aussehen von Sexrobotern sowie der Umstand, dass eine Roboterfirma einem Sexroboter den Zustand „frigide“ einprogrammiert hatte. Was macht dieses Technologiedesign mit den User_innen denen diese Einstellung Normalität suggeriert und die zu einem Zeitpunkt danach eventuell wieder einmal Sex mit einem anderen Menschen haben?

The Voice

Dass männliche Stimmen eventuell anders wirken könnten als weibliche wird beispielsweise bei Telefonansagen oder in der Werbung gezielt eingesetzt. Bei aktuellen Devices, wie z.B. Navigationssystemen können User_inen einstellen, ob sie die Ansage von einer Männer- oder eine Frauenstimme hören wollen. Das Projekt „Q – the First Genderless Voice wurde dafür geschaffen, dem „gender bias in AI assistants“ ein Ende zu setzen und wirbt dafür, dass nicht (nur) eine Wahl zwischen einer männlichen und einer weiblichen Stimme möglich sein sollte, sondern eine genderneutrale Stimme verwendet werden oder zumindest auswählbar sein sollte, deren Frequenzbereich bei 153 Hertz liegt, was von uns Menschen als „genderneutral“ wahrgenommen wird. Die Stimme wurde über Stimmaufnahmen von Menschen moduliert, die sich selbst als weder weiblich noch männlich verstehen.[3]

Aimee van Wynsberghe schlägt zur Lösung von mit der Anthropomorphisierung von Robotorn verbundener Probleme vor, diese gar nicht erst wie Menschen ausssehen zu lassen. Im Anschluss hieran könnte gefordert werden, dass Stimmen von Sprachassistenzsystemen weder männlich noch weiblich oder eben gar nicht menschlich klingen sollten.

Kritische KI-Ethik

Die Untersuchung von Kategorien wie Geschlecht oder auch ethnischer Herkunft birgt die Gefahr, dass das Untersuchte durch das Feststellen von Unterschieden und Bias befestigt wird. Auch ist zu beachten, dass die Diskriminierung oft − wie auch in der analogen Welt − durch Überschneidungen, also das Innehaben verschiedener Merkmale gleichzeitig verstärkt werden kann (Stichwort Intersektionalität). Dabei kann die Antwort z.B. darauf, dass Bilderkennungs- oder Videokonferenzprogramme Aufnahmen von people of color schlechter erkennen, nicht einfach sein, dass wir den bestehenden Datensatz mit diverseren Fotos erweitern. Auch der vielbeschworene „human in the loop“ kann nicht die einzige Lösung sein, wenn dieser nicht im kritischen Umgang mit Technologie geschult ist. Deshalb muss der historische Moment, in dem sich das disruptive Potential von KI bemerkbar macht, genutzt werden, um gesellschaftliche Diskussionen darüber zu führen, wie die Technologie von morgen aussehen soll und gesetzliche Regulationen zu verabschieden, die − wie der jüngst vorgestellte Entwurf des europäischen Gesetzes über künstliche Intelligenz − die Risiken für menschliche User_innen minimieren.


Julia Maria Mönig leitet derzeit das Teilprojekt Philosophie des KI.NRW-flagship Projekts „Zertifizierte KI“ am Center for Science and Thought der Universität Bonn. Sie studierte Philosophie, Französisch und Erziehungswissenschaften in Wuppertal und Paris. 2015 promovierte sie an der Universität Passau zu Hannah Arendts Privatheitsbegriff. Nach der Promotion forschte sie an der Vrije Universiteit Brussel (Belgien) zu Privatheit als Luxusgut und entwickelte am Institut für Digitale Ethik der Hochschule der Medien in Stuttgart Ethik-Leitlinien und ein ethisches Self-Assessment für hochautomatisiertes Fahren. Als wissenschaftliche Mitarbeiterin war sie bei EUREC Office zu den Themen IKT-Ethik und ethischem Stakeholder Engagement tätig. 


[1] Vgl. Automating Society Report 2020, 224-228. Wie der die Entwicklung von VioGén beratende Psychologieprofessor Antonio Pueyoa bemerkt, wäre es sinnvoll, dass Tool insgesamt zur Prävention weiterer häuslicher Gewalt einzusetzen, nicht nur zur Verhinderung von Frauenmorden.

[2] Vgl. hierzu den passenden Titel einer UNESCO−Studie „I’d blush if I could“ − der Antwort, die Apples Sprachassistenzssystem „Siri“ wohl auf die menschliche Aussage „Hey, Siri, you are a bi***.“ gibt.

[3] Das Vorführen von „Q“ bei einer interdisziplinären Veranstaltung zeigte, dass ein binäres Geschlechterverständnis und die damit verbundenen Vorurteile aus den Köpfen in die Technik getragen werden, da ein paar männliche Ingenieure und Informatiker eine Diskussion begannen, ob die Stimme nun wie ein Mann mit einer hohen oder wie eine Frau mit einer tiefen Stimme klänge, obwohl ich zuvor auf die dritte Option bzw. Neutralität verwiesen hatte.

Print Friendly, PDF & Email