Welche KI sollen wir wollen?

Von Leonie N. Bossert (Wien) –


KI prägt unseren Alltag. Ihre Nutzung erfordert jedoch die ethische Reflexion unnachhaltiger Konsequenzen.

Technologien Künstlicher Intelligenz (KI) beeinflussen uns bereits heute in unserem Alltag auf vielfältige Art und Weise. Sei es, indem wir uns mit Google Maps orientieren, Siri nach einem Restaurant in der Nähe befragen oder auf die Entscheidungen von Algorithmen hinsichtlich des Personalmanagements vertrauen. Jenseits solcher Routinen begegnen uns im medialen Diskurs um KI vor allem zwei Narrative. KI wird einerseits als Technologie gepriesen, die uns (als Menschheit) dazu befähigen wird, unsere sozio-ökologischen Krisen – wie den Klimawandel und Biodiversitätsverlust – zu bewältigen; schwer behandelbare Krankheiten zu heilen; extraterrestrische Ressourcennutzung zu erschließen und viel Hoffnungsgebendes mehr (für viele Rose 2023). Andererseits ist der Diskurs von einer dystopischen Vorstellung geprägt. Von KI als einer immer mächtiger werdenden Technologie, bei der zur Fähigkeit des Selbstlernens die Fähigkeit zur Selbstwahrnehmung hinzukommen wird und die spätestens dann in Form von „künstlicher allgemeiner Intelligenz“ eine Gefahr für uns Menschen darstellen wird (Barrat 2013; Bostrom 2014; Russell 2020).

Neben zahlreichen fragwürdigen Implikationen sind beide Narrative dahingehend problematisch, als dass sie KI-Entwicklung als etwas darstellen, das uns unweigerlich ereilen wird und nicht aufzuhalten ist. Auch wenn KI-Systeme bereits auf mannigfaltige Weise unseren Alltag beeinflussen, ist die KI-Forschung und -Entwicklung eine momentan stattfindende Entwicklung, deren weitere Implementierung in gesellschaftliche Praktiken durchaus zur Diskussion steht. Die Frage „Welche KI sollen wir wollen?“ muss daher in verschiedenen wissenschaftlichen Disziplinen sowie gesamtgesellschaftlich verhandelt werden. Im Kontext dieser Frage möchte der folgende Beitrag kurz aufzeigen, wie diese Frage in der KI-Ethik verhandelt wird und sich im Anschluss daran der Debatte um zukunftsfähige KI widmen, die sich im Diskurs vor allem unter dem Begriff der „nachhaltigen KI“ findet und daher eng mit Nachhaltigkeitsforschung verknüpft ist bzw. sein sollte. KI-Technologien werden hier verstanden als Systeme, die fähig sind, kognitive Funktionen auszuführen. „These include reasoning, learning, problem solving, decision-making and even the attempt to match elements of human behavior such as creativity.“ (Brevini 2022, 35)

Die Frage, welche KI wir wollen sollen, wird in der Technikphilosophie und – mit stärkerer anwendungsbezogener Perspektive – in der KI-Ethik intensiv verhandelt. Die neuere philosophische und ethische Debatte um KI lässt sich dabei in drei Phasen unterteilen (van Wynsberghe 2021). In der ersten Phase fokussierte sie sich darauf, wozu KI-Systeme fähig sein werden, wobei die Möglichkeit einer maschinellen Superintelligenz, dem dystopischen Narrativ entsprechend, auf alarmierende Weise als Gefahr diskutiert wurde. Die zweite Phase nahm die bereits bestehenden Herausforderungen in den Blick, wie beispielsweise (mangelnde) algorithmische Fairness, ethische Aspekte fehlender algorithmischer Erklärbarkeit und Datensicherheit. In der dritten Phase fanden und finden Aspekte Beachtung, die für die Zukunftsfähigkeit von KI-Systemen von zentraler Bedeutung sind, nämlich die ökologischen Auswirkungen dieser Systeme. Diese werden jüngst vermehrt in der KI-Ethik diskutiert, nachdem eine vielbeachtete Studie (Strubell et al. 2019) auf die sehr hohen Treibhausgas-Emissionen aufmerksam gemacht hat, die beim Training bestimmter KI-Modelle entstehen. So kann das Training eines Natural Language Processing (NLP)- Modells zum Ausstoß von ca. 300 Tonnen CO₂ führen, was in etwa dem fünffachen Ausstoß eines durchschnittlichen Autos über seine gesamte Lebensspanne entspricht. Googles AlphaGo Zero (ein KI-System, welches das chinesische Brettspiel ‚Go‘ spielen kann) verursachte 96 Tonnen CO₂-Emissionen in 40 Tagen Forschungs-Training, was wiederum ungefähr 1000 Stunden Flugmobilität entspricht. Zudem verbrauchen Rechenzentren sehr große Mengen an Energie und Kühlwasser, um die Server abzukühlen. Laut einer neuen Studie (Li et al. 2023) verbraucht das Training des NLP-Modells Chat GPT-3 in einem US-amerikanischen ‚state of the art‘ Datenzentrum 700.000 Liter Frischwasser. Grundsätzlich sind nicht alle NLP-Modelle so groß wie die in diesen Studien untersuchten und es werden auch nicht alle KI-Systeme ‚von Null an‘ trainiert, so dass sich diese Zahlen schwer übertragen lassen. Dennoch zeigen sie deutlich, dass KI-Systeme mit einem nicht zu unterschätzenden Energie- und Wasser-Verbrauch sowie beträchtlichen Mengen an CO2-Emissionen einhergehen. Entsprechend ist die Adressierung dieser ökologischen Auswirkungen zentral, wie sie gegenwärtig in der Debatte um nachhaltige KI zu finden ist.

So bedeutend diese Adressierung ist, so zu kurz greift sie jedoch, wenn man Nachhaltigkeit auf ökologische Aspekte eng führt. Ein anspruchsvolles Verständnis von Nachhaltigkeit ist breiter gefasst, aufbauend auf ihren normativen Grundlagen. In der Nachhaltigkeits-Ethik besteht weitgehend Einigkeit, dass intra- und intergenerationelle Gerechtigkeit die übergeordneten Prinzipien von Nachhaltigkeit und Nachhaltiger Entwicklung darstellen. Dies leitet sich aus dem wirkmächtigen Brundtland-Bericht der World Commission on Environment and Development (1987) ab, wonach intra- und intergenerationelle Gerechtigkeit im Sinne eines guten gegenwärtigen wie zukünftigen Lebens verstanden wird. Um diese abstrakten Prinzipien zu konkretisieren – und Antworten auf die Frage zu suchen, was Individuen heute und in Zukunft für ein gutes Leben benötigen – sind entsprechend Theorien von Verteilungsgerechtigkeit sowie Theorien des ‚Guten Lebens‘ vonnöten. Diese stellen das philosophische Rückgrat der Nachhaltigkeitsdiskussion dar.

Eine Rückbindung der Debatte um nachhaltige KI an ebendiese normativen Nachhaltigkeitsgrundlagen zeigt also, dass ein anspruchsvolles Verständnis von nachhaltiger KI nicht lediglich die ökologischen Auswirkungen von KI-Systemen adressieren kann, sondern diese ins Verhältnis setzen muss zu den sozialen Auswirkungen (welche in der KI-Ethik intensiv diskutiert werden, vgl. die oben angesprochene zweite Phase; vgl. auch Bossert/Loh 2025). Nachhaltige KI-Forschung muss sich zentral fragen, wann ein KI-System mit sozio-ökologischer Gerechtigkeit – im philosophisch gehaltvollen Sinn – im Einklang steht. Zudem ist der Einbezug zukünftiger Generationen für die Nachhaltigkeitsethik ein zentraler Bestandteil. Ökologische und soziale Aspekte der KI-Technologien müssen also im Hinblick auf ihre Auswirkungen für heute Lebende wie auch für zukünftige Generationen untersucht werden.

Um eine ethische Orientierung geben zu können bei der Frage, welche KI wir wollen sollen, benötigt es entsprechend kohärente und konsistente Argumente für den Umgang mit entstehenden Interessenskonflikten, für Priorisierungen und Abwägungen. Bei derlei Abwägungen gilt es, die negativen Auswirkungen der Erforschung, Entwicklung und Nutzung von KI-Systemen mit den positiven Auswirkungen, die mit ihrer Nutzung einhergehen (sollen), ins Verhältnis zu setzen und gut begründet zu gewichten. Beispielsweise lassen sich die genannten hohen Treibhausgasemissionen und Energieverbräuche von KI-Technologien überzeugender für ein KI-System rechtfertigen, welches Krebszellen in sehr frühem Stadium erkennt, als für eine Maschine, die Go spielen kann. Selbstredend ist dies ein simplifizierendes Beispiel. Die Aushandlung, welche KI wir (nicht) wollen sollen, ist ein äußerst komplexen Unterfangen, in das die Expertise verschiedener Fachdisziplinen einfließen muss, um substanzielle Aussagen treffen zu können, und das auch demokratische Entscheidungsfindungsprozesse bedarf. Nichtsdestotrotz müssen diese ethischen Aushandlungsprozesse die KI-Forschung und -Entwicklung begleiten. KI-Systeme können nur dann gemäß einem anspruchsvollen Verständnis nachhaltig – und damit zukunftsfähig – sein, wenn all diese Aspekte in ihre ethische Bewertung einfließen.


Leonie N. Bossert arbeitet als Post-Doc Universitätsassistentin am Lehrstuhl für Technikphilosophie der Universität Wien. Sie ist Mitglied der Jungen Akademie der Heidelberger Akademie der Wissenschaften und des Jungen ZiF der Universität Bielefeld sowie assoziiertes Mitglied des Center for Environmental and Technology Ethics Prague. Ihre Forschung fokussiert auf Schnittstellen zwischen Umwelt-, Tier- und Technikethik und auf Gerechtigkeitstheorien.

Dieser Blogbeitrag wurde zuerst im Athene Magazin 2/2023 der Heidelberger Akademie der Wissenschaften veröffentlicht.


Bibliographie

Barrat, J. (2013). Our Final Invention: Artificial Intelligence and the End of the Human Era. New York: Thomas Dunne Books.

Brevini, B. (2022): Is AI Good for the Planet? Cambridge/ Medford: Polity Press.

Bossert, L.; Loh, Wulf (2025): Why the carbon footprint of generative large language models alone will not help us assess their sustainability. In: Nature Machine Intelligence.

Bostrom, N. (2014). Superintelligence. Oxford/ New York: Oxford University Press.

Li, P.; Yang, J.; Islam, M.; Ren, S. (2023). Making AI Less “Thirsty”: Uncovering and Addressing the Secret Water Footprint of AI Models. In: arXiv:2304.03271.

Rose, S. (2023). Five ways AI could improve the world: ‘We can cure all diseases, stabilise our climate, halt poverty’. In: The Guardian July 6th.

Russell, S. (2020). Human Compatible. Künstliche Intelligenz und wie der Mensch die Kontrolle über die superintelligenten Maschinen behält. Frechen: mitp Verlag.

Strubell, E., Ganesh, A.; McCallum, A. (2019). Energy and Policy Considerations for Deep Learning in NLP. In: Proceedings of the 57th Annual Meeting of the Association for Computational Linguistics. 3645–3650.

World Commission on Environment and Development (1987). Our Common Future. Oxford/ New York: Oxford University Press.

Wynsberghe, A. van (2021). Sustainable AI: AI for sustainability and the sustainability of AI. In: AI and Ethics, 1-6.