Kann Europas KI Gesetz eine lebenswerte Zukunft bewahren?

von Mario Günther (München) und William D’Alessandro (Oxford/San Francisco)

Das Europäische Parlament übernahm letzte Woche seine Verhandlungsposition zum Gesetz der Künstlichen Intelligenz (Artificial Intelligence Act). Das Gesetz wird die ambitionierteste Regulierung der Künstlichen Intelligenz (KI) in der westlichen Welt, sobald es verfeinert und, wie erwartet, vom Europäischen Rat gegen Jahresende bestätigt wird. Die Europäische Union (EU) war gut beraten früh Maßnahmen zu den transformativen Technologien zu ergreifen. Aber es ist zu früh das KI-Gesetz zu einem Erfolg zu erklären: angesichts entgegenwirkender ökonomischer Anreize und sich abzeichnenden Durchsetzungsherausforderungen muss die EU hart bleiben und die entscheidenden Sicherheitsvorkehrungen des KI-Gesetzes aufrechterhalten.

Die Technologie der KI hat sich in den letzten Jahren rasant entwickelt, so wie unser Verständnis ihrer Risiken. Dieses Jahr kamen mächtige Basismodelle (foundation models), wie ChatGPT von OpenAI, PaLM von Google und Copilot von GitHub, auf, die eine Vielzahl von komplexen Aufgaben auf menschenähnlichem Niveau erfüllen können.

Die Fähigkeiten von Basismodellen werden sich noch verbessern. Die Gefahren von hochentwickelten KI-Systemen mit technisch ausgereiften Fähigkeiten im Sprechen, Schließen, Planen, und Programmieren werden vielfältig sein – vielleicht sogar so facettenreich wie die Risiken, welche Menschen von anderen Menschen zu befürchten haben. Laut der neuesten Stellungnahme des Zentrums für KI-Sicherheit in San Francisco, unterzeichnet von hunderten KI-Experten und Persönlichkeiten des öffentlichen Lebens, sind die Risiken der KI vergleichbar groß zu denen von Pandemien und Atomkriegen. Wenn das KI-Gesetz uns helfen soll, gut mit Künstlicher Intelligenz zu leben, muss es diesen Herausforderungen entschlossen begegnen.   

Als das KI-Gesetz 2021 erstmals vorgeschlagen wurde, waren Basismodelle kaum auf dem Radar der Regulierung. Die Aufmerksamkeit der Gesetzgeber lag stattdessen auf dem Missbrauch durch KI-Systeme, die nur auf eine Aufgabe angewendet werden können – etwa der Missbrauch in Form von institutioneller Befangenheit oder ungerechten Überwachungspraktiken durch den Staat, insbesondere durch die Polizei. Regulierung gegen diese Missbräuche sind weise und das KI-Gesetz bietet einen vernünftigen Rahmen an, wie Risiken von Systemen für eine Aufgabe einzuschätzen sind und wie mit solchen Systemen umzugehen ist. Aber es ist klar, dass ChatGPT und seinesgleichen einen anderen Ansatz erfordern. 

Man muss dem EU Parlament zugutehalten, dass es relevante Richtlinien in der gegenwärtigen Fassung des KI-Gesetzes skizziert hat. Viele der Ideen sind exzellent, unter anderen: verpflichtende Fähigkeitsbeurteilungen für Basismodelle, gesetzliche Haftung für KI-Unternehmen, deren Produkte Schäden verursachen können, Kontrollregeln für das maschinelle Lernen, welches benötigt wird, um mächtige Modelle zu erschaffen, und Robustheit-Standards gegen bösartigen Missbrauch. Solche Regulierungen passen gut zu den Richtlinienempfehlungen aus der Forschung der KI-Sicherheit.  

Es ist jedoch wichtig festzuhalten, dass noch keine der guten Ideen Gesetzesstatus hat. Die kommende Trilog-Verhandlung zwischen dem Europäischen Rat, Parlament und Kommission wird die endgültige Fassung des KI-Gesetzes bestimmen. Es gibt Gründe gegenüber dem Ausgang misstrauisch zu bleiben.   

Ökonomische Anreize sind ein Fallstrick auf dem Weg der Regulierung. Die Entwicklung und Verwendung von KI versprechen riesige Gewinne für Staaten. Staatsrepräsentanten werden im Streben nach Wachstum durch KI beträchtlichen Druck verspüren regulatorische Standards herabzusetzen.   

Sogar in seiner vorläufigen, parlamentarischen, Fassung bewegt sich das KI-Gesetz auf einem dünnen Pfad zwischen vielversprechender sorgfältiger Regulierung und Unterstützung für KI-Unternehmen. Unter den vorrangigen Zielen des KI-Gesetzes befindet sich die Innovation der KI samt Arbeitsplätzen zu steigern und so die EU zu einem Marktführer zu machen. Zudem haben einige Repräsentanten laut eingefordert, dass die regulatorischen Barrieren weiter herabgesetzt werden sollen. Bevor dem KI-Gesetz in der Plenarsitzung vom 13. Juni zugestimmt wurde, hat beispielsweise Axel Voss, ein deutsches Mitglied des Europäischen Parlaments, die „angstgetriebenen Vorschläge“ kritisiert, welche Europas Bestrebungen „zur KI-Weltspitze auf[zu]schließen“ behindern würden.  

Das Schicksal der Datenschutz-Grundverordnung (DSGVO) der EU verdeutlicht einen zweiten Grund zur Besorgnis. Mit großen Ambitionen und lobenswerten Absichten wurde die DSGVO eingeführt und ist seit 2018 anwendbar, gilt heute aber für die meisten als eine regulatorische Enttäuschung. Die Durchsetzung der Verordnung hat sich als langsam und fehlerhaft erwiesen, Geldstrafen für Nichtbefolgung waren selten, und große Unternehmen haben Schlupflöcher ausgenutzt, um weiterhin ungestraft private Daten zu sammeln. Die DSGVO leidet unter vielen Problemen, aber die mehrdeutige Natur der Vorschriften gilt als ein entscheidendes Defizit.  

Eine effektive Regulierung der mächtigen und dynamischen KI-Technologie ist nicht einfacher. Wenn sich die unziemliche Geschichte der DSGVO nicht wiederholen soll, besteht die erste Aufgabe der Repräsentanten in der Entwicklung von klaren Regulierungen. Die zweite Aufgabe besteht in der Gestaltung von Durchsetzungsmechanismen, die nicht nur flexibel, einheitlich, und proaktiv sind, sondern auch auf technologische Fortschritte reagieren können.

Die KI-Basismodelle nähern sich menschlichen Fähigkeiten in mehr und mehr Bereichen an und bringen dadurch nicht zu vernachlässigende, oft globale, Gefahren mit sich. Glücklicherweise ist die EU bereit eine führende Rolle in der Bewahrung einer lebenswerten Zukunft zu spielen. Aber der Weg zum Erfolg ist schmal und das Umgehen der Gefahren wird ein noch nie dagewesenes Niveau der Zusammenarbeit und Verpflichtung erfordern.    

Es kommt darauf an, dass die Ratsmitglieder für die robusten Sicherheitsvorkehrungen kämpfen. Selbst wenn eine starke Version des Gesetzes die Kompromisse des Trilogs überleben sollte, wird das Gesetz ohne effektive Durchsetzungsmechanismen an den Herausforderungen scheitern. Es ist an der Zeit jeden Schritt im Auge zu behalten und aus vergangenen Fehlern zu lernen. Nur so lässt sich eine lebenswerte Zukunft in der EU bewahren, die als Inspiration für andere dienen mag.   


Mario Günther ist Assistenzprofessor an der LMU München. Er forscht am Münchner Zentrum für Mathematische Philosophie zu Themen der Entscheidungs- und Erkenntnistheorie. Er hat argumentiert, dass wir mehr Transparenz von algorithmischen Entscheidungen als von menschlichen verlangen sollten. Zudem hat er eine Theorie der Verursachung und eine Theorie des Lernens von konditionalen Informationen vorgelegt. Für die letztere wurde ihm der Wolfgang-Stegmüller-Preis verliehen. 

William D’Alessandro ist promovierter Forscher am Münchner Zentrum für Mathematische Philosophie, der Universität Oxford, und dem Zentrum für KI-Sicherheit in San Francisco. Geschult als Wissenschaftstheoretiker und Philosoph der Mathematik hat er eine Reihe von Artikeln über Erklärung, Verstehen, wissenschaftliche Modelle und verwandte Themen publiziert. In letzter Zeit hat er über die Risiken der KI, sowie über den potenziellen Gebrauch, Missbrauch und die Grenzen von KI-Werkzeugen in der Wissenschaft geschrieben.