15 Dez

Menschenrechte fürs Metaverse

Dorothea Winter (Humanistische Hochschule Berlin)


KI verändert die Gesellschaft. Doch welchen Einfluss hat sie auf unsere Demokratie? Zur Beantwortung müssen die Sphären Wirtschaft und Politik zusammengebracht werden. Zwischen ihnen wirkt der Mensch als zoon politikon und homo oeconomicus: Er ist politisches und Wirtschaftssubjekt. Doch ist das Zusammenwirken dieser Bereiche nicht längst hinreichend ausgeleuchtet? Sicherlich, zumindest in der analogen Welt. Doch wie verhält es sich in der digitalen Welt?

Wir leben in einer Informationsgesellschaft. Eisen, Kohle, Stahl waren die prägenden Merkmale der Industriegesellschaft, die digitale Welt wird durch einen neuen Rohstoff geprägt – Informationen. Selbstverständlich waren Informationen bereits früher für wirtschaftliche und politische Entscheidungen bedeutsam. Der Reichtum der Stadt Frankfurt beispielsweise resultiert zu einem Großteil daraus, dass sie als eine der ersten Städte Deutschlands einen Markt hatte, bei dem nicht nur Waren, sondern auch Informationen (damals primär Warenpreise) gehandelt wurden. Diese Preislisten sind die Urgroßväter der Frankfurter Börse. Wissen ist Macht, Informationen sind mächtiger.

Ein zentraler Aspekt dieser digitalen Gesellschaft sind Bürger:innen, die nicht länger bloße Konsument:innen sind, sondern zugleich Rohstofflieferanten. Der Rohstoff, den sie liefern, heißt Information: Amazon-Einkauf, Schrittzähler, Menstruationszyklus sind die Rohstoffgruben des 21. Jahrhunderts.

Wie das Eisenerz heute nicht länger mit Schaufeln, sondern mit Baggern, so werden unsere Informationen nicht länger durch Lochkartenkarteien, sondern durch KI geschürft. Die schiere Datenmenge, die Google, Amazon & Co. minütlich generieren, ist längst so groß geworden, dass sie der Mensch selbst nicht mehr zu überblicken vermag. Welche Informationen von wem, wann, wo, wie und wofür abgeschöpft werden, entscheiden längst Algorithmen.

Und genau darin liegt das Problem: Weder das Was noch das Wie oder Wo der Erhebung persönlicher Daten ist demokratisch legitimiert. Noch viel weniger ist es die Verwendung dieser Daten. An wen Amazon die Information meines Einkaufs rosa Socken weiterverkauft, kann ich nicht wissen. Und soll es vermutlich auch nicht. Ich könnte dann beispielsweise begreifen, dass mir die Bank deshalb kein Geld leiht, weil ein Algorithmus herausgefunden hat, dass Leute mit rosa Socken zu 78 % ihre Kredite nicht zurückzahlen.

Wir sehen: Algorithmen bieten Manipulationsmöglichkeiten in historisch nicht gekanntem Ausmaß. Glücklich dabei, wen man aufgrund seiner ausgespähten Präferenzen nur als gläsernen Konsumierenden ausnimmt. Weniger glücklich, wer aufgrund dieser ausgespähten Daten diskriminiert oder gar unterdrückt wird. Welche menschenverachtenden Konsequenzen das nach sich ziehen kann, zeigt aktuell das traurige Schicksal der Uiguren in China. Oder die Chancenlosigkeit, die sich vielerorts in den USA bereits aus der Postleitzahl ergibt, wenn es um besser bezahlte Jobs geht.

Aber zurück zum homo oeconomicus. Der klingt nach komplizierter Wissenschaft, ist aber simples Erfahrungswissen: Die gängigen Wirtschaftstheorien gehen davon aus, dass Menschen als Wirtschaftssubjekte ihre Entscheidungen rational und zum eigenen Vorteil treffen. Ob das in der Praxis immer so stimmt, bleibt hier irrelevant. Grundsätzlich gilt: Wie soll der Mensch rationale Entscheidungen treffen können, wenn ihm entscheidungsrelevante Argumente vorenthalten werden? Gar nicht! Doch genau das findet momentan statt. Ich weiß eben nicht, wie sich der Kauf meiner rosa Socken auf meine Kreditwürdigkeit auswirkt. Und deshalb gehe ich beim Kauf dieser Socken – neben möglichen geschmacklichen – Risiken ein, von denen ich nichts ahne.

In der ökonomischen Theorie wird bislang von einem gleichberechtigten Zustand der Marktteilnehmer:innen ausgegangen. Wenn ich im Sockenladen rosa Socken kaufe, wird dieser Kauf nicht meiner Hausbank mitgeteilt. Ich als Konsumentin bin also informationstechnisch gleichberechtigt, weil ich der Sockenverkäufer:in – und nur ihr – meine Sockenfarbwahl mitgeteilt habe.

Wie aber kann Gleichberechtigung in einem digitalen Markt gegeben sein, wenn Marktteilnehmer:innen völlig unterschiedliche Informationsstände haben? Amazon, Google & Co. wissen um meine Schuhgröße und meine Lieblingshafermilch. Was weiß ich über diese Datenkraken? Ich kann bestenfalls in Erfahrung bringen, was mir Wikipedia über Jeff Bezos verrät und welchen Aktienanteil die Deutsche Bank an Meta hält. Aber führt das realiter zu einem Informationsgleichgewicht?

Dieses Informationsungleichgewicht, also die Tatsache, dass die Internetgiganten mich besser kennen als meine engsten Freunde, ist an sich schon beunruhigend. Weitaus beunruhigender ist allerdings, dass die Informationsverarbeitung bei diesen globalen Playern von Algorithmen abhängen, deren Entscheidungsprozesse obskur bleiben, Stichwort: Blackbox.

Die riesige Menge und die Geschwindigkeit, mit der diese Daten ausgewertet werden müssen, um gute Geschäfte damit machen zu können, haben Amazon, Google & Co. in eine Abhängigkeit gebracht, die nichts Gutes verheißt. Sie sind gezwungen, von Algorithmen vorgegebene Entscheidungen zu akzeptieren, deren Zustandekommen sie nicht nachvollziehen und deren Auswirkungen sie kaum absehen können. Der Kauf meiner rosa Socken wird so via SCHUFA quasi in Echtzeit an potenzielle Kreditgeber verschickt. Über meine persönliche Kreditwürdigkeit entscheidet dann ein unpersönlicher Algorithmus. Und der wird, einmal programmiert, zumeist nicht weiter hinterfragt. Denn Algorithmen sind vermeintlich neutral und korrekt – egal, wie unsinnig es dem Menschen scheinen mag, Sockenfarbe und Kreditwürdigkeit aufeinander zu beziehen. Das ist allerdings nur eine Seite der Medaille, nämlich die technisch-ökonomische, gewichtiger ist die andere: die politische.

In über hundert Jahren haben Arbeitnehmer:innen in der analogen Marktwirtschaft Spielregeln entwickelt, die dem Markt ein demokratisches Antlitz verliehen haben – die Marktwirtschaft wurde sozialer. Streikrecht, Arbeitsschutz, Rente und

Gesundheitsvorsorge sind Früchte erbitterter Kämpfe, in denen die Arbeitenden ihre sozialen Rechte erstritten haben: Soziale Marktwirtschaft statt Manchester Kapitalismus. Betriebsrat statt Gutsherrenstil. Streikrecht statt Lohndiktat. Diese sozialen Rechte sind zu wesentlichen Pfeilern unserer demokratisch verfassten Grundordnung geworden. Doch dies alles gilt nur in einer analogen Welt.

Wie aber sieht es mit Demokratie und Sozialstaat im Zeitalter der digitalen Transformation aus? Sind Blackbox-Entscheidungen demokratisch? Dürfen Demokratie und Sozialstaat per Algorithmus ausgehöhlt werden?

In der digitalen Welt ist der Markt ein anderer. Digitaler Handel überschreitet Grenzen, die Welt ist zu einem globalen Marktplatz geschrumpft. Geschrumpft ist auch die Zeit, auf diesem globalen Marktplatz gehen die Uhren anders. Güter werden längst containerweise sekundenschnell vertickt, Zeitzonen, Kilometer, Sprach- und Staatsgrenzen mit einem Mausklick überwunden. Per Algorithmus. Wie das schiefgehen kann, hat vor einiger Zeit ein globaler Beinahe-Börsencrash gezeigt. Durch die fehlerhafte Eingabe einiger weniger zusätzlicher Nullen bei einem Kaufauftrag, wurden innerhalb weniger Millisekunden Kauf- und Verkaufaufträge automatisch abgefeuert, die das global vernetzte Börsensystem fast kollabieren ließen. Diese Misere ließ sich erst nach einigen Wochen in mühsamer (menschlicher) Handarbeit wieder rückabwickeln. Bei diesem digitalen Betriebsunfall wären durch einen Zahlendreher ums Haar Milliarden Euro verpufft – bei digitalen Entscheidungen, durch die Menschen zu Tode kommen könnten, dürfte sich eine Rückabwicklung schwieriger gestalten.

Doch welche Lehren können und müssen wir als demokratische Gesellschaft aus diesem und ähnlich gelagerten digitalen Unfällen ziehen?

Erstens ist ein Umdenken erforderlich. Nicht nur Verbraucher:innen, auch die politischen Führungen müssen die Art und Weise ihres Denkens aus der analogen Vergangenheit in die digitale Zukunft transferieren: Eine digitale, globale Welt muss anders gedacht werden. Amazon, Google & Co. denken und agieren längst algorithmengestützt in digitalen Dimensionen. Politik, Marktaufsicht und Marktregelung hingegen sind auch heute noch zum größten Teil analogem Denken verhaftet. Doch analoges Denken passt nicht in eine Informationsgesellschaft. Siri versendet keine Faxe.

Zweitens gelten in der analogen (westlichen) Welt in Politik und Wirtschaft demokratische Prinzipien. Diese Prinzipien sind verfassungsmäßig statuiert und von allen Bürger:innen einklagbar. Weil die digitale Welt bislang primär den Spielregeln von Amazon, Google & Co. folgt, sind diese demokratischen Prinzipien – nicht zuletzt aus pekuniären Erwägungen – zum Großteil ausgehebelt. Die Algorithmen, mit denen die Big Five des Tech in unserer digitalen Informationsgesellschaft ihre Gewinne erwirtschaften, sind zwar durchaus nach marktwirtschaftlichen, aber nicht nach demokratischen, sozialstaatlichen Prinzipien programmiert. Die Internetgiganten streben nach Geld, nicht Demokratie. Die Bürger:innen und ihre Rechte sind im Metaverse nicht einprogrammiert. Und das muss sich ändern.

Drittens ist es deshalb dringend notwendig, der digitalen Welt eine demokratische Verfassung zu geben. Wie die Verfassung in der analogen Welt die Sphären des Politischen und Wirtschaftlichen durchdringt, muss diese digitale Verfassung die Welt der Algorithmen steuern. Dass diese Verfassung zwingend erforderlich ist, zeichnet sich bereits heute ab.

Während meine Persönlichkeitsrechte in der analogen Welt durch Polizei und Staatsanwaltschaft geschützt sind, weil mir Gesetze diesen Schutz gewähren, sind sie es in der digitalen Welt kaum. Hier entscheiden die Internetgiganten eigenständig und bestenfalls aufgrund interner Compliance-Policies, was erlaubt ist und was nicht. Auch wenn für sie theoretisch die Gesetze gelten. Diese werden jedoch entweder kaum oder gar nicht verfolgt oder hinken in ihrer Ausgestaltung um Jahrzehnte hinterher. Es darf so nicht bleiben, dass die Politik den Schutz unserer demokratischen Grundrechte an private Wirtschaftsunternehmen delegiert. Wir müssen sicherstellen, dass die demokratischen Spielregeln aus unserer analogen Welt so in die Algorithmen einprogrammiert werden, dass die Rechte der Bürger:innen Beachtung finden. Es kann nicht sein, dass sich der Staat aus der digitalen Welt zurückzieht und das Wohl und die Rechte seiner Bürger:innen Global Players und deren Algorithmen überlässt. Wir brauchen Grundrechte fürs Metaverse.


Dorothea Winter promoviert an der Humboldt-Universität zu Berlin zu Intentionalität und Künstliche Intelligenz. Sie arbeitet als wissenschaftliche Mitarbeiterin im Bereich Ethik des Deutschen Forschungszentrum für Künstliche Intelligenz und an der Humanistischen Hochschule Berlin.

Ausgewählte Publikationen:

  • Warum Künstliche Intelligenz keine schöne Kunst im kantischen Sinne hervorbringen kann. J.B. Metzler Berlin, Heidelberg 2022, DOI: https://doi.org/10.1007/978-3-662-64873-5„Warum KI nichts wollen kann“
  • „Warum KI nichts wollen kann“, Gehirn & Geist 4/2022.
Print Friendly, PDF & Email