Digitalisierung und Alltagswelt
Von Oliver Zöllner (Hochschule der Medien Stuttgart)
„Digitalisierung“ scheint fast ein Zauberwort der Gegenwart zu sein. Mit diesem Begriff verbinden sich Vorstellungen von Modernität, Zukunft und der Lösung alltäglicher Probleme – quasi per Zahlencode und Programmierung. Viele alltägliche Verrichtungen sind durch ihre digitalisierte Ausgestaltung in den letzten 30 Jahren auch tatsächlich bequemer geworden. Doch die neuen virtuellen Räume der Digitalität bringen neue alte Fragen mit sich.
Man kann sich streiten, wann genau die „Digitalisierung“ begonnen hat. Sybille Krämer nennt sie in einer kulturhistorischen Perspektive das Prinzip der prozessualen „Zerlegung eines Kontinuums“ in zählbare und (re-)kombinierbare Zeichen, die auf alphanumerischen Notationen und ihren „Ordnungsregistern“ beruht. Eingesetzt hat diese Form der Digitalisierung vor Jahrhunderten; es setzte sich um 1700 fort in den ersten Rechen- und Dechiffriermaschinen und mit dem ersten lauffähigen Computerprogramm, das 1843 von Ada Lovelace entworfen wurde (Krämer 2022: 15).
Armin Nassehi legt dar, wie am Ende des 18. Jahrhunderts die Entwicklung der Bevölkerungsstatistik als Herrschaftsinstrument nachfolgend den Prozess der Quantifizierung und Kategorisierung befördert hat. Die „Abbildung der Welt in Form von zählbaren Einheiten und die Codierung von analogen Sachverhalten durch diskrete Formen“ wurde allmählich gängig (Nassehi 2019: 108). Die technische Entwicklung von modernen Rechenmaschinen ab den 1940er-Jahren machte die per Beobachtung und Protokollierung erfolgende automatisierbare Umwandlung von analogen Kontinuen in Datenpunkte möglich.
Digitalisierung und Bequemlichkeit
Seit der Markteinführung des Heimcomputers um 1977 ist die Digitalisierung physisch im Alltag der Menschen angekommen. Die Entwicklung weltweiter Netzwerke ab den 1990er-Jahren und die tiefgreifende Abbildung vielfältiger Alltagshandlungen im digitalen Raum – für die meisten Menschen als „Digitalisierung“ schlechthin erfahrbar – haben spätestens ab etwa 2000 eine Kultur der „Digitalität“ geschaffen, in der viele Menschen inzwischen ganz selbstverständlich leben (Stalder 2016; Noller 2022: 7-11). Die zunehmende Miniaturisierung und Mobilität von Computern verstärken diesen Prozess: Das Smartphone als tragbarer Computer, Informationsmedium und De-facto-Personalausweis sorgt für eine Ubiquität des Digitalen. Für die meisten Menschen hält diese Digitalität in ihrem Alltag vor allem eine Fülle an nützlichen und bequemen Anwendungen bereit: Text- und Sprachbotschaften für den schnellen Informationsaustausch, Plattformen zur Selbstdarstellung und Vernetzung (soziale Online-Netzwerke), Nachrichten-, Informations- und Rechercheportale, vielfältige Einkaufsmöglichkeiten, Musik- und Video-Streaming, Computerspiele, Partnerschaftsbörsen usw.
Digitalität in diesem Sinne bedeutet auch: Man muss kaum noch die Wohnung verlassen, um viele alltägliche Handlungen „am Bildschirm“ erledigen zu können; nicht wenige Menschen arbeiten an ihren Computern gar von zu Hause aus. Die Digitalität domestiziert den Menschen auf eigentümliche Weise. Dies hat Auswirkungen auf der Mikroebene des Individuums, indem die entpersönlichten Handlungen am Bildschirm die Wahrnehmung der sozialen Welt verändern. Der bequeme, oft anstrengungslos scheinende Rückbezug gleichsam atomisierter Individuen auf sich selbst verändert auf der Makroebene aber auch die Gesellschaft, lässt Sozialisierungen schwieriger werden, mindestens auf der physischen Ebene. Auf der anderen Seite erleichtern gerade soziale Online-Netzwerke den Austausch und die soziale Organisation Gleichgesinnter in einem öffentlichen Raum eigener Art. Der Mensch ist spätestens seit ca. 2005, dem Zeitpunkt des Aufkommens von Social Media, nicht mehr allein, jedenfalls nicht seine digitalen Doppelgänger. Die Geschwisterkinder Privatheit und Datenschutz stehen dabei ein wenig verloren vor einem Knusperhaus voller verlockender Süßspeisen.
Digitalisierung und Geschäftsmodelle
Sehr weitgehend fußt die im Alltag erfahrbare Digitalität auf gewinnorientierten Geschäftsmodellen. Bei Einkaufsportalen ist dies offensichtlich, bei vielen anderen Anwendungen wie etwa sozialen Online-Netzwerken auf den ersten Blick weniger. Es geht im Kern dieser Geschäftsmodelle um die Erhebung, Speicherung, Verarbeitung, Bündelung und am Ende den Verkauf von Daten, wofür vielfältige Algorithmen eingesetzt werden. Bei jeder Nutzung eines Smartphones, einer App oder eines Dienstes produzieren Nutzerinnen und Nutzer eine Vielzahl an standardisierten Protokolldaten, also Spuren ihrer Einstellungen und Verhaltensweisen, die ein detailliertes Bild ihres Lebens ergeben. Die Daten können bis hin zur Überwachung verwendet werden. Shoshana Zuboff (2019) nennt diese Form der sehr tief schürfenden Datenwirtschaft denn auch „Überwachungskapitalismus“. Die Geschäftsmodelle der Anbieter bzw. Technologieunternehmen fußen darauf, nicht nur das gegenwärtige Verhalten der Nutzenden zu erfassen, etwa ihre Kaufentscheidungen oder Meinungsbekundungen, sondern auch ihr zukünftiges Verhalten zu prognostizieren.
Die Bewirtschaftung von Menschen bzw. ihren Daten scheint inzwischen „normal“, da die Verwobenheit sehr vieler Menschen mit ihren digitalen Endgeräten so stark ist. Das Smartphone ist Bahnfahrkarte, Routenplaner und Geldbörse in einem – und noch viel mehr. Auf der Bedienoberfläche der Geräte, dem front end, ist das zweifelsohne sehr bequem und praktisch. Was im Hintergrund der Anwendungen passiert, dem back end, entzieht sich meist dem Interesse und der Kenntnis der Nutzenden. Die algorithmischen Datenverarbeitungsprozesse sind zudem weitgehend intransparent: Sie erscheinen als black box. Forscherinnen wie Zuboff legen diese Mechanismen zwar mit großem Furor offen, doch befeuert dies kaum eine größere gesellschaftliche Debatte um die Macht der IT-Unternehmen und ihre fehlende demokratische Rechenschaftslegung. Viele Menschen scheinen sich recht sorglos in ihrer Ohnmacht eingerichtet zu haben. Die Digitalität funktioniert, weil der Kapitalismus als ihr Rückgrat funktioniert. Die weitreichende und letzten Endes übergriffige Datenwirtschaft bietet Menschen in ihrem Alltag dabei schlichtweg Effizienzvorteile.
Digitalisierung und Optimierung
Das Leben ist besser dank Digitalisierung, so scheint es, und man kann es noch weiter optimieren, auch den Menschen an sich. Schaffe eine bessere Version deines Selbst – so tönt das Credo der Selbstverbesserer. Ein Glaubenssystem, das tief im Erweckungsmythos der puritanischen Gründungsväter der Vereinigten Staaten wurzelt. Wer ein vorbildliches, „sauberes“ Leben führt, lebt gottgefällig und wird dafür entsprechend belohnt, so in etwa lautet die Gleichung. Im Silicon Valley, dem Hotspot der sich spätestens ab den 1960er-Jahren rasant entwickelnden Computertechnologie, wandelte sich dieses uramerikanische Denken zum ideologematischen Konzept der „kalifornischen Ideologie“ (Barbrook & Cameron 1996).
Die datafizierten Geschäftsmodelle der Optimierung strahlen längst auch ins Private aus. Die „Quantified Self“-Bewegung einer sehr weitreichenden digitalen Selbstvermessung gibt hiervon ein beredtes Zeugnis. Rankings, Scorings und Vergleiche sind im Privaten, im Geschäftlichen und nicht zuletzt im Politischen die neuen wesentlichen Maße für optimierte Abläufe. Das neue Zeitalter (New Age) der Digitalisierung wurde den einstigen Hippies und in ihrem Geiste den neuen IT-Unternehmern zum „crossover between countercultural spirituality and tech culture“ (Lanier 2013: 213). Dieser quasi spirituelle Glaube an Optimierung durch Datafizierung ist nun also in die alltägliche Digitalität eingeschrieben.
Von daher rundheraus und ethisch gefragt: Trägt die Digitalität in ihren ‚kalifornischen‘ Manifestationen zu einem ‚guten Leben‘ bei? Im Netz selbst findet sich Zustimmung: „Der Prozess der Digitalisierung hat viele Vorteile. Er ermöglicht eine effizientere Speicherung und Organisation von Informationen sowie einen leichteren Zugang und Austausch dieser Informationen. Er ermöglicht auch den Einsatz neuer Technologien wie künstliche Intelligenz und maschinelles Lernen, um große Datenmengen zu analysieren und Erkenntnisse daraus zu gewinnen.“ Die drei zuletzt zitierten Sätze hat ein Chatbot geschrieben, den ich schlichtweg gefragt habe, was Digitalisierung sei (ChatGPT 2022). Das Programm wird in Zukunft aus weiteren im Netz verfügbaren Textkorpora noch komplexere passende Antworten formulieren, dazu-„lernen“ und seine Antworten optimieren.
Digitalisierung und Humanität
Im Zuge der „Digitalisierung“ sind „künstliche Intelligenzen“ auf dem Vormarsch, auch wenn sie uns bisher nur als mehr oder weniger gut funktionierende Programme des maschinellen Lernens begegnen, also wahrscheinlichkeitsbasierter Zuordnungen auf der Basis statistischer Korrelationen. In der alltäglichen Anwendung funktionieren solche (und andere) Programme oft recht gut. Als Mensch muss ich bald womöglich kaum noch etwas „können“ oder „tun“, etwa Texte wie diesen schreiben. Alt gewordene Popgruppen und längst verstorbene Sänger bestreiten inzwischen Tourneen mit virtuellen Hologrammen, die an ihrer statt auf der Bühne „singen“ und „tanzen“. Vielleicht muss ich mein Auto bald nicht mehr selbst lenken. Schon jetzt brauche ich beim Fahren dank Navigationssystem keinen ausgeprägten Orientierungssinn mehr, geschweige denn eine analoge Repräsentation meiner Umgebung, also keine Straßenkarte mehr. Wenn ich etwas nicht weiß, frage ich Wikipedia oder gleich einen Chatbot, der seine Ergebnisse oft auch in weiteren Sprachen ausgeben kann. Dlaczego warto uczyć się języka polskiego? (Wozu noch Polnisch lernen?) Oder なぜ日本語を学ぶのか? Danke, DeepL.com (2022).
Damit sind wir bei einer großen Herausforderung der Digitalisierung und der Digitalität: Wo bleibe ich als Mensch bzw. was macht mich noch als Mensch aus, wenn digitale Anwendungen mir (im guten wie im schlechten Sinne) Arbeit abnehmen und manche Aufgaben sogar besser bzw. schneller lösen können als ich mit den viel langsameren Rechenkapazitäten eines Humangehirns? Wie einzigartig ist ein Mensch noch, wenn er wirklich Polnisch und Japanisch kann, jeder Zeitgenosse mit Internetzugang diese Fähigkeit aber zumindest geschickt simulieren kann? Wie individuell ist ein Mensch noch, wenn die im digitalen Raum angebotenen smarten Dienste zwar scheinbar personalisiert auf sie oder ihn zugeschnitten sind, dieser Mensch in seiner Einzigartigkeit, die ihm im Zuge des Credos der europäischen Aufklärung vermittelt worden ist, aber als kleiner standardisierter Datensatz im stetig wachsenden Datenpool versinkt? Bedeutsam in big data ist eben nicht der Einzelfall, sondern die errechnete korrelative Auftretenswahrscheinlichkeit eines Ereignisses.
Digitalisierung und Denken
Digitale Phänomene sind in all ihrer Bequemlichkeit, ihren virtuellen Bezügen und in ihren transformativen Praxen „zu realitätsstiftenden Faktoren geworden und betreffen unmittelbar unsere Existenz“ (Noller 2022: 17). Sie werfen uns auf die alte Frage zurück, wer wir sind und wie wir leben wollen. Sie rufen zugleich die ebenso klassische Frage nach dem Zugang und der Repräsentation der Welt auf, wenn diese – epistemologisch formuliert – „nur noch in der Verdoppelung zugänglich“ ist bzw. „nur noch als Verdoppelung, die ihr Original nur in der Verdoppelung kennt“ (Nassehi 2019: 110). Gleichsam verdoppelt, sucht der Mensch im virtuellen Raum der Digitalität sich selbst und den wahren Ursprung der Phänomene. Dies wird zunehmend schwierig. Wir können ChatGPT sicher vorab fragen, wie eine Ethik für die Digitalität aussehen könnte. Am besten denken wir aber selbst darüber nach.
Quellen:
Barbrook, Richard & Cameron, Andy (1996): The Californian Ideology. In: Science as Culture, Vol. 6, S. 44−72.
ChatGPT (2022): ChatGPT: Optimizing Language Models for Dialogue. URL: https://chat.openai.com
DeepL (2022): DeepL Translator. URL: https://www.deepl.com/translator
Krämer, Sybille (2022): Kulturgeschichte der Digitalisierung. In: Aus Politik und Zeitgeschichte, 72. Jahrg., Nr. 10−11, S. 10−17.
Lanier, Jaron (2013): Who Owns the Future? New York, London, Toronto, Sydney, New Delhi: Simon & Schuster.
Nassehi, Armin (2019): Muster. Theorie der digitalen Gesellschaft. 2. Aufl. München: Beck.
Noller, Jörg (2022): Digitalität. Zur Philosophie der digitalen Lebenswelt (= Reflexe, Bd. 75). Basel: Schwabe.
Stalder, Felix (2016): Kultur der Digitalität. Berlin: Suhrkamp.
Zuboff, Shoshana (2019): The Age of Surveillance Capitalism: The Fight for the Future at the New Frontier of Power. London: Profile Books.
Oliver Zöllner ist Professor für Medienforschung und Digitale Ethik an der Hochschule der Medien (HdM) Stuttgart, wo er gemeinsam mit Kolleg:innen das Institut für Digitale Ethik leitet. Er ist zudem Honorarprofessor an der Universität Düsseldorf. Zöllners Werdegang ist in allen unwesentlichen Details unter https://www.oliverzoellner.de/ dokumentiert. Links pflastern seinen Weg. ChatbotGPT gibt dagegen zu Protokoll: „I’m sorry, but I don’t have any information on a person named Oliver Zöllner. Without more context or information, it’s not possible for me to provide any additional information.” Dies ist beinahe beruhigend.