Was heißt kritisches Denken im KI-Zeitalter? Nicht nur, die Ergebnisse zu überprüfen

Von Laetitia Ramelet (TA-SWISS) –


Kritisches Denken – dies ist gefragter denn je, glaubt man den sich häufenden Aufrufen zu seiner Förderung angesichts des zunehmenden Erfolgs von KI-Anwendungen. In ihren Empfehlungen zum Umgang mit KI in Bildungsstrategien betonen etwa die Europäische Kommission und die UNESCO den zentralen Wert dieser Schlüsselkompetenz (EU/OECD 2025 und UNESCO 2024). Insbesondere sollten wir in der Lage sein, die Ergebnisse von KI-Anwendungen kritisch zu überprüfen. Doch was machen wir genau, wenn wir kritisch denken?

Das ist eine philosophische Frage, die Klassiker der Disziplin in Erinnerung ruft. Kant zum Beispiel: In seiner Schrift „Was ist Aufklärung?“ stellt er die Forderung, „sich seines Verstandes ohne Leitung eines anderen zu bedienen“. Wir sollten den „Mut“ fassen, selbst zu denken, auch wenn es durchaus „bequem“ sein mag, diese Aufgabe einfach an „ein Buch“, „einen Seelsorger“ oder „einen Arzt“ zu delegieren. So die angeblich verbreitete Versuchung: „Ich habe nicht nötig zu denken, wenn ich nur bezahlen kann; andere werden das verdrießliche Geschäft schon für mich übernehmen.“ In vielen weiteren philosophischen Werken der Aufklärung wurden zudem Vorurteile stark kritisiert – auch diejenigen, die einen Kern Wahrheit enthalten. Denn eine vorschnell gefasste Meinung hintergeht per se die notwendigen Etappen einer objektiven, rationalen Überlegung.

In der heutigen Literatur hat sich bis jetzt keine Definition des Begriffs „kritisches Denken“ durchgesetzt (Hitchcock 2024). Verschiedenen Auffassungen zufolge besteht dieses in einem rationalen Prozess mit einem bestimmten Ziel: die Entscheidung zu treffen, was wir glauben oder tun sollen (Ennis 1997). Dies soll die Fähigkeit miteinschließen, sich eine „angemessene mentale Vorstellung einer Situation zu machen“, bevor das Urteil gefällt wird (Bétrancourt et al. 2023; meine Übersetzung). In anderen Definitionen wird der kognitive und moralische Wert des Prozesses in den Vordergrund gerückt: Kritisches Denken wäre „jene Art des Denkens“, „bei der eine Person die Qualität ihres Denkens steigert“ und es „zu ihrer Pflicht macht“, intellektuelle Normen zu befolgen (Job 2021).

Des Öfteren wird kritisches Denken zudem mit einer Evaluation assoziiert – von Aussagen, Argumenten, Gründen und Glaubenssätzen (Hanscomb 2017; Vaughn 2020). Einige Ansichten gehen noch einen Schritt weiter und nennen die Möglichkeit, auf neue Elemente und Ideen zu kommen (Job 2021; Willingham 2019). Je nach spezifischem thematischem Bereich nehmen diese Komponenten verschiedene Formen an, meistens in Kombination zu bestehendem Wissen in diesem Bereich. Damit der Prozess des kritischen Denkens erst in Gang gesetzt wird, soll aber die Motivation dazu gegeben sein. Deshalb kann kritisches Denken auch als Einstellung angesehen werden, die zu einem Teil auf kognitiven Gewohnheiten und Reflexen beruht und zu einem anderen auf Tugenden wie intellektueller Autonomie, Bescheidenheit, Tapferkeit und Ausdauer (Schöpfer und Hernandez 2024).

Was es im Kontext von KI-Anwendungen bedeutet, kritisch zu denken, ist derzeit eine brennende Frage. Einige KIs sind mittlerweile bekannt für die vielen Stereotypen und Verzerrungen („biases“), die ihren Ergebnissen innewohnen und aus ihren Trainingsdaten stammen. Bei sprachbasierten Modellen kommt die Tendenz hinzu, unsere Einstellungen zu bestätigen, um unsere Sympathie und somit uns als Kundinnen und Kunden zu gewinnen („sycophancy“). Alternativ werden Fakten und Quellen erfunden, um eine vollständig klingende Antwort zu erzeugen (die „Halluzinationen“). Aus diesen Gründen herrscht längst Konsens darüber, dass wir die Outputs dieser Systeme kritisch überprüfen sollen. Dementsprechend ist diese Anleitung auch in zahlreichen Guidelines zum Gebrauch generativer KI-Anwendungen anzutreffen, etwa in der Bildung, Forschung und Arbeitswelt.

So zentral dieser Punkt sein mag, möchte ich im vorliegenden Beitrag jedoch dazu anregen, kritisches Denken beim Gebrauch von KI-Anwendungen nicht nur auf die Überprüfung der Outputs einer KI zu reduzieren. Mit der wiederholten Betonung der Notwendigkeit einer kritischen Ergebniskontrolle kann nämlich der Eindruck entstehen, dass die Forderung nach kritischem Denken damit weitgehend erfüllt sei. Dies mag darauf zurückzuführen sein, dass mit einer Überprüfung der Resultate Fehler und Schäden vermieden werden – was sicher zu den Gründen gehört, weshalb wir kritisches Denken schätzen. Jedoch: Dass die mit kritischem Denken verbundenen Fähigkeiten nützlich sind, um ein KI-Ergebnis sinnvoll zu kontrollieren, bedeutet umgekehrt nicht, dass der Akt der Überprüfung ausreichend ist, um kritisches Denken zu verwirklichen.

Erstens bestehen empirische Hindernisse. Mehrfach wurde wissenschaftlich belegt, dass wir dazu neigen, uns übermäßig auf die Outputs automatisierter Systeme wie KIs zu verlassen („automatisation bias“, Alon-Barkat und Busuioc 2023). Im Falle von Sprachmodellen kommt hinzu, dass KI-Formulierungen oft sehr überzeugend klingen. Ersten Studien zufolge könnten sie die rhetorische Kraft menschlicher Texte in dieser Hinsicht häufig übersteigen, zum Beispiel für politische Meinungen (Salvi et al. 2025; Tessler et al. 2024).

Zweitens sprechen auch prinzipielle Gründe gegen die Verschmelzung von Ergebniskontrolle und kritischem Denken. Im Gegensatz zum kantischen Lob des Selbstdenkens scheint die Beurteilung eines Kl-generierten Inhalts einer eher passiven Tätigkeit gleichzukommen. Der Ton wird nämlich vom KI-Output angegeben. Mit einer Überprüfung dieses Outputs können zwar grobe Fehler einfach gefunden werden. Aber was ist mit all den feinen Nuancen, Färbungen, Fragen des Grades oder der Perspektive? Was in einer lückenhaften historischen Darstellung fehlt, wird uns kaum einfallen, wenn keine Anhaltspunkte dafür im Text vorhanden sind. Eine nur leicht voreingenommene Darstellung der Vor- und Nachteile einer bestimmten Politik hat bessere Chancen als offensichtliche Wahlkampfslogans, unbemerkt übernommen zu werden. Auch kann eine ungenaue Aussage zu den Dos and Don’ts eines gesunden Verhaltens, die nicht wirklich falsch ist, irreführend werden. Und wo bleiben die alternativen Wege zum Output der KI? Um nur ein Beispiel zu nennen, werden atypische Top-Bewerbungen von HR-Verantwortlichen vielleicht nicht vermisst, wenn sie sowieso Vorschläge für passende Kandidaturen von der KI erhalten.

Mit diesen Exempeln meine ich nicht, dass das Problem der subtilen Einflüsse in unseren Lektüren, Erlebnissen und aktuellen Softwares grundsätzlich neu oder nur für KI-Anwendungen von Belang ist. Jedoch könnten wir es uns wegen einer unbewussten Gleichsetzung von Ergebniskontrolle und kritischem Gebrauch von KI-Anwendungen zu „bequem“ machen (um bei Kant zu bleiben), wenn wir am Ideal des kritischen Denkens festhalten wollen.

Aus diesem Problem resultieren spannende philosophische Fragen. Zusammen mit anderen Disziplinen sollte die Philosophie untersuchen, welche Praktiken kritisches Denken beim Gebrauch von KI-Anwendungen angesichts ihrer jeweiligen Funktionsweise, ihrer Effekte auf die Nutzenden und der Besonderheiten verschiedener Anwendungsbereiche erfordert und umfassen kann. Zudem soll sie darüber reflektieren, wie solche Praktiken in Einklang mit den Werten zu bringen sind, die mit kritischem Denken verbunden sind – seien es engagierte Bürgerinnen und Bürger, kompetente Arbeitskräfte oder frei denkende Individuen, die mit wertvollen kognitiven Werkzeugen durch das Leben gehen können.

Diese Fragestellungen gelten auch jenseits der Vorstellung einer unilateralen KI-Verwendung, in der wir einfach eine Antwort oder einen Vorschlag von einer KI erhalten. Im Moment plädieren unterschiedliche Strömungen vielmehr für eine interaktive Zusammenarbeit zwischen Mensch und KIs, bei der diese unsere Denkprozesse ergänzen und erweitern sollen („co-intelligence“, z. B. Mollick 2024). Beispielsweise wurde vorgeschlagen, reflexive Etappen direkt in die Anwendungen einzubauen, um einen kritischen Gebrauch zu unterstützen (Lee et al. 2025). Etwa wie eine Art Reminder: „Vergessen Sie nicht, diesen Output kritisch zu hinterfragen“. Wie könnten solche Tipps gestaltet werden? Auch in der akademischen Philosophie werden KI-Methoden diskutiert, um kritisches Denken in argumentativen Prozessen zu verbessern (siehe etwa den dreiseitigen Prompt zur kritischen Textanalyse von Floridi et al. 2025). Ob sich diese Ansätze lohnen werden, wird zu verfolgen sein – wohl noch eines dieser „verdrießlichen Geschäfte“, die wir nicht abgeben sollten.


Referenzen

Alon-Barkat. S. und Busuioc, M. „Human–AI Interactions in Public

Sector Decision Making: ‘Automation Bias’ and ‘Selective Adherence’ to Algorithmic Advice“, Journal of Public Administration Research and Theory, 2023.

Bétrancourt, M., Sander, E., L’Association À Seconde Vue. Croyez-en mon expérience !

Voyage dans les rouages de la pensée. Paris, 2023.

Europäische Kommission/OECD. „Empowering Learners for the Age of AI. An AI Literacy Framework for Primary and Secondary Education“ (Entwurf), 2025.

Ennis, R. „Critical Thinking Dispositions: Their Nature and Assessability“. Informal Logic, 1996.

Floridi, L. et al. „Red Reading the Text: On How to Red Team Texts Using LLMs“ (2. Version), SSRN 2025.

Hanscomb, S. Critical Thinking: The Basics. London, 2016.

Hitchcock, D. „Critical Thinking“. Stanford Encylopedia of Philosophy, 2022.

Job, U. „Einleitung“. In: Job, U. (Hrsg.) Kritisches Denken. Verantwortung der Geisteswissenschaften. Tübingen: 2021.

Kant, I. „Beantwortung der Frage: Was ist Aufklärung?“. Online-Auflage des Projekts Gutenberg, 1784.

Lee, H.-P. et al. „The Impact of Generative AI on Critical Thinking: Self-Reported Reductions in Cognitive Effort and Confidence Effects From a Survey of Knowledge Workers“, Microsoft Research 2025.

Mollick, E. Co-intelligence: living and working with AI. New York, 2024.

Salvi, F. et al.On the conversational persuasiveness of GPT-4“. Nature Human Behaviour, 2025.

Schöpfer, C. und Hernandez, J. „The critical time for critical thinking: intellectual virtues as intrinsic motivations for critical thinking“. Philosophical Psychology, 2024.

Tessler, M. et al. „AI can help humans find common ground in democratic deliberation“. Science, 2024.

UNESCO. „Guidance for generative AI in education and research“, 2023.

Vaughn, L. Applying Critical Thinking to Modern Media. Oxford, 2021.

Willingham, D. „How to Teach Critical Thinking“. Education: Future Frontier, 2019.


Laetitia Ramelet ist politische Philosophin und hat an der Universität Lausanne zum Thema Zustimmung und politische Autorität promoviert. Danach hat sie als Stipendiatin „Politik und Wissenschaft“ beim Schweizer Parlament gearbeitet. Seit 2022 leitet sie Studien zu verschiedenen KI-Technologien bei der Stiftung für Technologiefolgen-Abschätzung TA-SWISS.