KI und die Eigenständigkeitserklärung. Sollten Universitäten die Nutzung künstlicher Intelligenz durch Studierende einschränken?

Von Markus Bohlmann (Universität Münster)

Audiofassung: Der Artikel wurde von Markus Bohlmann eingesprochen:

Zum Wintersemester 2025/26 verschärfen einige Universitäten im deutschsprachigen Raum ihre Regeln zum Einsatz generativer KI. An vielen Standorten ist man sich noch unschlüssig, empfindet aber zunehmend Regulierungsdruck. Die erste stark liberale Reaktion, für die beispielsweise das Strategiepapier der TU München (TUM 2024) steht, ermöglichte umfassende, datenkonforme Zugänge an den Universitäten und empfahl eine weitgehende Integration von KI in das Lehren und Lernen. Mittlerweile haben sich die technischen Möglichkeiten von großen Sprachmodellen noch einmal deutlich erweitert. So ermöglichen Tools wie Googles NotebookLM auch eine KI-Unterstützung beim Lesen und ChatGPT wird immer mehr zum ständigen Lebensbegleiter. Gleichzeitig ist aber spätestens seit der enttäuschenden Veröffentlichung von GPT-5 der erste Hype verflogen. Manch einer redet bereits vom Ende der Fahnenstange in der Entwicklung von Sprachmodellen, da sie mit zusätzlichem Training kaum noch besser zu werden scheinen. Aus hochschuldidaktischer Sicht wird Data Literacy zunehmend als wichtige Kompetenz für alle Studierenden und Lehrenden gesehen (Schüller et al. 2019). Vor diesem Hintergrund ist die gegenwärtig stattfindende Regulierung von KI in der Hochschuldidaktik umso bedeutender. Eine zentrale Stellschraube sind inzwischen die Eigenständigkeitserklärungen als Prüfungsdokumente geworden, die auch die KI-Nutzung zunehmend regulieren. Dabei gibt es verschiedene restriktive Varianten, die alle problematisch sind. In diesem Beitrag empfehle ich, die Eigenständigkeitserklärungen nicht zu ändern, denn das eigentliche didaktische Problem der KI-Nutzung liegt tiefer.


Eigenständigkeitserklärungen. KI und die akademische Integrität Studierender

Generell ist eine gewisse Skepsis gegenüber großen Sprachmodellen im didaktischen Betrieb von Universitäten zunächst einmal sinnvoll. Im Jahr 2025 gaben über 90 % der Studierenden an, KI-basierte Tools für ihr Studium zu nutzen (von Garrel und Mayer 2025). Und bei jeder neuen Bildungstechnologie gilt: Wo neue Türen aufgehen, schleicht auch neues Unheil herein. Von Sprachmodellen generierter Text fällt nicht unter das Urheberrecht, er ist kein Plagiat, er ist nicht zitierfähig, weil kein Autor dahintersteht, und er ist bei jeder Iteration anders. Zeit- und Leistungsdruck sowie die vielen Stellen generischer Textproduktion im Studium bieten Anreiz, die neuen Möglichkeiten der Texterstellung zu erproben. Frei nach Hanlon’s Razor muss das noch nicht einmal böswillig sein, sondern kann schlicht die technisch schnellste und einfachste Möglichkeit darstellen, bestehende Aufgaben zu erfüllen. In den aktuellen Diskussionen an den Hochschulen steht deshalb die Frage nach der akademischen Integrität der Studierenden im Zentrum der Regulierungsbemühungen. Das Instrument hierfür scheint zunehmend die Eigenständigkeitserklärung zu sein, die schon weitgehend bei Prüfungsleistungen zur Plagiatsprävention eingesetzt wurde. Sie muss ggf. nur ein wenig modifiziert werden. Ergänzt wird ein solches Dokument oft durch KI-Leitfäden für Studierende und Lehrende. Hier sind mehrere mögliche Formen der Ergänzung von KI-Passagen zur Regulierung denkbar. Aber keine von ihnen ist unproblematisch.

Variante 1: Angabe, dass man keine KI zur Erstellung der Arbeit verwendet hat

Anfang September 2025 hat ein Paper einer interdisziplinären Gruppe von KI-Expert:innen, die größtenteils der niederländischen Radboud-Universität affiliiert sind, für Furore gesorgt. In dem Open-Access-Paper wird für ein weitreichendes Verbot von KI an Hochschulen plädiert. Ein zentraler Grund für ein KI-Verbot ist laut dem Paper, dass künstliche Intelligenz an sich bereits gegen Kernprinzipien akademischer Integrität verstoße. Die Gruppe nennt Ehrlichkeit, Gewissenhaftigkeit, Transparenz, Unabhängigkeit und Verantwortung. Diese Werte würden alle auf demselben wissenschaftlichen Kernprinzip basieren, nämlich der Reziprozität, also der Gegenseitigkeit wissenschaftlicher Forschung (Guest et al. 2025, S. 16). Große Sprachmodelle wie ChatGPT würden durch die stochastische Generierung ihrer Outputs zwangsläufig diese Reziprozität verletzen, indem sie beispielsweise immer wieder andere Antworten liefern und es somit unmöglich machen, Ergebnisse nachvollziehen zu können. Das Argument wird besonders plausibel, wenn Sprachmodelle „halluzinieren“ oder gegen Transparenzprinzipien verstoßen, indem sie vage Angaben zu Quellen oder Referenzen machen. Grundsätzlich gibt es diese Argumentation seit Beginn der KI-Revolution: LLMs sind eben keine wissenschaftlichen Akteure und können entsprechend nicht wissenschaftlich integer sein. Eine solche Argumentation verkennt jedoch, dass Sprachmodelle nie allein agieren, sondern immer von Nutzer:innen verwendet werden. Sie sind der Logik der Sprachmodelle gerade nicht hilflos ausgeliefert. Beispielsweise können Nutzer:innen seltsam anmutende Zitate – ein offensichtliches Problem früherer GPT-Versionen – auf Referenzen hinterfragen und im Originalwerk prüfen. Suchfunktionen, klickbare Angaben von Online-Referenzen und etwas mehr Bescheidenheit sind darüber hinaus inzwischen auch in ChatGPT integriert worden. So ist es inzwischen kaum noch plausibel, anzunehmen, dass diese KI-Systeme allein schon durch ihre Programmstruktur der Wissenschaftlichkeit eines Produktes entgegenstehen.

Ein zweites wichtiges Argument der niederländischen Gruppe für ein generelles Verbot der KI-Nutzung im Studium ist allgemeindidaktischer Natur.  Gelegentlich sei es didaktisch sinnvoll, technologiefreie Räume zu schaffen, um grundlegende Fähigkeiten zu erlernen. Der Taschenrechner habe das Kopfrechnen als didaktischen Inhalt schließlich auch nicht gänzlich abgeschafft. In ähnlicher Weise solle man erst einmal ohne KI das akademische Arbeiten lernen (Guest et al. 2025, S. 14). Dieses auf den ersten Blick einleuchtende Argument kann aber in der Breite nicht überzeugen. Es gibt nämlich keine Verwendung von Kulturtechniken (Lesen, Schreiben, Rechnen, Programmieren, Philosophieren …) und auch kein Lehren und Lernen dieser ohne Technologien. Selbst die symbolischen Operationen beim Kopfrechnen sind historisch entwickelte und kulturell differenzierte Technologien. Man hat also immer nur die Wahl zwischen gegenwärtigen und Vorgängertechnologien. In der Regel macht es Sinn, Kulturtechniken direkt in ihrer gegenwärtigen technologischen Form zu erlernen. Entsprechend zahlreich sind die Beispiele für historische Formen, die wir nicht mehr für einen didaktischen Gebrauch verwenden, beispielsweise Wachstafel, Gänsekiel, Abakus oder Sütterlin.

Variante 2: Angabe als Werkzeug oder Software

Optiert man nicht für einen generellen Bann der KI-Systeme, dann mag es sinnvoll erscheinen, den Dozierenden offen zu lassen, wie sie die KI-Nutzung bewerten. In diese Richtung geht die Pflicht, die KI-Nutzung als Werkzeug oder Software in der Eigenständigkeitserklärung anzugeben. Eine entsprechende Formulierung findet sich etwa in einer aktuellen Vorlage des Zentralen Prüfungsamtes der Uni Wuppertal. Dort heißt es: „Ich habe keine anderen als die angegebenen Quellen und Hilfsmittel benutzt; dies umfasst insbesondere auch KI-Systeme, Software und Dienste zur Sprach-, Text- und Medienproduktion“ (ZPA BUW 2025). Eine solche Angabe ist aber allein deshalb schon problematisch, weil sie zwangsläufig nicht vollständig sein wird. Wir benutzen nämlich in einem typischen Schreibprozess ständig KI, ohne dass wir davon wissen. Beispiele hierfür sind Autokorrektur und Textvorschläge in Textverarbeitungen, KI-Vorschläge bei der Google-Suche, Hintergrundübersetzungen auf Webseiten – ganz zu schweigen von der Maschine-zu-Maschine-Kommunikation, beispielsweise in Telekommunikationsnetzwerken. Lehrende werden außerdem kaum allein anhand des Namens einer konkreten Software ausmachen können, ob die KI-Nutzung schon eine Grenze überschreitet.

Variante 3: Angabe der technologischen Praxis

Wegen der offenkundigen Probleme mit der Variante einer generellen Angabe als Werkzeug sind manche Hochschulen dazu übergegangen, näher zu spezifizieren, welche konkrete Nutzung von Sprachmodellen erlaubt, und welche verboten ist. Laut KI-Leitfaden der Abteilung Grundschulpädagogik der Universität Potsdam ist es Studierenden beispielsweise erlaubt, KI als Korrekturwerkzeug und zur Ideenfindung zu nutzen. Es ist hingegen nicht erlaubt, Arbeiten ganz oder teilweise direkt zu generieren oder KI-Systeme als „Ko-Pilot“ während des gesamten Prozesses einzusetzen (Grundschulpädagogik Potsdam 2025, S. 1). Eine solche Regelung klingt erst einmal sinnvoll. Mit der Korrektur von Rechtschreibung und Grammatik machen KI-Lösungen wie DeepL Write im Prinzip ja auch nicht mehr als ein engagiertes menschliches Lektorat. Problematisch ist allerdings der Übergang von der Ideenfindung zur Textgenerierung. Wessen Geistes Kind ist beispielsweise das Fallbeispiel für eine konkrete Dilemmasituation in meinem Ethik-Essay, das ich mir von ChatGPT suchen lasse? Muss ich es leicht umschreiben oder kann ich es abtippen, damit es mein eigener Text wird? Darf ich Copy & Paste nutzen? Ist es dann noch eine bloße Inspirationsquelle oder schon ein KI-generierter Teil meines Textes?

Variante 4: Angabe als Quasi-Zitation

In der zwischenmenschlichen akademischen Praxis werden Zweifelsfälle wie in Variante 3 oft dadurch gelöst, dass Sätze in Fußnoten geschrieben werden wie: „Die Idee zu diesem Fallbeispiel habe ich Kollegin X zu verdanken.“ Es gibt Ansätze, Sprachmodelle in ähnlicher Weise quasi zu zitieren. Ein Beispiel hierfür bietet der Leitfaden „Aus KI zitieren“ der Universität Basel (Vizerektorat Lehre Basel 2024). Es kann sich dabei tatsächlich maximal um ein „quasi Zitieren“ handeln, da Sprachmodelle keine Autoren sind. Sie haben kein Interesse an ihrem Werk oder geistigem Eigentum. Auch die Nachverfolgung der Quelle, eine andere Funktion gängiger Zitate, fällt weg, wenn diese Quelle wirklich das Sprachmodell ist, und keine feste Referenz, auf die das Modell lediglich verweist – in diesem Fall könnte man auch einfach diese weitere Quelle klassisch zitieren. Man kann auch ChatGPT nicht einfach zitieren wie eine Internetseite. Während sich Internetseiten zwar ändern können und daher in Zitationen einen Zeitstempel haben, sind LLM-Ergebnisse selbst noch zu diesem spezifischen Zeitpunkt variabel. Was bleibt dann noch? Zitate haben oft auch die an sich bereits problematische Funktion, ein Autoritätsargument zu machen. „Wie schon ChatGPT sagte“ ist aber sehr wahrscheinlich ein deutlich schwächeres Autoritätsargument als „wie schon Hegel sagte“. Hat dann eine Quasi-Zitation überhaupt irgendeinen Nutzen? Es ist wahrscheinlich die einzige Funktion einer Quasi-Zitation, näher zu kennzeichnen, wofür man welches konkrete KI-Tool letztlich verwendet hat. Das führt uns direkt zu Variante 5.

Variante 5: Angabe als komplettes Changelog

Auch hierzu liefert der Leitfaden aus Basel ein Beispiel (Vizerektorat Lehre Basel 2024, S. 2). Studierende sollen zu jedem Einsatz von KI im Schreibprozess dokumentieren, welches KI-basierte Hilfsmittel sie verwendet haben, welche Einsatzform sie genutzt haben, welcher Abschnitt der Arbeit betroffen ist und welche Bemerkungen sie dazu haben. Die Problematik eines solchen Changelogs ist offensichtlich. Würde die Zeit, die in diese Dokumentationspflicht investiert wird, stattdessen in echte Lernzeit umgewandelt, die Studierenden wären ungleich schneller mit ihrem Studium fertig. Darüber hinaus bleibt auch hier die Konsequenz unklar. Sollten Dozierende einen massiven Einsatz von KI, der entsprechend umfangreich dokumentiert ist, dann als unzulässige Auslagerung oder als besonders kompetente Nutzung werten? Studierende wüssten nicht, worauf sie sich einlassen, und müssten vorher im Gespräch ständig sondieren, wie die konkreten Dozierenden es mit der KI halten, um zu erraten, welcher Willkür sie letztlich nach Abgabe der Arbeit ausgesetzt sind.

Variante 6: Keine Angabe

Letztlich bleibt noch der Status quo ante. Tatsächlich halte ich die Nichtregelung für den besten Weg. Nicht nur, weil keine der fünf anderen Varianten überzeugt, sondern auch, weil das eigentliche Problem tiefer liegt. Die Erstellung von Leitfäden und Eigenständigkeitserklärungen dient oft nur als Feigenblatt, um das eigentliche didaktische Problem nicht angehen zu müssen. Dieses Problem betrifft die akademischen Leistungen und Prüfungen selbst. Sie müssten in Formen umgewandelt werden, die Kompetenzen auf dem aktuellen Stand der Technologien prüfen. Natürlich ist es auch dann beispielsweise noch eine wichtige akademische Kompetenz, einen eigenen Standpunkt in einer wissenschaftlichen Debatte zu vertreten oder ein spezifisches Problem einer Disziplin nachvollziehbar zu lösen. Eine solche Kompetenz umfasst aber auch alle Technologien, die in der Wissenschaft hierfür zur Verfügung stehen, also auch KI, und ist in vielen Fällen etwas, das man mit seiner akademischen Person, also auch zusätzlich mündlich, verantworten sollte. Das eigentliche Problem der Akademie ist, dass in vielen Bereichen die Zeit und das Geld fehlen, um Studierende bei ihrer Entwicklung wirklich zu begleiten und die individuelle Kompetenzentwicklung in den Mittelpunkt zu stellen. Nur so konnte sich die elektronische République des Lettres des akademischen Betriebs entwickeln – das Versenden und Empfangen belangloser Textmassen als PDF, Workloads in Seitenzahlen, deren Inhalt weitgehend generisch ist und deshalb auch einfach von KI ersetzt werden kann. Dieses Problem muss durch eine Reform der Prüfungsordnungen und grundlegende didaktische Änderungen angegangen werden – mit einer neuen Zeile in den Eigenständigkeitserklärungen ist es nicht getan!


Markus Bohlmann ist Philosophiedidaktiker und Technikphilosoph am Philosophischen Seminar der Universität Münster. Er leitet die Fokusgruppe Didaktik der DGPhil-AG „Philosophie der Digitalität“. Kürzlich von ihm erschienen ist: Künstliche Intelligenz: Die didaktische Perspektive

Literatur:

von Garrel, Joerg, und Jana Mayer. 2025. Künstliche Intelligenz im Studium – Eine quantitative Längsschnittstudie zur Nutzung KI-basierter Tools durch Studierende. https://opus4.kobv.de/opus4-h-da/frontdoor/index/index/docId/533.

Grundschulpädagogik Potsdam. 2025. Leitfaden zur Nutzung von KI. https://www.uni-potsdam.de/fileadmin/projects/psych-grundschulpaed/Dokumente/Leitfaden_zur_Nutzung_von_KI.pdf. Zugegriffen: 11. September 2025.

Guest, Olivia et al. 2025. Against the Uncritical Adoption of „AI“ Technologies in Academia. https://doi.org/10.5281/zenodo.17065099.

Schüller, Katharina, Paulina Busch, und Carina Hindinger. 2019. Future Skills: Ein Framework für Data Literacy. https://doi.org/10.5281/zenodo.3349865.

TUM. 2024. KI Strategie. https://mediatum.ub.tum.de/doc/1766632/1766632.pdf. Zugegriffen: 11. September 2025.

Vizerektorat Lehre Basel. 2024. Leitfaden «Aus KI zitieren» Umgang mit auf Künstlicher Intelligenz basierenden Tools . Version 2.2, Juni 2024. https://www.unibas.ch/dam/jcr:e46db904-bf0f-475a-98bc-94ef4d16ad2e/Leitfaden-KI-zitieren_v2.2.pdf. Zugegriffen: 11. September 2025.

ZPA BUW. 2025. Eigenständigkeitserklärung für schriftliche Prüfungsformate. https://uniservice-dl.uni-wuppertal.de/fileadmin/Dez6/uniservicedl/UDL-KI-pages-stuff/Eigenständigkeitserklärung_schriftliche_Prüfungsformate_keine_Thesen.pdf. Zugegriffen: 11. September 2025.