KI im Studium aus der Perspektive von Seniorenstudierenden

Seit ChatGPT Ende 2022 öffentlich verfügbar wurde, haben fast alle deutschen Hochschulen begonnen, Richtlinien zu entwickeln: Was dürfen Studierende mit KI-Tools, was nicht — und warum? Für Gasthörende und Seniorenstudierende, die aus freier Neugier und ohne Prüfungsdruck studieren, stellen sich dabei andere Fragen als für Vollzeitstudierende unter Leistungsdruck. Dieser Beitrag bündelt, was die Hochschulen konkret…


Transparenz

Text und Bild(er) mit KI-Unterstützung erarbeitet.



Was Hochschulen regeln — vier exemplarisch ausgewählte Leitlinien im Überblick

Der HFD KI Monitor 2025 zeigt: 50 Prozent der deutschen Hochschulen entwickeln derzeit eine eigene KI-Strategie, 15 Prozent haben bereits eine. Die Regelgebung ist im vollen Gang — aber sie ist uneinheitlich.

Vier Universitäten stehen hier stellvertretend für die Bandbreite der Ansätze im deutschsprachigen Raum: die Leibniz Universität Hannover, die Universität Oldenburg, die Universität Bonn und die Universität Basel. Alle vier benennen übergreifende Grundprinzipien — Transparenz, Eigenleistung, Datenschutz, kritische Prüfung von KI-Outputs —, setzen aber unterschiedliche Schwerpunkte.

Hannover hat als einzige der vier eine verbindliche Richtlinie erlassen, die auf der EU-KI-Verordnung (in Kraft seit August 2024) aufbaut und jährlich aktualisiert wird. Sie unterscheidet klar zwischen hochschuleigenen Systemen — deren Nutzung erleichtert ist — und externen Tools wie ChatGPT, die einer besonderen Begründung bedürfen.

Bonn setzt auf Ermutigung statt Regulierung: Die Leitlinie betont das Recht der Studierenden, selbst zu entscheiden, welche Tools sie nutzen — solange akademische Integrität gewahrt bleibt.

Oldenburg hat mit dem sogenannten KIKO-Konfigurator ein technisch innovatives Instrument entwickelt: ein Tool, das Lehrende dabei unterstützt, individuelle KI-Handreichungen für ihre Lehrveranstaltungen zu erstellen. Der Fokus liegt stark auf formalen Prüfungssituationen und Eigenständigkeitserklärungen.

Der Baseler Leitfaden  benennt zum Beispiel konkret, welche Tools für welche akademischen Arbeitsphasen geeignet sind — von ChatGPT für Textarbeit über DeepL für Übersetzungen bis hin zu Consensus für wissenschaftliche Literaturrecherche. Er unterscheidet außerdem zwischen zwei Nutzungsformen, die unterschiedlich zu behandeln sind: die inhaltliche Nutzung (KI liefert Ideen, Strukturen, Argumente) und die redaktionelle Nutzung (KI verbessert einen bereits selbst verfassten Text stilistisch). Und er enthält eine direkt verwendbare Vorlage für ein Forschungstagebuch — dazu gleich mehr.


Die eigene Situation verstehen — eine Standortbestimmung

Bevor Regeln sinnvoll angewendet werden können, lohnt eine kurze Standortbestimmung. Gasthörende und Seniorenstudierende unterliegen in der Regel keinen Prüfungsordnungen, schreiben keine Qualifikationsarbeiten im formalen Sinn und müssen keine Eigenständigkeitserklärungen abgeben. Das befreit von der Pflicht der Einhaltung von Regularien, die Hochschulleitlinien primär adressieren.

Was bleibt, ist der akademische Anspruch an sich selbst: intellektuelle Redlichkeit, Respekt gegenüber der akademischen Gemeinschaft im Seminar — und Datenschutz gegenüber Dritten.

Wer darüber hinaus formal eingeschrieben ist und Seminararbeiten einreicht, unterliegt selbstverständlich den Regelungen der jeweiligen Hochschule — mit allen Konsequenzen bis hin zu prüfungsrechtlichen Folgen bei nicht deklarierter KI-Nutzung.


Was bedenkenlos genutzt werden darf

Die folgenden Anwendungsfälle sind von allen vier untersuchten Hochschulleitlinien als zulässig beschrieben — und sie bilden gleichzeitig den Ausgangspunkt für eine Reihe praxisnaher Beiträge, die wir auf diesem Blog in den kommenden Wochen vertiefen werden: konkrete Tools, Schritt-für-Schritt-Anleitungen und Erfahrungsberichte aus dem Studienalltag.

Seminarvorbereitung ist der unkomplizierteste Anwendungsfall. Einen Fachaufsatz vorab durch ein KI-Tool zusammenfassen zu lassen, unbekannte Begriffe erklären zu lassen oder sich einen ersten Überblick über ein neues Themenfeld zu verschaffen — das entspricht genau der Art, wie man ein gutes Lexikon nutzen würde. Der entscheidende Unterschied zum Lexikon: KI antwortet auf Rückfragen, erläutert Zusammenhänge auf Wunsch tiefer und lässt sich auf den eigenen Kenntnisstand einstellen.

Fremdsprachige Quellen übersetzen ist ebenfalls ausdrücklich zulässig. DeepL liefert inzwischen Qualitäten, die frühere professionelle Übersetzungsleistungen übertreffen können — mit einem wichtigen Vorbehalt: Fachbegriffe sollten immer gegengelesen werden, da maschinelle Übersetzungen bei domänenspezifischer Terminologie gelegentlich ungenau sind.

Den eigenen Text stilistisch verbessern lassen ist als zulässige Unterstützung eingestuft — Basel nennt das „redaktionelle Nutzung”. Wer einen Absatz geschrieben hat und dessen Formulierung durch ein KI-Tool verfeinern lässt, tut nichts grundsätzlich anderes als jemand, der eine sprachkundige Kollegin um Feedback bittet. Der entscheidende Punkt: Die inhaltlichen Gedanken stammen aus der eigenen Feder.

Ein persönliches Forschungstagebuch führen ist schnell zur Gewohnheit geworden. Basel stellt dafür eine einfache Tabellenvorlage bereit: Tool, Anlass, Datum, was wurde damit gemacht, was war der eigene Beitrag. Diese Gewohnheit stärkt das Bewusstsein für die eigene intellektuelle Leistung — und wäre bei formalen Seminararbeiten ohnehin Pflicht.


Was kritisches Nachdenken erfordert

Wer eigene Seminarmaterialien mit Personenbezug in externe KI-Systeme hochlädt, bewegt sich auf unsicherem Terrain. Transkripte von Seminarveranstaltungen, E-Mails von Kommilitonen oder Lehrenden, persönliche Notizen anderer Personen — all das fällt unter Datenschutzrecht, sobald es in Cloud-basierte KI-Dienste wie ChatGPT oder Claude übertragen wird. Hannover ist hier am klarsten: Personenbezogene Daten dürfen nur mit expliziter Genehmigung verarbeitet werden. Wer Seminartranskripte in Tools wie NotebookLM hochladen möchte, sollte diese vorher auf Personenbezug prüfen — und im Zweifel die Lehrperson oder den Datenschutzbeauftragten der Hochschule konsultieren.

Auf KI-generierte Chat-Verläufe zu vertrauen, ohne eine lokale Kopie zu sichern, ist aus einem schlichten praktischen Grund riskant: KI-Dienste speichern Verläufe nicht zuverlässig, weder dauerhaft noch mit korrekten Zeitstempeln. Wer auf einen Austausch zurückgreifen möchte, sollte ihn unmittelbar nach dem Gespräch lokal speichern.


Was vermieden werden sollte

Die wichtigste Grenzlinie — und die am häufigsten unterschätzte — betrifft die gedankliche Struktur. Wenn KI die Gliederung eines Referats, die Argumentationslinie eines Textes oder die Leitfragen einer Diskussion vorgibt, hat sie einen zentralen intellektuellen Akt übernommen. Basel formuliert das explizit: Die Erstellung inhaltlicher Gliederungen durch KI „stellt eine bedeutsame Übernahme fremder Gedanken dar” — unabhängig davon, ob ein einziger Satz wörtlich übernommen wurde. Das ist die Zone, in der aus einem Werkzeug ein Denkersatz wird.

Ebenso zu vermeiden ist die unkritische Übernahme von KI-generierten Literaturhinweisen. Alle vier Leitlinien thematisieren das sogenannte Halluzinationsproblem: KI erfindet Quellen — überzeugend, plausibel klingend, mit korrektem Fußnotenformat, und trotzdem falsch. Jeder Titel, jede Autorenangabe, jede Jahreszahl aus einer KI-Antwort muss in einer Bibliotheksdatenbank verifiziert werden, bevor sie genutzt wird.

Da die Regelungen der Hochschulen stark variieren — verbindlich in Hannover, empfehlend in Bonn, mit eigenem Schweizer Rechtshintergrund in Basel — lohnt eine direkte Rückfrage bei der Lehrperson vor Abgabe einer Seminararbeit immer.


Was die Forschung über KI und Denken zeigt

Hinter allen Regelwerken steht eine tiefere Frage, die sie selbst nur selten direkt stellen: Was passiert mit dem menschlichen Denken, wenn KI-Tools allgegenwärtig werden? Ist die Sorge berechtigt, dass kognitive Fähigkeiten verkümmern — oder ist das ein Alarmismus, wie er jeder neuen Kulturtechnik vorausgeht, vom Buchdruck über den Taschenrechner bis zum Internet?

Die Forschungslage von 2025 gibt eine differenzierte Antwort, die weder beruhigt noch alarmiert.

Fachliches Wissen wird durch KI wichtiger, nicht unwichtiger

Prof. Gabi Reinmann, Hochschuldidaktikerin an der Universität Hamburg, formuliert ihre Kernthese in einem Preprint von 2025 so: Im Zuge der ubiquitären KI-Nutzung sollte die Bedeutung fachlichen Wissens für kritisches Denken nicht sinken, sondern steigen. Das klingt zunächst kontraintuitiv — schließlich kann KI Faktenwissen auf Abruf liefern.

Reinmann macht dabei eine entscheidende Unterscheidung. Es gibt KI-generiertes Wissen, das öffentlich zugänglich ist und sich kaum noch von menschlich erarbeitetem Wissen unterscheidet. Und es gibt personales Wissen — kognitive Strukturen, die durch eigene Erkenntnistätigkeit entstehen, im Langzeitgedächtnis verankert sind und beim Menschen verbleiben. Nur personales Wissen ermöglicht echtes kritisches Denken: die Fähigkeit, eine KI-Antwort auf ihre Plausibilität zu prüfen, Lücken in einem Argument zu erkennen, implizite Vorannahmen zu hinterfragen.

Der Befund in einem Satz: Man braucht Fachwissen, um gute KI-Antworten von schlechten zu unterscheiden. Wer die intellektuelle Eigenleistung des Wissenserwerbs vollständig an KI delegiert, verliert genau das, was man bräuchte, um KI souverän zu nutzen.

KI als Gesprächspartner — nicht als Schreibmaschine

Studien belegen: KI hat das Potenzial, kritisches Denken zu verbessern — etwa indem sie schnellen Zugang zu verschiedenen Perspektiven ermöglicht, die Analyse von Informationen erleichtert und hilft, Argumente zu formulieren. Zugleich gilt: Je häufiger KI zur kognitiven Entlastung herangezogen wird, desto ungünstiger wirkt sich das auf kritisches Denken aus. Das ist kein Widerspruch, sondern eine Frage des Wie. KI als intellektueller Gesprächspartner und Herausforderer fördert Denken. KI als Schreibmaschine für eigene Gedanken ersetzt es.

Der Microsoft Work Trend Index 2025, durchgeführt mit 18.000 Wissensarbeitenden (Hochschulen waren dabei nicht der Fokus, sondern die gesamte Arbeitswelt), zeigt eine klare Verschiebung: Kritisches Denken verlagert sich weg von klassischen Tätigkeiten wie eigenständiger Problemanalyse und Wissensaufbau — hin zur Verifikation von KI-generierten Inhalten, deren Integration in den eigenen Kontext und der übergeordneten Verantwortung für das Gesamtergebnis. Die Arbeit verschwindet nicht. Sie verändert sich.

Selbststeuerung entscheidet — nicht Intelligenz

Ein psychologisch aufschlussreicher Befund stammt aus einer empirischen Studie des BSI Berlin Social Intelligence (2025), die untersucht, warum manche Menschen KI als Werkzeug nutzen und andere als Denkersatz. Das Ergebnis ist überraschend: Nicht der Intelligenzquotient ist der stärkste Prädiktor, sondern die psychologische Selbststeuerung. Menschen mit hohem intrinsischen Anspruch und dem Wunsch, Dinge wirklich zu verstehen und intellektuell zu besitzen, neigen konsistent dazu, KI als Unterstützung zu nutzen, ohne sich ihr zu überlassen.

Die Studie kontrastiert zwei charakteristische Haltungen: „Warum sollte ich denken, wenn die Maschine es schneller kann?” versus „Ich will es selbst verstehen — sonst gehört es mir nicht.” Diese zweite Haltung ist keine Frage der Begabung. Sie ist eine Haltung des Selbstverständnisses als Lernende.

Ein Praxisbeispiel: Forschendes Lernen mit KI

Eine empirische Studie der Europa-Universität Viadrina und der Bauhaus-Universität Weimar (erschienen in der Zeitschrift für Hochschulentwicklung, Februar 2025,Fokus “Lernen in Politikwissenschaften”) zeigt, dass KI und kritisches Denken sich nicht ausschließen — wenn der Lernkontext stimmt. Studierende nutzten KI-Tools gezielt im Forschungsprozess und reflektierten diese Nutzung wöchentlich in schriftlichen Protokollen. Sie entwickelten dabei differenzierte, selbst erarbeitete Urteile über die Qualität und die Grenzen der Tools.

Eine Studierender stellte problematisierend fest: ChatGPT generiert keine polarisierenden Forschungsfragen — „die Antworten bleiben immer in einem sicheren Rahmen. Dadurch werden leider keine spannenden Themen generiert, sondern eher solche, die bereits oft diskutiert wurden.”

Die besondere Ausgangslage für Seniorenstudierende

Eine Aussage, die wir zur Diskussion stellen: Jüngere Studierende machen sich schneller von KI abhängig als ältere — weil sie unter Effizienz- und Zeitdruck stehen. KI-Entlastung ist für sie ein Wettbewerbsvorteil im Studium. Dieser Druck existiert für Gasthörende und Seniorenstudierende in der Regel nicht.

Jahrzehntelang aufgebautes personales Wissen ist laut Reinmanns Forschung eine entscheidende kognitive Ressource für souveränen KI-Umgang. Je komplexer das Fachgebiet, desto wichtiger das Vorwissen für die Qualität kritischen Denkens. Jahrzehntelange Expertise ist kein Nachteil gegenüber KI. Sie ist ein Schutz vor ihr.

Was die Forschung noch nicht weiß

Ehrlichkeit verlangt Transparenz über die Grenzen des Wissens:

  • Die meisten Studien zu KI und kognitivem Denken sind kurzzeitig angelegt; Langzeiteffekte durch kontinuierliche KI-Nutzung sind empirisch noch wenig erforscht.
  • Die Mehrheit der Studien bezieht sich auf jüngere Studierende in formalen Studiengängen; direkte Evidenz für Seniorenstudierende fehlt weitgehend.
  • Der Begriff „kritisches Denken” ist in der Forschungsliteratur nicht einheitlich definiert — Reinmann (2025) zählt über ein Dutzend verschiedener Konzeptionen, was Vergleiche zwischen Studien erschwert.
  • Die mögliche positive Wirkung von KI auf kritisches Denken ist in der öffentlichen Debatte deutlich weniger präsent als die Warnung vor kognitivem Verfall.

KI nutzen — regelkonform und mit eigenem Kopf

Was dieser Überblick zeigt: KI im Studium ist kein Entweder-Oder. Weder ein Tool, das man grundsätzlich meiden sollte, noch ein Werkzeug, dem man blind vertrauen kann. Die Hochschulen haben die Grundprinzipien klar benannt — Transparenz über die eigene Nutzung, Eigenleistung beim Denken, Sorgfalt beim Datenschutz. Die Forschung hat das Fundament dazu gelegt: Wer fachlich versiert ist, wer den Anspruch hat, Dinge wirklich zu verstehen, und wer KI als Gesprächspartner statt als Ghostwriter einsetzt, verliert durch KI nichts — und gewinnt ein mächtiges Werkzeug dazu.

Das ist keine Frage des Alters und keine Frage der Technikaffinität. Es ist eine Frage der Haltung. Und die bringen Gasthörende und Studierende, die aus eigener Neugier und ohne externen Druck lernen, in der Regel bereits mit.


Quellen: HFD KI Monitor 2025 | Leitlinie Universität Hannover | Leitlinie Universität Bonn | Leitlinie Universität Oldenburg | Leitfaden Universität Basel | Reinmann, G. (2025): Generative KI in Studium und Lehre | Viadrina/Bauhaus-Weimar, ZFHE 2/2025 | Microsoft Work Trend Index 2025 | BSI Berlin Social Intelligence (2025)


Wie handhaben Sie KI-Tools in Ihrem Studienalltag? Haben Sie konkrete Fragen zu einzelnen Tools, zu Datenschutz oder zu den Regelungen an Ihrer Hochschule? Schreiben Sie es in die Kommentare.



Schreibe einen Kommentar