Zwischen Assistenz und Autorschaft – eine Orientierungshilfe für Betreuer und Prüfer
Die rasante Verbreitung von KI-Tools wie ChatGPT, Grammarly oder DeepL hat das wissenschaftliche Schreiben grundlegend verändert. Studenten nutzen sie, um Texte zu glätten, Ideen zu entwickeln oder gar ganze Abschnitte zu formulieren. Für Dozenten und Prüfer stellt sich zunehmend die Frage: Wo hört die zulässige Unterstützung auf, und wo beginnt die Täuschung? Was gilt noch als eigenständige Prüfungsleistung?
In diesem Beitrag werfen wir einen differenzierten Blick auf den aktuellen Diskurs und die Herausforderungen im Umgang mit KI-generierter Unterstützung bei wissenschaftlichen Arbeiten.
Im Kern besteht eine Prüfungsleistung darin, eigenständig ein wissenschaftliches Problem zu bearbeiten, Theorien zu reflektieren und methodisch fundierte Schlussfolgerungen zu ziehen. Die Fähigkeit zur selbstständigen Argumentation, Analyse und Textproduktion steht im Fokus.
Wird diese Eigenständigkeit durch KI gefährdet? Die Antwort lautet: Es kommt darauf an.
Viele Hochschulen haben bislang keine eindeutigen Richtlinien formuliert. Doch folgende Orientierungshilfen können nützlich sein:
Zulässig ist:
KI-gestützte Rechtschreib- oder Stilkorrektur (z. B. Grammarly, LanguageTool)
Inspiration durch KI-generierte Ideen oder Gliederungsvorschläge
Nutzung von KI für Formulierungshilfen, sofern der Inhalt selbst erarbeitet wurde
transparente Kennzeichnung von KI-Nutzung
Nicht zulässig ist:
komplette Textproduktion durch eine KI ohne Eigenbeitrag
paraphrasierte Inhalte ohne Verständnis und ohne eigene Analyse
versteckte Nutzung ohne Quellen- oder KI-Angabe
Täuschung über den Umfang der eigenen Leistung
Wichtig: Sobald die KI inhaltlich mitgestaltet, gerät man schnell in den Bereich der unzulässigen Hilfsmittelverwendung – vergleichbar mit Ghostwriting.
Ein wesentliches Problem bei der KI-Nutzung in Abschlussarbeiten: Betreuer können häufig nicht erkennen, ob der Text aus eigener Leistung stammt oder zu großen Teilen von einem KI-System generiert wurde.
Dies erschwert die Bewertung und wirft auch ethische und rechtliche Fragen auf, beispielsweise zur Gleichbehandlung aller Studenten.
Ein möglicher Lösungsansatz ist eine verpflichtende Offenlegung: Studenten sollten in einer Art "Anmerkungsabschnitt" beschreiben, wo, wie und warum KI-Tools verwendet wurden.
Beispiel:
„Für die sprachliche Überarbeitung einzelner Absätze wurde ChatGPT (Version XY, Zugriff am …) eingesetzt. Die inhaltliche Ausarbeitung basiert auf eigenen Überlegungen und Recherchen.“
Solche Angaben fördern Fairness und digitale Mündigkeit.
Die Grenze zwischen hilfreicher Assistenz und unerlaubter Fremderstellung ist fließend. Viele Studenten sind sich dieser Grauzonen nicht bewusst. Umso wichtiger ist es, in Seminaren, Kolloquien und Betreuungsgesprächen offen über den Umgang mit KI zu sprechen.
Dozenten sollten Studenten:
für Urheberrecht und wissenschaftliche Redlichkeit sensibilisieren
auf institutionelle Richtlinien verweisen (sofern vorhanden)
aktiv ermutigen, ihre Nutzung transparent zu machen
KI-Tools werden nicht verschwinden, und sie bieten durchaus didaktisches Potenzial. Doch ihre Nutzung muss klar definiert und integriert werden, um die Integrität wissenschaftlicher Prüfungen zu gewährleisten.
Statt pauschaler Verbote braucht es:
Transparenz
differenzierte Bewertungskriterien
Sensibilisierung für wissenschaftliche Eigenleistung
Nur so können Studenten Verantwortung übernehmen und Prüfer fair bewerten.
„So bleibt Ihre Stimme im
Text erhalten – auch mit KI“
Wie Sie trotz KI-Unterstützung authentisch und eigenständig schreiben
„Künstliche Intelligenz in der Abschlussarbeit zitieren – ja oder
nein?“
Was Studenten über Quellenangaben bei KI wissen sollten
„Wissenschaftliches Schreiben lernen – mit und trotz
KI“
Didaktische Chancen und Herausforderungen für Dozenten