KI und Prüfungsleistung: Was zählt noch als eigene Leistung?


Zwischen Assistenz und Autorschaft – eine Orientierungshilfe für Betreuer und Prüfer

Die rasante Verbreitung von KI-Tools wie ChatGPT, Grammarly oder DeepL hat das wissenschaftliche Schreiben grundlegend verändert. Studenten nutzen sie, um Texte zu glätten, Ideen zu entwickeln oder gar ganze Abschnitte zu formulieren. Für Dozenten und Prüfer stellt sich zunehmend die Frage: Wo hört die zulässige Unterstützung auf, und wo beginnt die Täuschung? Was gilt noch als eigenständige Prüfungsleistung?

In diesem Beitrag werfen wir einen differenzierten Blick auf den aktuellen Diskurs und die Herausforderungen im Umgang mit KI-generierter Unterstützung bei wissenschaftlichen Arbeiten.


Was bedeutet „eigene Leistung“ im akademischen Kontext?

Im Kern besteht eine Prüfungsleistung darin, eigenständig ein wissenschaftliches Problem zu bearbeiten, Theorien zu reflektieren und methodisch fundierte Schlussfolgerungen zu ziehen. Die Fähigkeit zur selbstständigen Argumentation, Analyse und Textproduktion steht im Fokus.

Wird diese Eigenständigkeit durch KI gefährdet? Die Antwort lautet: Es kommt darauf an.


Was ist erlaubt – und was nicht?

Viele Hochschulen haben bislang keine eindeutigen Richtlinien formuliert. Doch folgende Orientierungshilfen können nützlich sein:

Zulässig ist:

  • KI-gestützte Rechtschreib- oder Stilkorrektur (z. B. Grammarly, LanguageTool)

  • Inspiration durch KI-generierte Ideen oder Gliederungsvorschläge

  • Nutzung von KI für Formulierungshilfen, sofern der Inhalt selbst erarbeitet wurde

  • transparente Kennzeichnung von KI-Nutzung

Nicht zulässig ist:

  • komplette Textproduktion durch eine KI ohne Eigenbeitrag

  • paraphrasierte Inhalte ohne Verständnis und ohne eigene Analyse

  • versteckte Nutzung ohne Quellen- oder KI-Angabe

  • Täuschung über den Umfang der eigenen Leistung

Wichtig: Sobald die KI inhaltlich mitgestaltet, gerät man schnell in den Bereich der unzulässigen Hilfsmittelverwendung – vergleichbar mit Ghostwriting.


Das Problem der Nachvollziehbarkeit

Ein wesentliches Problem bei der KI-Nutzung in Abschlussarbeiten: Betreuer können häufig nicht erkennen, ob der Text aus eigener Leistung stammt oder zu großen Teilen von einem KI-System generiert wurde.

Dies erschwert die Bewertung und wirft auch ethische und rechtliche Fragen auf, beispielsweise zur Gleichbehandlung aller Studenten.


Kennzeichnungspflicht: der Weg zur Transparenz

Ein möglicher Lösungsansatz ist eine verpflichtende Offenlegung: Studenten sollten in einer Art "Anmerkungsabschnitt" beschreiben, wo, wie und warum KI-Tools verwendet wurden.

Beispiel:

„Für die sprachliche Überarbeitung einzelner Absätze wurde ChatGPT (Version XY, Zugriff am …) eingesetzt. Die inhaltliche Ausarbeitung basiert auf eigenen Überlegungen und Recherchen.“

Solche Angaben fördern Fairness und digitale Mündigkeit.


Grauzonen erkennen und thematisieren

Die Grenze zwischen hilfreicher Assistenz und unerlaubter Fremderstellung ist fließend. Viele Studenten sind sich dieser Grauzonen nicht bewusst. Umso wichtiger ist es, in Seminaren, Kolloquien und Betreuungsgesprächen offen über den Umgang mit KI zu sprechen.

Dozenten sollten Studenten:

  • für Urheberrecht und wissenschaftliche Redlichkeit sensibilisieren

  • auf institutionelle Richtlinien verweisen (sofern vorhanden)

  • aktiv ermutigen, ihre Nutzung transparent zu machen


Klare Kommunikation statt strikter Verbote

KI-Tools werden nicht verschwinden, und sie bieten durchaus didaktisches Potenzial. Doch ihre Nutzung muss klar definiert und integriert werden, um die Integrität wissenschaftlicher Prüfungen zu gewährleisten.

Statt pauschaler Verbote braucht es:

  • Transparenz

  • differenzierte Bewertungskriterien

  • Sensibilisierung für wissenschaftliche Eigenleistung

Nur so können Studenten Verantwortung übernehmen und Prüfer fair bewerten.

 


Mehr zum Thema: