Künstliche Intelligenz ist längst im Schulalltag angekommen – oft schneller, als Lehrpläne, Fortbildungen oder Regelwerke Schritt halten können. Zwischen Neugier, Verunsicherung und pragmatischen Lösungen tauchen dabei immer wieder dieselben Fragen auf, die Lehrende beschäftigen: Was ist erlaubt? Was ist problematisch? Wo finde ich Lösungen? Dieser Beitrag greift häufige Aussagen und Sorgen aus der Praxis auf – und ordnet sie ein. Ohne rechtliche Gewährt. Dafür mit Quellen zum weiteren Studium.
Meine Schüler:innen machen ihre Aufgaben nicht mehr selbst, sondern lassen sie von KI generieren. Kann ich erkennen, dass sie es nicht selbst gemacht haben?
Kurzantwort: Nein – zumindest nicht zuverlässig. Und genau das ist der Punkt, an dem es spannend (und unbequem) wird.
Längere Antwort: Viele Lehrpersonen hoffen auf eine Art digitalen Lügendetektor: ein Tool, das klar sagt „Dieser Text ist KI-generiert“. Die Realität ist ernüchternd. KI-Erkennungsprogramme liefern keine verlässlichen Ergebnisse. Sie produzieren Fehlalarme, übersehen KI-Texte – und liegen besonders bei guten Schüler:innen, Schüler:innen, deren Erstsprache nicht die gepromptete Sprache ist ist und Schüler:innen auf dem Autismus-Spektrum oft daneben. Pädagogisch wie rechtlich ist das ein Minenfeld.
Statt nach Beweisen zu suchen, lohnt sich ein Perspektivwechsel [ich weiß, ich wiederhole mich]:
- Produkt vs. Prozess: KI kann ein Ergebnis erzeugen, mittlerweile sogar den Lernweg erklären. Die Standardisierte Reife- und Diplomprüfung in Mathematik ist für KI kein Problem – wie Kurt Söser in einem aktuelle Beitrag (sRDP Mathematik mit Copilot & Gemini – Jänner 2026) ausführlich zeigt. Wer seinen Text nicht erklären, die Herangehensweise begründen, Ideen weiterentwickeln oder kritisch reflektieren kann, entlarvt sich meist selbst – ganz ohne Detektivarbeit.
- Mündliche Anschlussfähigkeit: Kurze Gespräche, Rückfragen oder Mini-Reflexionen („Warum hast du dieses Argument gewählt?“) wirken oft zuverlässiger als jedes Tool.
- Aufgaben neu denken: Aufgaben, die auf persönliche Erfahrungen, lokale Bezüge, Zwischenschritte oder kreative Entscheidungen setzen, sind deutlich KI-resistenter – oder laden KI bewusst als Lernhilfe ein.
- Transparenz statt Kontrolle: Wenn klar ist, wann und wie KI genutzt werden darf, wird sie vom Schummelwerkzeug zum Lernbuddy.
Die (unbequeme) Wahrheit lautet also: Man kann KI-Nutzung meist nicht sicher erkennen (selbst als Expert:in nicht, wie eine Studie von Casal & Kessler aus dem Jahr 2023 zeigt und auch die KI scheitert daran) – aber man kann Lernen trotzdem sichtbar machen. Und man muss sich fragen, was wir eigentlich abprüfen, wenn wir prüfen. Danke, Hauke Pölert, für den Hinweis auf den Artikel Cheating: The AI elephant in the classroom, der den Elefanten neu kontextualisiert.
Oder anders gesagt: Nicht die Frage „Hat das eine KI geschrieben?“ bringt uns weiter, sondern „Was zeigt mir diese Aufgabe über das Denken meiner Schüler:innen?“

Hauke Pölert fasst die wichtigsten Punkte in seinem Blogpost KI-Detektoren in Schule und Unterricht? Nein Danke! zusammen. Er unterscheidet dabei zwischen der Detektoren-Illusion, der Erkennungs-Illusion und der Wissensillusion und liefert auch entsprechende Studien, die die einzelnen Aspekte belegen, beispielsweise GPT detectors are biased against non-native English writers. Aus Sicht der Schulentwicklung gibt er dabei Empfehlungen, wie mit KI-Detektoren umzugehen sei. Ein lesenswerter Beitrag, obschon aus dem Mai 2025.
Doris Weßels geht noch weiter und fordert Verbietet endlich KI-Detektoren in Schulen und Hochschulen – zusammengefasst auch auf ihrem LinkedIn-Kanal nachlesbar. Für das wissenschaftliche Schreiben formuliert sie zusätzlich Handlungsempfehlungen in ihrem Beitrag Das wissenschaftliche Schreiben als Bildungsziel an Hochschulen: Ein Opfer von ChatGPT und Co.? und stellt dabei einige zentrale Punkte, die aktuell noch State-of-the-art sind auf den Kopf. Der Prozess und damit das Feedback sollten ebenso in den Fokus gerückt werden, wie kreative Formate des Schreibens.
Vorsicht vor trügerischer Sicherheit
Viele Lehrpersonen sagen: „Ich kenne meine Schüler:innen. Ich weiß, wie sie schreiben – und merke sofort, wenn ein Text nicht von ihnen ist.“
Das stimmt manchmal, fällt aber in die Erkennungs-Illusion (siehe Hauke Pölert). Und dieses Gefühl stimmt nicht zuverlässig. Warum?
- Erstens verändern sich Schreibstile. Schüler:innen entwickeln sich, probieren Neues aus, orientieren sich an Vorlagen, Feedback oder – ja – auch an KI. Ein „plötzlich besserer“ Text ist nicht automatisch verdächtig, sondern kann schlicht ein Lernfortschritt sein.
- Zweitens passt sich KI erstaunlich gut an. Mit einfachen Prompts lässt sich ein Text bewusst „schlechter“, einfacher oder persönlicher schreiben. Wer glaubt, KI klinge immer geschniegelt, perfekt und lehrer:innenkompatibel, unterschätzt die Flexibilität. Lädt man „alte Texte“ hoch und promptet, die KI solle in diesem Stil Texte schreiben, ist das Ergebnis meist verblüffend gut.
- Und drittens ist das Bauchgefühl kein Beweis. Pädagogisch mag es hilfreich sein, rechtlich und fairnessbezogen ist es heikel. Verdacht ist noch kein Nachweis – und sollte auch keiner sein.
Die entscheidende Frage ist daher nicht: „Erkenne ich den Stil wieder?“ sondern: „Kann die Schülerin oder der Schüler diesen Text vertreten?“ Wer erklären kann, warum etwas so formuliert ist, wer argumentieren, umschreiben, kürzen oder erweitern kann, zeigt Kompetenz – unabhängig davon, ob KI im Spiel war oder nicht.
Kurz gesagt: Stilgefühl ist ein Anfang, aber kein Kriterium. Didaktisch belastbar wird es erst, wenn wir Lernen sichtbar machen – nicht, wenn wir Texte mit dem inneren Rotstift scannen.
Aber es gibt doch Wörter und Phrasen, die KI-Texte quasi verraten können, oder?
Wie oft lese ich aktuell selbst ein „Zusammenfassend lässt sich sagen“, ein „rasant“ oder von „Leitplanken“… Florian Wanner fasst im Beitrag Sprechen wir bald alle wie ChatGPT? noch ein paar weitere Merkmale zusammen. Und überall finden sich Emojis als Gliederung und Auflockerung. Gefühlt sind diese Wörter und Wendungen erst mit der KI beliebt geworden. Gefühlt, denn ich habe keine Studie dazu gemacht. Anders Forscher:innen der Universität Tübingen (Deutschland) und der Northwestern University (Illinois). Eine kurze Zusammenfassung kann man auf T3N nachlesen (Sprache der KI: Welche Wörter entlarven künstlich generierte Texte?). Die Studie selbst kann auf ArXiv im Original bezogen werden: Delving into LLM-assisted writing in biomedical publications through excess vocabulary.
Auch hier kann das Lesen von KI-generierten Texten dazu führen, dass diese Wörter beliebter werden und damit auch wahrscheinlicher. Und damit auch häufiger von Menschen benutzt, weil sie sie in KI-Texten eben einfach öfter sehen. Das ist ein natürlicher Sprachwandel. Und kann auch nur ein Indiz für einen KI-generierten Text sein, kein Beweis dafür. Und auch ich nutze Emojis sehr gerne, ohne dass KI dahinter steckt, dafür aber eine händische Suche auf Emojipedia.
Korrekturen mit KI
Gerade in letzter Zeit habe ich in Fortbildungen immer wieder gehört: „Ich lade Schüler:innentexte in eine KI hoch, aber ohne Namen. Also ist das datenschutzrechtlich unproblematisch. Und es entlastet mit sehr.“ Das klingt logisch und nachvollziehbar – greift aber zu kurz.
Denn Datenschutz hängt nicht nur an Namen. Auch Inhalte können personenbezogen sein: Erlebnisse, Meinungen, familiäre Situationen, Schulkontexte oder sprachliche Besonderheiten können Rückschlüsse auf einzelne Schüler:innen zulassen. Besonders heikel wird es, wenn Texte sehr individuell sind oder sensible Themen behandeln. Darauf weist auch der Beitrag Deepfakes – Gefahren und Handlungsmöglichkeiten im weitesten Sinne hin, wenn es um die Gesetzeslage in Hinblick auf die Nutzung von z.B. der Stimme oder des Körpers einer anderen Person geht. Wir haben gerade im Kontext von Grok [bei Watson gut zusammengefasst] gesehen, wie leicht sich Bikini- oder Nacktbilder erstellen lassen…
Dazu kommt: Bei vielen KI-Diensten ist unklar, was mit den eingegebenen Daten passiert. Wo werden sie gespeichert? Wie lange? Werden sie weiterverarbeitet oder für Trainingszwecke genutzt? Genau hier liegt das Problem – nicht bei der Absicht der Lehrperson, sondern bei der technischen und rechtlichen Grauzone.
Heißt das nun: KI darf beim Korrigieren nicht eingesetzt werden? Nein. Aber es braucht einen klaren Rahmen:
- Nur datenschutzkonforme Tools verwenden (idealerweise schulisch freigegeben oder lokal betrieben).
- Texte anonymisieren heißt mehr als Namen löschen: keine Orte, keine konkreten Personen, keine eindeutig zuordenbaren Situationen. Auch keine Stimmen oder Gesichter.
- Transparenz gegenüber Schüler:innen: Sie sollten wissen, wie und wofür KI beim Korrigieren und Feedbackgeben eingesetzt wird. Das ist schon eine ethische Frage – wenn wir Transparenz von unseren Schüler:innen verlangen, dann sollten wir ihnen gegenüber auch transparent agieren.
Die Faustregel lautet also: Anonymisiert ist nicht automatisch unproblematisch. Eine gute Zusammenfassung kann man auf iRights.info nachlesen – Generative KI-Systeme und Datenschutz: Wie DSGVO und KI-Verordnung zueinander stehen.
Dazu kommt noch das Urheberrecht
Und nicht nur Datenschutz ist hier zu berücksichtigen, sondern auch das Urheberrecht. Denn ich darf keine urheberrechtlich geschützten Artefakte, und dazu zählen auch u.a. Texte von Schüler:innen, hochladen, wenn ich nicht weiß, wie diese Texte möglicherweise verteilt oder gespeichert oder sonst was werden. Klar, es gibt spezifische KI-Anwendungen speziell für die Korrektur, aber auch hier gilt, dass DSGVO zu berücksichtigen und AGB zu beherzigen sind. Und deshalb sollten auch keine urheberrechtlich geschützten Materialien, wie beispielsweise aus Schulbüchern, in KI-Anwendungen hochgeladen werden.
Gerade das Spannungsfeld Urheberrecht und KI ist gerade ein sehr gespanntes, wie zahlreiche Beiträge verdeutlichen:
- GEMA gewinnt gegen ChatGPT vor Landgericht schreibt iRights.info. Dabei geht es um die wortwörtliche Wiedergabe von Texten aus Musikstücken. Formularbeginn
- Die Handreichung zu Rechtsfragen beim Einsatz von KI in gemeinnützigen Organisationen von Till Kreutzer ist nicht nur für gemeinnützige Organisationen lesenswert, sondern auch für Schulen und Einzelanwender:innen. Hier werden zahlreiche spannende Fragen sehr verständlich erklärt. So auch, wie problematisch urheberrechtlich geschütztes Material im Trainingsdatensatz sein kann. Researchers extract up to 96% of Harry Potter word-for-word from leading AI models, Who’s Harry Potter? Approximate Unlearning in LLMs, Extracting books from production language models oder Doch nur auswendig gelernt: Forscher testen Wiedergabe von KI-Trainingsdaten geben einen Einblick in aktuelle Forschung zur Verwendung und möglichen Extrahierung urheberrechtlich geschützter Texte.
Fakt ist: Wir wissen nicht, womit und wie die gängigen Anwendungen trainiert sind oder zukünftig trainiert werden. Und vor der Invasion falscher, bunter Baby Peacocks habe ich irgendwie schon ein wenig Angst, vor allem wenn ich sehe, dass das Thema auch 2025 noch aktuell zu sein scheint (Deep fakes and baby peacocks).
Wie kann ich mich bei so vielen Quellen auf dem Laufenden halten? Ich fühle mich überfordert und ein wenig verloren.
Dieses Gefühl kenne ich zu gut. Es gibt einfach viel zu viel. Selbst wenn man unendlich Zeit hätte, könnte man nicht alles lesen. Muss man auch nicht. Wichtig ist, einen persönlichen Filter und Favoriten zu finden. Meine primären Quellen finde ich auf LinkedIn – früher war es Twitter und das #twitterlehrerzimmer, das es nun aber leider nicht mehr gibt. Einige meiner Favoriten aus LinkedIn waren aber Teil des Lehrerzimmers und dafür bin ich dankbar, denn ihre Texte lese ich seit Jahr(zehnt)en.
- Für die Hochschule die Beiträge von Barbara Geyer und im Blog des Hochschulforums Digitalisierung.
- Für die Situation in Österreich Bernhard Gmeiners Blog KI im Klassenzimmer im Standard.
- Für die Schule(ntwicklung) die Beiträge von Hauke Pölert und Joscha Falck.
- Für KI im Kontext von Lehren und Lernen die Beiträge von Matthias Kindt.
- Für allgemeine Themen die Webseite The Decoder.
- Für rechtliche Fragen iRights.info – wie auch in diesem Blogpost zu sehen ist.
- Für allgemeine Fragen Netzpolitik.org – als Beispiel sei der Beitrag Finger weg von Bildgeneratoren genannt, der erklärt, warum man als Redakteur:in keine KI-generierten Bilder verwenden sollte.
Auch wenn ich keine eindeutigen Antworten liefern kann, vielleicht hilft die Zusammenfassung ein wenig, indem sie zur weiteren Lektüre einlädt. Manches lässt sich einfach nicht eindeutig beantworten, zu viele Perspektiven sind zu berücksichtigen.