Disclaimer gleich vorweg: Ein Professor hat die perfekte Lösung für ChatGPT-Mogeleien gefunden – indem er einfach eine andere KI als Prüfer eingestellt hat. Willkommen in der Zukunft, wo die Maschinen sich gegenseitig kontrollieren und wir Menschen nur noch zuschauen.
Es ist eine wunderbar absurde Geschichte: Der NYU-Professor Panos Ipeirotis beobachtete, wie seine Studierenden mit angesichtsweise glänzenden Hausarbeiten anrückten – McKinsey-Memo-artig formuliert, tiefgehendes Verständnis ausstrahlend. Nur ein Problem: In der Rückfrage-Runde im Klassenzimmer stellte sich heraus, dass selbige Studierenden ihre eigenen Texte nicht verstanden. Das Ende von Take-Home-Examen? Ipeirotis legte es naiv-genial fest: Die Antwort auf KI-Schummelei ist mehr KI.
Und damit ist der Teufelskreis perfekt. Statt die alte Prüfungsform mündlicher Examina zu reaktivieren – ihr wisst schon, diese klassische Methode, bei der Menschen mit Menschen sprechen – setzt Ipeirotis auf einen KI-Sprach-Agenten von ElevenLabs. 36 Studierende wurden über neun Tage “geprüft”, jede Runde etwa 25 Minuten. Die Gesamtrechnung? Lächerliche 15 Dollar – rund 42 Cent pro Student. Zum Vergleich: Ein menschlicher Prüfer hätte etwa 750 Dollar gekostet. Ökonomie schlägt Pädagogik. Wie erfrischend.
Das System funktioniert so: Der Agent stellt Fragen zum Abschlussprojekt des Studierenden, drilled nach Zielen, Daten, Modelentscheidungen. Ein zweiter Teil widmet sich Case Studies aus der Vorlesung. Klingt fair? Fast. Nur: Die KI-Stimme klang anfangs so “intensiv” und “herablassend”, dass sich ein Student beschwerte, der Agent habe ihn “angeschrien”. Herzlichen Glückwunsch – wir haben jetzt emotional missbrauchende Prüfer in KI-Form. Das ist Fortschritt.
Aber Moment – wenigstens die Objektivität stimmt, richtig?
Naja. Nachdem Ipeirotis die KI bat, einen Case “zufällig” auszuwählen, setzte sie in 88 Prozent aller Fälle auf “Zillow”. Nach Entfernung aus dem Prompt folgte ein neues Lieblingskind: “Predictive Policing” in 16 von 21 Prüfungen. Ein LLM um Zufallsauswahl zu bitten, ist, so Ipeirotis mit charmanter Ironie, “wie einen Menschen zu fragen, eine Zahl zwischen 1 und 10 zu nennen – man bekommt viele 7er”.
Die Benotung selbst verlief über einen “Council of LLMs”: Claude, Gemini und ChatGPT bewerteten erst einzeln, dann sahen sie die gegenseitigen Urteile und revidierten. Im ersten Durchgang eine Desaster – Gemini verteilte im Schnitt 17 von 20 Punkten, Claude nur 13,4. Nach gegenseitiger “Beratung” näherten sie sich an. Herzlichen Glückwunsch – wir haben jetzt ein Prüfungsgremium, das sich gegenseitig manipuliert, bis ein Konsens entsteht. Klingt gesund.
Das beste: Die KI diagnostizierte das Lehrproblem
Besonders pikant: Die Analyse offenbarte Schwachstellen nicht bei den Studierenden, sondern im Unterricht selbst. Beim Thema “Experimentation” erreichten Studierende nur 1,94 von 4 Punkten – der externe Prüfer machte unmöglich zu ignorieren, dass Ipeirotis diesen Stoff zu kurz behandelt hatte. Der externe KI-Bewerter wurde zur peinlichen Wahrheit: Ein Dozent, überführt durch seinen eigenen technologischen Geistesblitz.
Die Studierenden selbst fanden das System “stressiger” (83 Prozent), aber 70 Prozent bestätigten, dass es ihr echtes Verständnis testete – der Top-Punkt der Zufriedenheitsliste. Mit anderen Worten: Panisches, aber ehrliches Prüfen. Das ist wahrscheinlich fair.
Also: Ein Sieg gegen KI-Mogeleien?
Technisch ja, ethisch… nun ja. Die Ironie der Geschichte ist gigantisch: Der einzige Weg, ChatGPT-generierten Hausarbeiten zu entkommen, ist, noch mehr KI einzubauen. Es ist wie beim Kampf gegen Plastik mit Plastik – funktional, aber konzeptionell fragwürdig. Und wir alle wissen: Die nächste Generation wird einfach ihre KI so trainieren, dass sie mündliche KI-Agenten täuscht. Der technologische Rüstungswettlauf in der Hochschulbildung hat formal begonnen.
Ipeirotis hat mit seiner Lösung ein echtes Problem gelöst und dabei ein tieferes offenbart. Nicht dass Studierende KI nutzen – das war immer schon unvermeidbar. Sondern dass wir keinen Plan haben, wie Hochschulbildung in einer Welt funktioniert, in der die Werkzeuge klüger sind als die Aufgaben.
Die Zukunft? Wagen wir einen Blick:
Der nächste Schritt ist vorhersehbar: KI-Prüfer, die KI-Lügner erkennen. Dann KI-Lügner, die KI-Detektoren täuschen. Ein unendliches Spiel, bei dem der Mensch nur noch Zuschauer ist. Und die Kosten? 15 Dollar statt 750. Das wird sich durchsetzen. Nicht weil es besser ist, sondern weil es billiger ist. Willkommen in der Zukunft der Hochschulbildung – skalierbar, automatisiert und wahrscheinlich ein bisschen ärmer an menschlicher Erkenntnis.





