Madeleine war gerade dabei, ihr Krankenpflegepraktikum abzuschließen, als eine E-Mail mit dem Betreff „Bedenken hinsichtlich der akademischen Integrität“ eintraf. Darin befand sich der (falsche) Vorwurf, sie habe eine Hausarbeit mithilfe künstlicher Intelligenz verfasst. Sie hatte nichts dergleichen getan, aber das spielte keine Rolle. Die Universität hatte einen Bericht, der von einer anderen KI erstellt wurde, und das genügte. Sechs Monate später war sie immer noch da und erklärte, warum – wer weiß – das System vielleicht einen Fehler gemacht hatte.
In ihrem Lebenslauf standen die Ergebnisse noch aus, und kein Krankenhaus wollte sie. Es ist ein perfekter Kurzschluss: Eine KI, die beschuldigt Studenten, KI zu verwenden, die auf einer anderen KI basiert, die nicht gut funktioniert. Und es sind Menschen, die zahlen, nicht Algorithmen. Es ist nicht Black Mirror und ich habe es mir nicht ausgedacht: Es ist wirklich passiert.
Sechstausend Fälle, neunzig Prozent falsch
L 'Australische Katholische Universität Im Jahr 2024 wurden fast 6.000 Fälle von mutmaßlichem Plagiat registriert. 90 % davon betrafen künstliche Intelligenz. Das Problem? Eine beträchtliche Anzahl dieser Studenten hatte nichts falsch gemacht. Alles falsche Anschuldigungen. Der von der Universität verwendete Detektor, TurnitinEr hatte schlicht entschieden, dass diese Texte zu gut geschrieben waren, um menschlich zu sein. Theoretisch ein Kompliment. Praktisch eine Verurteilung.
Tania Broadley, Vizekanzlerin der ACU, erklärte gegenüber ABC, die Zahlen seien „deutlich übertrieben“. Sie räumte zwar einen Anstieg der Fälle akademischen Fehlverhaltens ein, wollte sich aber nicht zur Zahl der Studierenden äußern, die Opfer falscher Anschuldigungen geworden seien. Ein Viertel aller Überweisungen wurde nach der Untersuchung archiviert. Die verlorenen Monate konnten jedoch nicht wiederhergestellt werden.
Madeleines Fall ist kein Einzelfall. Hunderte von Studierenden mussten vollständige Browserverläufe, handschriftliche Notizen und ausführliche Begründungen einreichen. für Dinge, die sie nicht getan hatten. Wie ein Student der Notfallmedizin gegenüber ABC sagte:
„Sie sind nicht die Polizei. Sie haben keine richterlichen Genehmigungen, um Ihren Browserverlauf abzufragen. Aber wenn Sie Gefahr laufen, einen Kurs wiederholen zu müssen, machen sie, was sie wollen.“
Turnitin, das System, das seine Unzuverlässigkeit zugibt
Auf seiner eigenen Website Turnitin warnt davor, dass Der KI-Detektor „sollte nicht als einzige Grundlage für nachteilige Maßnahmen gegen einen Schüler verwendet werden“Das Unternehmen gab zu, dass die Falsch-Positiv-Rate auf Dokumentebene bei Dokumenten mit 20 % oder mehr KI-Inhalt weniger als 1 % beträgt. Auf Strafmaßebene steigt der Satz jedoch auf 4 %. Und wenn der Text menschliches Schreiben und KI vermischt, Die Probleme vervielfachen sich.
Ein Student sagte gegenüber ABC: „Es ist KI, die KI erkennt, und fast mein gesamter Aufsatz war blau hervorgehoben: 84 % angeblich von KI geschrieben.“ Sein Text war völlig originell. Dem Algorithmus war das jedoch egal.
Die Vanderbilt University hat den KI-Detektor von Turnitin vollständig deaktiviert. bereits 2023, da Bedenken hinsichtlich seiner Zuverlässigkeit bestehen. Die Universität berechnete, dass bei 75.000 jährlich eingereichten Arbeiten und einer Falsch-Positiv-Rate von „nur“ 1 % Ungefähr 750 Studenten wurden fälschlich beschuldigt. Zu viele.
Das Problem ist nicht nur technischer Natur
Die australische Universität wusste über ein Jahr lang von den Problemen des Systems, bevor sie es im März 2025 außer Betrieb nahm. Interne Dokumente, die ABC einsehen konnte zeigen, dass das Personal sich der„eingeschränkte Zuverlässigkeit des Tools“ und „Unfähigkeit, zwischen KI-gestützter Bearbeitung und vollständiger Generierung zu unterscheiden“Doch die falschen Anschuldigungen gingen monatelang weiter.
Das Phänomen ist nicht auf Australien beschränkt. In Italien implementieren mehrere Universitäten fortschrittliche Anti-PlagiatssoftwareDie Universität Padua hat einen neuen, ausgefeilteren Anti-Plagiats-Server eingeführt. Die Universität Verona hat eine Software integriert, die künstlich generierte Texte erkennen kann. Und dieUniversität Ferrara Er sagte eine komplette Psychobiologieprüfung ab, nachdem er entdeckt hatte, dass einige Studenten ChatGPT verwendet hatten. ohne dass die Verantwortlichen ermittelt werden könnten.
Ein Detail möchte ich nicht übersehen: Stanford-Studie ergab, dass KI-Detektoren eine Voreingenommenheit gegenüber nicht-englischen Muttersprachlern aufweisen. Die Algorithmen kennzeichnen Texte ausländischer Studierender häufiger als „KI-generiert“. Dieses Problem erhöht den Schaden durch Diskriminierung zusätzlich.
Falsche Plagiatsvorwürfe: eine paradoxe Situation
Universitäten setzen auf künstliche Intelligenz. Viele Sie haben Partnerschaften mit Technologieunternehmen KI-Tools in den Unterricht zu integrieren. Dann beschuldigen sie die Studierenden, dieselben Tools zu verwenden. Die Botschaft ist verwirrend: KI ist die Zukunft, aber wer sie nutzt, ist ein Betrüger.
In der Zwischenzeit laut einer italienischen Umfrage75 % der Schüler, die 2023 ihre Abschlussprüfungen ablegten, gaben an, KI-Tools zur Prüfungsvorbereitung zu nutzen. 18 % der Schüler zwischen 16 und 18 Jahren nutzen KI im regulären Unterricht. Die Technologie ist vorhanden, zugänglich und die Schüler nutzen sie. Es ist unrealistisch, von ihnen nicht zu erwarten, dass sie es tun.
Was passiert jetzt
Wie bereits erwähnt, wurde das Anti-Plagiatssystem aufgegeben und persönliche Probleme nach und nach (und zu langsam) zu den Akten gelegt. Für Madeleine zum Beispiel ist es jetzt zu spät. Sie hat sechs Monate, eine Jobchance und ihr Vertrauen in das System verloren. „Ich wusste nicht, was ich tun sollte. Zurück zur Schule gehen? Aufgeben und etwas anderes als Krankenhauspflege machen?“, sagte sie gegenüber ABC.
Der Fall zeigt, was passiert, wenn wir die Entscheidungsgewalt an Systeme delegieren, die wir nicht vollständig verstehen. Algorithmen können nützlich sein, aber sie sind nicht unfehlbar. Und wenn sie Fehler machen, sind es die Menschen, die dafür bezahlen. Nicht mit verfälschten Daten oder Fehlkalkulationen, sondern mit ruinierten Karrieren und vergeudeten Jahren. Künstliche Intelligenz kann in bestimmten Kontexten mitfühlender erscheinen als Menschen, aber wenn es darum geht, falsche Anschuldigungen zu erheben, zeigt dies nur, wie gefährlich es ist, ihr lebensverändernde Entscheidungen anzuvertrauen.
Wie immer ist nicht die KI das Problem, sondern das blinde Vertrauen, das manche Menschen in sie setzen.