Die australische Regierung darf sich freuen: Sie bekommt Geld zurück! Leider nicht von den Steuerzahlern, sondern von Deloitte, einer jener Beratungsfirmen, die sonst lieber Geld nehmen, als es herzugeben.
Der Grund: Ein Bericht, für den das Arbeitsministerium umgerechnet 250.000 Euro bezahlt hatte, entpuppte sich als literarischer Blender – oder, wie Fachleute sagen: „KI-Gatsch“.
Wenn ChatGPT zum Co-Autor wird
Deloitte hatte eigentlich nur ein automatisiertes Strafsystem prüfen sollen. Stattdessen ließ man offenbar GPT-4o, also das Sprachmodell von OpenAI, mitschreiben.
Das Ergebnis: Fußnoten ins Nirgendwo, erfundene Zitate und sogar ein Gerichtsverfahren, das so nie existierte.
Kurz: Der Bericht halluzinierte munter drauflos – ganz so, als hätte er am Vorabend mit einem Glas Shiraz zu viel gearbeitet.
Der Sozialwissenschaftler Christopher Rudge deckte die Panne auf. Ihm fielen rund 20 Fehler auf – was selbst für ein Regierungsdokument überdurchschnittlich ist. Besonders kreativ: Zwei wissenschaftliche Arbeiten einer Juristin wurden seitenlang zitiert, obwohl sie gar nicht existieren. Die betroffene Forscherin reagierte lakonisch:
„Ich würde die Texte ja gern lesen – wenn sie denn real wären.“
Deloitte korrigiert – aber „alles in Ordnung!“
Peinlich berührt veröffentlichte Deloitte inzwischen eine neue Version des Berichts, diesmal mit dem Hinweis, dass Teile mit KI erstellt wurden. Außerdem habe man „Zitate und Quellen korrigiert“.
Und weil’s noch nicht absurd genug war, heißt es weiter:
„Die Änderungen haben keinerlei Auswirkungen auf Inhalt und Empfehlungen.“
Klar, wenn die Quellen falsch sind, aber die Schlüsse dieselben bleiben – was soll da schon schiefgehen?
Halluzination als Feature, nicht Bug
Das Ganze wirft ein Schlaglicht auf ein altes Problem neuer Maschinen: KI halluziniert.
Oder, wie der Linzer KI-Pionier Sepp Hochreiter es formulierte:
„Wenn die Maschine nicht weiß, was sie sagen soll, denkt sie sich einfach was aus.“
Kurz gesagt: Künstliche Intelligenz hat das Selbstbewusstsein eines Erstsemesters nach zwei Energy Drinks.
„AI Slop“ überall
Der Fall zeigt, was passiert, wenn Berater und Bots gemeinsame Sache machen:
Ein 250.000-Euro-Bericht voller Unsinn, ein Rückzahlungsscheck – und ein neuer Begriff für die Mülltonne der Informationsgesellschaft: „AI Slop“, auf Deutsch etwa „KI-Gatsch“.
Das Phänomen ist längst allgegenwärtig – in sozialen Medien, in der Werbung, ja sogar in der Politik. (Da ist der Unterschied zwischen realem und KI-generiertem Unsinn ohnehin fließend.)
Wenn die KI das Land prüft – und durchfällt
Ironischerweise fiel nicht nur der Bericht, sondern auch das geprüfte System durch.
Das automatisierte Strafprogramm für Arbeitssuchende hatte laut „Heise.de“ Sozialleistungen zu Unrecht blockiert.
Das Fazit des Ombudsmanns: Hunderttausende Menschen betroffen, null Punkt, setzen.
Bleibt die Erkenntnis:
Selbst wenn man KI Millionen investiert, bleibt sie das, was sie schon immer war –
ein übermotivierter Praktikant mit Internetanschluss.
Kommentar hinterlassen