Startseite Allgemeines Deloitte blamiert sich mit KI-Bericht – Australien bekommt Geld zurück (und vielleicht auch sein Vertrauen)
Allgemeines

Deloitte blamiert sich mit KI-Bericht – Australien bekommt Geld zurück (und vielleicht auch sein Vertrauen)

geralt (CC0), Pixabay
Teilen

Die australische Regierung darf sich freuen: Sie bekommt Geld zurück! Leider nicht von den Steuerzahlern, sondern von Deloitte, einer jener Beratungsfirmen, die sonst lieber Geld nehmen, als es herzugeben.

Der Grund: Ein Bericht, für den das Arbeitsministerium umgerechnet 250.000 Euro bezahlt hatte, entpuppte sich als literarischer Blender – oder, wie Fachleute sagen: „KI-Gatsch“.

Wenn ChatGPT zum Co-Autor wird

Deloitte hatte eigentlich nur ein automatisiertes Strafsystem prüfen sollen. Stattdessen ließ man offenbar GPT-4o, also das Sprachmodell von OpenAI, mitschreiben.
Das Ergebnis: Fußnoten ins Nirgendwo, erfundene Zitate und sogar ein Gerichtsverfahren, das so nie existierte.
Kurz: Der Bericht halluzinierte munter drauflos – ganz so, als hätte er am Vorabend mit einem Glas Shiraz zu viel gearbeitet.

Der Sozialwissenschaftler Christopher Rudge deckte die Panne auf. Ihm fielen rund 20 Fehler auf – was selbst für ein Regierungsdokument überdurchschnittlich ist. Besonders kreativ: Zwei wissenschaftliche Arbeiten einer Juristin wurden seitenlang zitiert, obwohl sie gar nicht existieren. Die betroffene Forscherin reagierte lakonisch:

„Ich würde die Texte ja gern lesen – wenn sie denn real wären.“

Deloitte korrigiert – aber „alles in Ordnung!“

Peinlich berührt veröffentlichte Deloitte inzwischen eine neue Version des Berichts, diesmal mit dem Hinweis, dass Teile mit KI erstellt wurden. Außerdem habe man „Zitate und Quellen korrigiert“.
Und weil’s noch nicht absurd genug war, heißt es weiter:

„Die Änderungen haben keinerlei Auswirkungen auf Inhalt und Empfehlungen.“

Klar, wenn die Quellen falsch sind, aber die Schlüsse dieselben bleiben – was soll da schon schiefgehen?

Halluzination als Feature, nicht Bug

Das Ganze wirft ein Schlaglicht auf ein altes Problem neuer Maschinen: KI halluziniert.
Oder, wie der Linzer KI-Pionier Sepp Hochreiter es formulierte:

„Wenn die Maschine nicht weiß, was sie sagen soll, denkt sie sich einfach was aus.“
Kurz gesagt: Künstliche Intelligenz hat das Selbstbewusstsein eines Erstsemesters nach zwei Energy Drinks.

„AI Slop“ überall

Der Fall zeigt, was passiert, wenn Berater und Bots gemeinsame Sache machen:
Ein 250.000-Euro-Bericht voller Unsinn, ein Rückzahlungsscheck – und ein neuer Begriff für die Mülltonne der Informationsgesellschaft: „AI Slop“, auf Deutsch etwa „KI-Gatsch“.

Das Phänomen ist längst allgegenwärtig – in sozialen Medien, in der Werbung, ja sogar in der Politik. (Da ist der Unterschied zwischen realem und KI-generiertem Unsinn ohnehin fließend.)

Wenn die KI das Land prüft – und durchfällt

Ironischerweise fiel nicht nur der Bericht, sondern auch das geprüfte System durch.
Das automatisierte Strafprogramm für Arbeitssuchende hatte laut „Heise.de“ Sozialleistungen zu Unrecht blockiert.
Das Fazit des Ombudsmanns: Hunderttausende Menschen betroffen, null Punkt, setzen.

Bleibt die Erkenntnis:
Selbst wenn man KI Millionen investiert, bleibt sie das, was sie schon immer war –
ein übermotivierter Praktikant mit Internetanschluss.

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Insolvenz:Landgang Brauerei GmbH & Co. KG

Amtsgericht Hamburg, Aktenzeichen: 67c IN 83/26 In dem Insolvenzantragsverfahren über das Vermögen...

Allgemeines

Der Bundesfinanzminister freut sich über steigende Benzinpreise

Wenn die Benzinpreise steigen, profitiert der Staat tatsächlich automatisch mit – auch...

Allgemeines

Der Meeresspiegel an Küsten

Neue wissenschaftliche Berechnungen zeigen, dass der Meeresspiegel entlang vieler Küsten weltweit höher...

Allgemeines

Vorläufige Insolvenzverwaltung für MW-InvestK GmbH angeordnet

Das Amtsgericht Kiel hat am 4. März 2026 im Verfahren 25 IN...