Ein Bericht, der eigentlich die Rechtmäßigkeit eines automatisierten Strafsystems für Arbeitssuchende prüfen sollte, hat sich für das Beratungsunternehmen Deloitte zu einem handfesten Skandal entwickelt. Die australische Regierung verlangt von der Firma eine Rückerstattung von rund 250.000 Euro, nachdem sich herausstellte, dass wesentliche Teile des Dokuments von Künstlicher Intelligenz erstellt und dabei gravierende Fehler produziert worden waren.
Wie die Financial Times berichtete, war der Bericht im Auftrag des australischen Arbeitsministeriums erstellt und bereits im Juli veröffentlicht worden. Nachdem Forscher und Journalisten auf zahlreiche Unstimmigkeiten hingewiesen hatten, wurde er vergangene Woche durch eine überarbeitete Version ersetzt.
Fehlerhafte Quellen – KI statt Expertise
Den Stein ins Rollen brachte der Sozialwissenschaftler Christopher Rudge, der den Bericht analysierte und dabei mindestens 20 falsche oder erfundene Quellenangaben entdeckte. Besonders auffällig: Mehrfach wurden wissenschaftliche Arbeiten der Juristin Lisa Crawford zitiert – die jedoch nie existiert haben. Crawford selbst bestätigte der Australian Financial Review: „Die in dem Bericht erwähnten Veröffentlichungen gibt es schlichtweg nicht.“
Neben fiktiven Quellen fielen auch falsch wiedergegebene Gerichtsverfahren auf. Damit enthalte der Bericht, der ausgerechnet die Rechtskonformität einer Regierungsabteilung bewerten sollte, „elementare juristische Fehler“, so Rudge.
Deloitte in Erklärungsnot
Das Beratungsunternehmen räumte ein, dass der Bericht „nicht den erwarteten Qualitätsstandards“ entsprochen habe. Laut Medienberichten erklärte Deloitte gegenüber dem Arbeitsministerium, dass Teile des Textes durch KI-Tools unterstützt entstanden seien. Die fehlerhaften Passagen seien nicht ausreichend geprüft worden.
Australiens Regierung reagierte prompt: Das Ministerium forderte nicht nur eine Rückzahlung des Honorars, sondern kündigte auch an, die internen Prüfprozesse für externe Gutachten zu verschärfen.
Symbol für ein wachsendes Problem
Der Fall gilt inzwischen als warnendes Beispiel für die Risiken unkontrollierten KI-Einsatzes in sensiblen Bereichen wie Politik, Verwaltung und Justiz. Fachleute sprechen in diesem Zusammenhang zunehmend von sogenanntem „KI-Gatsch“ (englisch: „AI Slop“) – also minderwertigen, fehlerhaften oder halluzinierten KI-Inhalten, die ohne ausreichende menschliche Kontrolle verbreitet werden.
Rudge bezeichnete den Vorfall als symptomatisch:
„Wenn Regierungen beginnen, KI-generierte Inhalte als Expertise zu verkaufen, dann untergräbt das Vertrauen in öffentliche Entscheidungen.“
Deloitte steht nun nicht nur finanziell, sondern auch reputationsmäßig unter Druck – der Skandal dürfte die Debatte über den verantwortungsvollen Einsatz von KI in der Politik und bei Beratungsfirmen weiter anheizen.
Kommentar hinterlassen