Die USA setzen im Krieg gegen den Iran offenbar in einem bisher nicht gekannten Umfang auf künstliche Intelligenz im militärischen Einsatz. Was zunächst wie technischer Fortschritt klingt, könnte sich bei näherer Betrachtung als hochgefährliches Experiment mit tödlichen Folgen erweisen. Denn nachdem inzwischen Hunderte iranische Zivilisten ums Leben gekommen sind, geraten die neuen KI-Systeme des Pentagon massiv unter Druck.
Nach einem Bericht von USA TODAY sollen moderne KI-Werkzeuge eine zentrale Rolle in der US-Militäroperation „Operation Epic Fury“ spielen. Experten und ehemalige hochrangige Militärs bestätigen, dass die künstliche Intelligenz inzwischen tief in die Zielerfassung, Datenauswertung und Priorisierung von Angriffen eingebunden ist. Offiziell heißt es zwar weiterhin: Der Mensch trifft die letzte Entscheidung. Doch genau daran wachsen inzwischen die Zweifel.
KI macht aus Stunden Sekunden – aber zu welchem Preis?
Das Pentagon spricht offen davon, dass KI Prozesse, die früher Stunden oder sogar Tage dauerten, inzwischen in Sekundenschnelle erledigen könne. Admiral Brad Cooper, Chef des US Central Command, erklärte bereits im März, man nutze „eine Vielzahl fortschrittlicher KI-Werkzeuge“. Der Mensch bleibe „im Loop“, also in der Entscheidungskette. Doch Kritiker warnen: Wenn Systeme in Echtzeit Ziele identifizieren, priorisieren und Angriffsoptionen vorschlagen, wird die menschliche Kontrolle in der Praxis schnell zur Formalie.
Besonders brisant: Im ersten Monat des Krieges sollen die USA mehr als 12.000 Ziele angegriffen haben – allein über 1.000 Ziele in den ersten 24 Stunden nach Kriegsbeginn am 28. Februar. Unter den Zielen war offenbar auch eine Schule im Iran, bei deren Beschuss mindestens 175 Menschen getötet wurden, die meisten davon Kinder.
Wurde eine Schule durch fehlerhafte KI auf die Zielliste gesetzt?
Genau dieser Angriff sorgt nun für politische und juristische Unruhe. Mehr als 100 Abgeordnete und Senatoren haben laut Bericht das Pentagon schriftlich gefragt, ob das „Maven Smart System“ – ein zentrales KI-gestütztes Zielerfassungs- und Datenanalyse-System – bei diesem Angriff eine Rolle gespielt hat.
Medienberichte, unter anderem der New York Times, legen nahe, dass ein US-Tomahawk-Marschflugkörper eingesetzt wurde. Die Schule könnte sich demnach auf einer veralteten Zielliste befunden haben, die vor dem Angriff nicht ausreichend überprüft wurde. Das Pentagon untersucht den Vorfall offiziell noch.
20 Soldaten leisten mit KI die Arbeit von 2.000
Das System Maven ist seit Jahren in Entwicklung und gilt als Kernstück der militärischen KI-Strategie der USA. Es bündelt Satellitenbilder, Geheimdienstinformationen, Bewegungsdaten und operative Informationen in einer einzigen Plattform. In Militärübungen zeigte sich laut Studien, dass 20 Soldaten mit Maven ungefähr die Arbeit von mehr als 2.000 Soldaten aus klassischen Zielerfassungsstrukturen leisten können.
Das klingt effizient. Aber es gibt einen Haken.
Denn dieselben Tests zeigen auch: Die Systeme sind alles andere als fehlerfrei.
Erschreckende Fehlerquoten – gerade unter realen Bedingungen
In von Experten ausgewerteten Militärübungen erkannte das Maven-System einen Panzer nur mit einer Trefferquote von rund 60 Prozent. Ein menschlicher Soldat lag bei 84 Prozent. Unter schwierigen Wetterbedingungen, etwa bei Schnee, fiel die Trefferquote der KI auf nur noch 30 Prozent. Ein anderes von der US-Luftwaffe getestetes Zielsystem kam 2021 unter unvollkommenen Bedingungen sogar nur auf 25 Prozent Genauigkeit.
Mit anderen Worten: Ausgerechnet im Nebel des Krieges, also dort, wo Entscheidungen besonders folgenreich sind, sinkt die Verlässlichkeit der Technik drastisch.
Pentagon will weniger Regeln, mehr Tempo
Noch problematischer wird das Ganze durch die politische Linie der Trump-Regierung. Verteidigungsminister Pete Hegseth hat das Pentagon Anfang des Jahres angewiesen, bürokratische Hürden für den Einsatz von KI „aggressiv“ abzubauen. In einem Strategiepapier heißt es sinngemäß: Das Risiko, zu langsam zu sein, sei größer als das Risiko unvollkommener Systeme.
Das ist ein bemerkenswerter Satz – und für viele Beobachter ein alarmierendes Signal.
Denn während zivile Opferzahlen steigen, will Washington offenbar schneller experimentieren, nicht vorsichtiger werden.
Streit mit KI-Anbieter: Pentagon wollte keine Einschränkungen akzeptieren
Besonders aufschlussreich ist auch ein Streit mit dem KI-Unternehmen Anthropic, dessen Modell Claude derzeit als einziger Chatbot für das Maven-System angepasst sein soll. Das Unternehmen wollte vertraglich sicherstellen, dass seine Technologie nicht für Massenüberwachung und nicht für tödliche Zielbekämpfung ohne menschliche Freigabe genutzt wird.
Das Pentagon lehnte diese Einschränkungen ab.
Stattdessen bestand man darauf, dass Claude für „alle rechtmäßigen Zwecke“ verfügbar sein müsse. Als Anthropic sich querstellte, versuchte das Pentagon laut Bericht sogar, das Unternehmen als „Lieferkettenrisiko“ einstufen zu lassen – ein schwerwiegendes Etikett, das Geschäftsbeziehungen massiv einschränken kann. Ein Bundesrichter stoppte diesen Schritt jedoch.
Die Kernbotschaft aus Washington ist damit klar: Die Militärführung will sich von Technologieanbietern keine ethischen Leitplanken setzen lassen.
Die entscheidende Frage: Ist der Mensch wirklich noch Herr der Lage?
Offiziell heißt es weiterhin, die Verantwortung liege immer beim menschlichen Bediener und in der Befehlskette. Doch selbst ehemalige Insider schlagen inzwischen Alarm. Der frühere Generalleutnant Jack Shanahan, einst selbst treibende Kraft bei der militärischen KI-Integration, sagt offen, dass ihm die Entwicklung inzwischen zu schnell gehe.
Sein Satz ist bemerkenswert: Früher habe er kritisiert, dass das Militär bei KI zu langsam vorankomme. Heute sorge er sich, dass es zu schnell gehe.
Und noch gravierender: Irgendwann werde es schwerer zu definieren, was ein fortgeschrittenes KI-System nicht tun darf, als festzulegen, was Menschen eigentlich noch selbst entscheiden wollen.
Unser Fazit
Wenn im Krieg gegen den Iran inzwischen binnen Sekunden Zielvorschläge generiert, priorisiert und in Angriffsabläufe überführt werden, dann ist die offizielle Formel vom „Menschen in der Schleife“ nur dann glaubwürdig, wenn diese Kontrolle real und überprüfbar ist – und nicht bloß ein letzter Mausklick auf einem Bildschirm.
Die bisherigen Erkenntnisse sprechen eher für das Gegenteil.
Hunderte zivile Tote, massive Fehlerquoten, fehlende Transparenz und ein Pentagon, das Regulierung abbauen statt verschärfen will – das ist kein Vertrauenssignal. Das ist ein Warnsignal.
Und genau deshalb dürfte dieses Thema noch erheblich größer werden.
Kommentar hinterlassen