Die US-Regierung unter Präsident Donald Trump hat Bundesbehörden und militärische Auftragnehmer angewiesen, ihre Geschäftsbeziehungen mit dem KI-Unternehmen Anthropic einzustellen. Hintergrund ist ein Streit über Einsatzbeschränkungen für dessen KI-Technologie im Verteidigungsbereich.
Wie Trump am Freitag auf Truth Social mitteilte, haben Regierungsbehörden – darunter auch das Pentagon – sechs Monate Zeit, die Nutzung von Anthropic-Produkten schrittweise zu beenden. Verteidigungsminister Pete Hegseth erklärte zudem, Anthropic werde als „Lieferkettenrisiko“ eingestuft – eine Bezeichnung, die üblicherweise Unternehmen vorbehalten ist, die als potenzielle Sicherheitsgefahr gelten.
Der Schritt beendet vorerst eine wochenlange Auseinandersetzung zwischen einem führenden KI-Anbieter und der US-Regierung – mit möglichen weitreichenden Folgen für den künftigen Einsatz von KI im Militär.
Streit um rote Linien
Anthropic hatte dem Pentagon zwei klare Bedingungen für die Nutzung seines KI-Modells „Claude“ gesetzt:
- Kein Einsatz in autonomen Waffensystemen.
- Kein Einsatz zur Massenüberwachung von US-Bürgern.
Das Pentagon, das Claude bereits in klassifizierten Netzwerken einsetzt, wollte sich diese Einschränkungen nicht auferlegen lassen. Man benötige die Technologie „für alle rechtmäßigen Zwecke“, hieß es aus dem Verteidigungsministerium. Die rechtliche Bewertung liege in der Verantwortung des Militärs – nicht beim Anbieter.
Anthropic wies die Forderungen zurück. In einer Stellungnahme erklärte das Unternehmen, eine Einstufung als „Lieferkettenrisiko“ sei rechtlich fragwürdig und gefährlich für alle US-Unternehmen, die mit der Regierung verhandelten. „Drohungen ändern unsere Position nicht“, schrieb CEO Dario Amodei. Man werde eine entsprechende Einstufung juristisch anfechten.
Eskalation auf höchster Ebene
Der Konflikt spitzte sich bei einem Treffen zwischen Amodei und Verteidigungsminister Hegseth im Pentagon zu. Obwohl das Gespräch laut Insidern zunächst sachlich verlaufen sei, verschärfte sich die Lage in den darauffolgenden Tagen deutlich.
Trump erklärte öffentlich, Anthropic habe einen „katastrophalen Fehler“ begangen und versuche, dem Militär Vorschriften zu machen. Kurz darauf kündigte die General Services Administration an, Anthropic von der Regierungsplattform USAi.gov zu entfernen.
Hegseth betonte zudem, kein militärischer Auftragnehmer dürfe künftig mit Anthropic zusammenarbeiten.
Was bedeutet das für das Pentagon?
Anthropic hatte im vergangenen Sommer einen Vertrag im Wert von bis zu 200 Millionen Dollar mit dem Verteidigungsministerium geschlossen. Claude war das erste KI-Modell, das auf klassifizierten Militärnetzwerken eingesetzt wurde.
Ein vollständiger Ausstieg könnte operative Herausforderungen mit sich bringen, da bestehende Systeme ersetzt werden müssten. Zwar gilt Elon Musks Grok-KI laut Pentagon-Vertretern als grundsätzlich einsatzfähig in sensiblen Umgebungen, sie wird jedoch nicht als gleichwertig leistungsfähig angesehen.
Ein Pentagon-Beamter erklärte, man könne in sicherheitskritischen Situationen nicht erst ein Unternehmen um Zustimmung zu bestimmten Einsätzen bitten. „Legale Verantwortung liegt beim Endnutzer – also beim Pentagon.“
Folgen für Anthropic
Finanziell wäre der Verlust des 200-Millionen-Dollar-Vertrags für Anthropic wohl verkraftbar – das Unternehmen wird mit rund 380 Milliarden Dollar bewertet. Schwerer wiegt die mögliche „Lieferkettenrisiko“-Einstufung: Militärische Auftragnehmer müssten dann nachweisen, dass sie keine Anthropic-Technologie in Projekten für das Pentagon verwenden.
Da viele Großkunden von Anthropic selbst Regierungsaufträge haben oder anstreben, könnte dies erhebliche Auswirkungen auf das Geschäft haben.
Beobachter sehen in dem Schritt auch ein Signal an andere KI-Unternehmen: Wer mit der US-Regierung zusammenarbeiten will, sollte keine Einsatzbeschränkungen durchsetzen wollen.
Politische Dimension
Der Konflikt wirft grundsätzliche Fragen auf: Wer bestimmt die Grenzen militärischer KI-Nutzung – der Staat oder der Technologieanbieter?
Während Teile der KI-Branche Anthropic unterstützten und auch OpenAI-Chef Sam Altman Verständnis für die Sicherheitsbedenken äußerte, argumentieren Kritiker der Regierung, die harte Linie könne langfristig Innovationskraft schwächen.
„In einem Moment, in dem das Weiße Haus den KI-Wettbewerb mit China mit dem Wettlauf ins All vergleicht, sollte man eines der führenden heimischen Unternehmen nicht leichtfertig unter Druck setzen“, sagte Gregory Allen vom Center for Strategic and International Studies.
Ob es zu einer juristischen Auseinandersetzung kommt – und wie das Pentagon kurzfristig Ersatz für Anthropic-Systeme schaffen würde – ist bislang offen.
Kommentar hinterlassen