Startseite Allgemeines Trump-Regierung ordnet Stopp aller Geschäfte mit Anthropic an
Allgemeines

Trump-Regierung ordnet Stopp aller Geschäfte mit Anthropic an

JuliusH (CC0), Pixabay
Teilen

Die US-Regierung unter Präsident Donald Trump hat Bundesbehörden und militärische Auftragnehmer angewiesen, ihre Geschäftsbeziehungen mit dem KI-Unternehmen Anthropic einzustellen. Hintergrund ist ein Streit über Einsatzbeschränkungen für dessen KI-Technologie im Verteidigungsbereich.

Wie Trump am Freitag auf Truth Social mitteilte, haben Regierungsbehörden – darunter auch das Pentagon – sechs Monate Zeit, die Nutzung von Anthropic-Produkten schrittweise zu beenden. Verteidigungsminister Pete Hegseth erklärte zudem, Anthropic werde als „Lieferkettenrisiko“ eingestuft – eine Bezeichnung, die üblicherweise Unternehmen vorbehalten ist, die als potenzielle Sicherheitsgefahr gelten.

Der Schritt beendet vorerst eine wochenlange Auseinandersetzung zwischen einem führenden KI-Anbieter und der US-Regierung – mit möglichen weitreichenden Folgen für den künftigen Einsatz von KI im Militär.

Streit um rote Linien

Anthropic hatte dem Pentagon zwei klare Bedingungen für die Nutzung seines KI-Modells „Claude“ gesetzt:

  1. Kein Einsatz in autonomen Waffensystemen.
  2. Kein Einsatz zur Massenüberwachung von US-Bürgern.

Das Pentagon, das Claude bereits in klassifizierten Netzwerken einsetzt, wollte sich diese Einschränkungen nicht auferlegen lassen. Man benötige die Technologie „für alle rechtmäßigen Zwecke“, hieß es aus dem Verteidigungsministerium. Die rechtliche Bewertung liege in der Verantwortung des Militärs – nicht beim Anbieter.

Anthropic wies die Forderungen zurück. In einer Stellungnahme erklärte das Unternehmen, eine Einstufung als „Lieferkettenrisiko“ sei rechtlich fragwürdig und gefährlich für alle US-Unternehmen, die mit der Regierung verhandelten. „Drohungen ändern unsere Position nicht“, schrieb CEO Dario Amodei. Man werde eine entsprechende Einstufung juristisch anfechten.

Eskalation auf höchster Ebene

Der Konflikt spitzte sich bei einem Treffen zwischen Amodei und Verteidigungsminister Hegseth im Pentagon zu. Obwohl das Gespräch laut Insidern zunächst sachlich verlaufen sei, verschärfte sich die Lage in den darauffolgenden Tagen deutlich.

Trump erklärte öffentlich, Anthropic habe einen „katastrophalen Fehler“ begangen und versuche, dem Militär Vorschriften zu machen. Kurz darauf kündigte die General Services Administration an, Anthropic von der Regierungsplattform USAi.gov zu entfernen.

Hegseth betonte zudem, kein militärischer Auftragnehmer dürfe künftig mit Anthropic zusammenarbeiten.

Was bedeutet das für das Pentagon?

Anthropic hatte im vergangenen Sommer einen Vertrag im Wert von bis zu 200 Millionen Dollar mit dem Verteidigungsministerium geschlossen. Claude war das erste KI-Modell, das auf klassifizierten Militärnetzwerken eingesetzt wurde.

Ein vollständiger Ausstieg könnte operative Herausforderungen mit sich bringen, da bestehende Systeme ersetzt werden müssten. Zwar gilt Elon Musks Grok-KI laut Pentagon-Vertretern als grundsätzlich einsatzfähig in sensiblen Umgebungen, sie wird jedoch nicht als gleichwertig leistungsfähig angesehen.

Ein Pentagon-Beamter erklärte, man könne in sicherheitskritischen Situationen nicht erst ein Unternehmen um Zustimmung zu bestimmten Einsätzen bitten. „Legale Verantwortung liegt beim Endnutzer – also beim Pentagon.“

Folgen für Anthropic

Finanziell wäre der Verlust des 200-Millionen-Dollar-Vertrags für Anthropic wohl verkraftbar – das Unternehmen wird mit rund 380 Milliarden Dollar bewertet. Schwerer wiegt die mögliche „Lieferkettenrisiko“-Einstufung: Militärische Auftragnehmer müssten dann nachweisen, dass sie keine Anthropic-Technologie in Projekten für das Pentagon verwenden.

Da viele Großkunden von Anthropic selbst Regierungsaufträge haben oder anstreben, könnte dies erhebliche Auswirkungen auf das Geschäft haben.

Beobachter sehen in dem Schritt auch ein Signal an andere KI-Unternehmen: Wer mit der US-Regierung zusammenarbeiten will, sollte keine Einsatzbeschränkungen durchsetzen wollen.

Politische Dimension

Der Konflikt wirft grundsätzliche Fragen auf: Wer bestimmt die Grenzen militärischer KI-Nutzung – der Staat oder der Technologieanbieter?

Während Teile der KI-Branche Anthropic unterstützten und auch OpenAI-Chef Sam Altman Verständnis für die Sicherheitsbedenken äußerte, argumentieren Kritiker der Regierung, die harte Linie könne langfristig Innovationskraft schwächen.

„In einem Moment, in dem das Weiße Haus den KI-Wettbewerb mit China mit dem Wettlauf ins All vergleicht, sollte man eines der führenden heimischen Unternehmen nicht leichtfertig unter Druck setzen“, sagte Gregory Allen vom Center for Strategic and International Studies.

Ob es zu einer juristischen Auseinandersetzung kommt – und wie das Pentagon kurzfristig Ersatz für Anthropic-Systeme schaffen würde – ist bislang offen.

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

Wellness-Trend Peptide: Warum Menschen sich Stoffe spritzen, die „nicht für den menschlichen Verzehr“ gedacht sind

Der neueste Hype in der Wellness-Szene wirkt auf den ersten Blick paradox:...

Allgemeines

Tritt gegen gefesselten Gefangenen: Ex-Justizvollzugsbeamter verliert Pension

Ein ehemaliger Beamter der Justizvollzugsanstalt (JVA) Meppen muss auf seine Pension verzichten....

Allgemeines

Skandalurteil zur Schweinezuchtanlage Blumberg: Bebauungsplan gekippt – worauf kann sich ein Unternehmer noch verlassen?

Ein Urteil mit Sprengkraft für Investoren und mittelständische Betriebe: Das Oberverwaltungsgericht Berlin-Brandenburg...

Allgemeines

VG Köln untersagt vorläufig Einstufung der AfD als „gesichert rechtsextremistische Bestrebung“

Das Urteil des Verwaltungsgerichtes 13_L_1109_25_Beschluss_20260226 Das Verwaltungsgericht Köln hat dem Bundesamt für...