Das KI-Unternehmen Anthropic hat ein überarbeitetes Vertragsangebot des US-Verteidigungsministeriums zurückgewiesen. Die vorgeschlagenen Änderungen reichten nicht aus, um die Bedenken des Unternehmens auszuräumen, wonach Künstliche Intelligenz für Massenüberwachung oder vollständig autonome Waffensysteme eingesetzt werden könnte.
Zwischen dem Pentagon und Anthropic besteht Uneinigkeit über Nutzungsbeschränkungen für das KI-Modell „Claude“, das als erstes KI-System im geheimen Netzwerk des US-Militärs eingesetzt wird.
US-Verteidigungsminister Pete Hegseth hatte Anthropic-CEO Dario Amodei am Dienstag mitgeteilt, dass der 200-Millionen-Dollar-Vertrag gekündigt werde, sollte das Unternehmen nicht zulassen, dass sein KI-Modell „für alle rechtmäßigen Zwecke“ genutzt werden dürfe. Zusätzlich würde Anthropic als „Lieferkettenrisiko“ eingestuft – eine Bezeichnung, die üblicherweise Firmen mit Verbindungen zu ausländischen Gegnern vorbehalten ist, erklärten Pentagon-Vertreter.
Anthropic teilte mit, das neue Vertragsangebot sei zwar als Kompromiss formuliert worden, enthalte jedoch juristische Klauseln, die es ermöglichten, die vorgesehenen Schutzmechanismen jederzeit außer Kraft zu setzen.
„Wir können dem aus Gewissensgründen nicht zustimmen“
In einem ausführlichen Blogbeitrag erklärte Amodei, er halte es für existenziell wichtig, KI zur Verteidigung der USA und anderer Demokratien einzusetzen und autokratischen Gegnern entgegenzutreten.
Zugleich betonte er, dass das Pentagon – und nicht private Unternehmen – militärische Entscheidungen treffe. In einem begrenzten Bereich könne KI jedoch demokratische Werte untergraben, statt sie zu schützen. Anwendungen wie Massenüberwachung oder autonome Waffensysteme lägen außerhalb dessen, was die heutige Technologie sicher und verlässlich leisten könne.
Die von Anthropic definierten Ausnahmen hätten die bisherige Nutzung der Modelle durch die Streitkräfte nicht behindert, so Amodei weiter.
Die vom Pentagon ausgesprochenen Drohungen änderten nichts an der Haltung des Unternehmens: „Wir können ihrem Wunsch nicht guten Gewissens zustimmen.“
Scharfe Reaktion aus dem Pentagon
Emil Michael, Unterstaatssekretär für Forschung und Technik im Verteidigungsministerium und an den Verhandlungen beteiligt, reagierte auf der Plattform X mit scharfer Kritik. Er bezeichnete Amodei als Lügner mit „Gottkomplex“ und warf ihm vor, die Kontrolle über das US-Militär an sich ziehen zu wollen und die nationale Sicherheit zu gefährden. Das Verteidigungsministerium werde sich stets an das Gesetz halten, sich jedoch nicht dem Willen eines gewinnorientierten Technologieunternehmens beugen.
Unterstützung aus den eigenen Reihen
Nach Veröffentlichung von Amodeis Blogbeitrag äußerten mehrere Anthropic-Mitarbeiter öffentlich ihre Unterstützung.
Trenton Bricken, Mitglied des technischen Teams für KI-Sicherheitsausrichtung, schrieb auf X, das Unternehmen habe wiederholt – oft außerhalb der öffentlichen Wahrnehmung – konsequent an seinen Werten festgehalten. Dies sei ein Fall, in dem diese Haltung nun sichtbar werde.
Auch Gian Segato, Data-Science-Manager bei Anthropic, erklärte, die aktuelle Entwicklung zeige deutlich, wie entscheidend die Gründung des Unternehmens gewesen sei – und wie gravierend die Alternative möglicherweise ausgefallen wäre.
Der Konflikt verdeutlicht die wachsenden Spannungen zwischen staatlichen Sicherheitsinteressen und den ethischen Leitlinien privater KI-Unternehmen im Umgang mit militärischer Nutzung von Künstlicher Intelligenz.
Kommentar hinterlassen