Startseite Allgemeines Trump verbannt Anthropic aus US-Behörden – KI soll gefälligst spuren
Allgemeines

Trump verbannt Anthropic aus US-Behörden – KI soll gefälligst spuren

45925659 (CC0), Pixabay
Teilen

Im anhaltenden Ringen um die richtige Portion künstliche Intelligenz für Amerikas Militär hat Präsident Donald Trump kurzerhand beschlossen: Wenn eine KI nicht macht, was man ihr sagt, fliegt sie raus. Das KI-Unternehmen Anthropic wurde mit sofortiger Wirkung aus allen Bundesbehörden verbannt.

Der Grund: Der Entwickler des Chatbots Claude hatte es gewagt, dem Pentagon die uneingeschränkte militärische Nutzung seiner Technologie zu verweigern – inklusive möglicher Anwendungen für Massenüberwachung im Inland und vollautonome Waffensysteme. Offenbar hatte man bei Anthropic die Idee, so etwas wie ethische Leitplanken einzubauen.

Trump reagierte staatsmännisch – also in Großbuchstaben. Die Vereinigten Staaten würden „niemals einem radikal linken, woken Unternehmen erlauben zu diktieren, wie unser großartiges Militär kämpft und Kriege gewinnt“, ließ er wissen. Anthropic habe einen „katastrophalen Fehler“ gemacht. Man kann davon ausgehen, dass auch das Wort „traurig“ fiel.

Pentagon: Bitte ohne Sicherheitsgurt

Verteidigungsminister Pete Hegseth hatte dem Unternehmen zuvor eine Frist gesetzt: Entweder vollständige Zustimmung zu „jeder rechtmäßigen Nutzung“ – oder raus aus den Systemen. Laut Anthropic bedeutete das konkret: Schutzvorkehrungen abbauen, keine Einschränkungen mehr, einfach liefern.

Firmenchef Dario Amodei lehnte ab – „nicht guten Gewissens“, wie er erklärte. KI sei durchaus in der Lage, verstreute Daten zu detaillierten Persönlichkeitsprofilen zusammenzusetzen. Und außerdem noch nicht verlässlich genug, um komplett autonome Waffen zu steuern. Mit anderen Worten: Vielleicht sollte man dem Algorithmus nicht direkt den roten Knopf überlassen.

Das Verteidigungsministerium habe daraufhin nicht nur mit Vertragskündigung gedroht, sondern auch mit dem „Defense Production Act“, einem Relikt aus dem Kalten Krieg. Im Zweifel könne man Anthropic als „Risiko für die Lieferkette“ einstufen – und die Schutzmaßnahmen per Gesetz aushebeln. Ethik per Zwang, sozusagen.

„Wir bringen niemanden wissentlich in Gefahr“

Amodei blieb dennoch standhaft. Man werde kein Produkt liefern, das Soldaten oder Zivilisten gefährde. Natürlich stehe es dem Ministerium frei, sich Vertragspartner zu suchen, die besser zur Vision passten – also vermutlich solche ohne lästige Skrupel.

Anthropic wurde 2021 von ehemaligen OpenAI-Mitarbeitern gegründet und positioniert sich als sicherheitsorientierte Alternative im KI-Markt. Während ChatGPT für die breite Masse plaudert, richtet sich Claude eher an Unternehmen und Entwickler – also Menschen, die Wert auf Dinge wie Datenschutz legen.

Nun also ein klarer Schnitt: Washington ohne Claude.

Die Botschaft ist eindeutig: In der neuen Ära der künstlichen Intelligenz darf man vieles sein – nur bitte nicht zu künstlich gewissenhaft.

Kommentar hinterlassen

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert

Kategorien

Ähnliche Beiträge
Allgemeines

„Der BGH sorgt für Klarheit bei steckengebliebenen Bauträgerprojekten“

Interview mit Rechtsanwältin Kerstin Bontschev, Dresden, zum aktuellen Urteil des Bundesgerichtshofs (V...

Allgemeines

Masken, Millionen, Magnum: Landgericht München II urteilt im XXL-Geschäftsmodell

Manche machten in der Pandemie Sauerteig. Andere machten Masken. Marco S. (39)...

Allgemeines

Landgericht München I verurteilt 35-Jährigen wegen Schwarzarbeit und Steuerhinterziehung im Zusammenhang mit EDEKA-Regalservice

Die 7. Große Strafkammer des Landgerichts München I hat den 35-jährigen Angeklagten...

Allgemeines

OLG Köln untersagt Streaming-Portal „Kopie“ der ARD Mediathek

Ein privater Streaming-Anbieter darf Inhalte der ARD Mediathek weder ohne Zustimmung übernehmen...