Anthropic vs. Pentagon: Dario Amodei verweigert KI für Massenüberwachung und autonome Waffen

Anthropic vs. Pentagon: Dario Amodei verweigert KI für Massenüberwachung und autonome Waffen

Das ist der KI-Showdown des Jahres. Anthropic-CEO Dario Amodei hat gestern ein Statement veröffentlicht, das die Tech-Welt erschüttert: Seine Firma weigert sich, Claude für zwei militärische Anwendungen freizugeben – Massenüberwachung von US-Bürgern und vollautonome Waffen.

Das Pentagon droht mit massiven Konsequenzen. Das Department of War hat angekündigt, Anthropic als "Supply Chain Risk" einzustufen – ein Label, das bisher nur US-Feinden vorbehalten war. Gleichzeitig drohen sie mit dem Defense Production Act, um die Entfernung der Sicherheitsvorkehrungen zu erzwingen.

Amodei nennt diese Drohungen "inhärent widersprüchlich": Die eine Seite bezeichnet Anthropic als Sicherheitsrisiko, die andere erklärt Claude als "essentiell für die nationale Sicherheit". Beides gleichzeitig ergibt keinen Sinn.

Die Hintergründe sind komplex. Anthropic arbeitet bereits intensiv mit dem US-Militär zusammen – sie waren die erste Frontier-AI-Firma in klassifizierten Netzwerken, bei den National Laboratories und mit Custom Models für Geheimdienste. Claude wird für Geheimdienstanalyse, Cyber-Operationen und Missionsplanung eingesetzt.

Aber zwei Linien will Amodei nicht überschreiten: KI-gestützte Massenüberwachung amerikanischer Bürger ("inkompatibel mit demokratischen Werten") und vollautonome Waffen ("heutige KI-Systeme sind schlicht nicht zuverlässig genug").

Der CEO argumentiert sachlich: Bei autonomen Waffen fehlen die nötigen Guardrails. Bei Überwachung hinkt das Gesetz der Technologie hinterher. Beides sind keine ideologischen Positionen – es sind praktische Sicherheitsbedenken.

Die Tech-Community ist gespalten. Auf Hacker News hat das Statement über 1.600 Upvotes und 800+ Kommentare. Manche feiern Amodei als Prinzipienreiter. Andere fragen: Kann eine private Firma dem Pentagon diktieren, was es mit KI machen darf?

Eines ist sicher: Das hier ist größer als Anthropic. Es geht um die fundamentale Frage, wer über den Einsatz von Frontier-KI entscheidet – und wo die roten Linien liegen.