AI News

US-Justizministerium: Anthropic nicht vertrauenswürdig für militärische KI-Systeme

Das US-Justizministerium weist Anthropics Klage zurück und begründet die Einstufung als Lieferkettenrisiko mit Sicherheitsbedenken bei militärischen Claude-Anwendungen.

Aktualisiert 18. März 2026 2 Min. Lesezeit

Quelle und Methodik

Dieser Beitrag wird von LLMBase als quellengestützte Analyse von Berichten oder Ankündigungen von Wired .

anthropic pentagon ki-sicherheit claude militär
US-Justizministerium: Anthropic nicht vertrauenswürdig für militärische KI-Systeme

Pentagon befürchtet Sabotage durch Anthropic-Personal

Die Trump-Administration begründet ihre Position mit konkreten Sicherheitsbedenken. Verteidigungsminister Pete Hegseth habe "vernünftigerweise" festgestellt, dass "Anthropic-Mitarbeiter nationale Sicherheitssysteme sabotieren, böswillig unerwünschte Funktionen einführen oder anderweitig die Integrität militärischer Operationen untergraben könnten".

Besonders problematisch sieht das Pentagon Anthropics Bestrebungen, die Nutzung seiner Claude-Modelle für umfassende Überwachung amerikanischer Bürger und vollautonome Waffensysteme zu beschränken. Das Justizministerium argumentiert, KI-Systeme seien "akut anfällig für Manipulation", und Anthropic könnte versuchen, seine Technologie während laufender Kriegsoperationen zu deaktivieren oder zu verändern.

Milliardenverluste und Ersatzlösungen im militärischen Einsatz

Anthropics Einstufung als Lieferkettenrisiko könnte dem Unternehmen Umsätze in Milliardenhöhe kosten. Das Pentagon arbeitet bereits daran, Claude-Modelle durch Alternativen von Google, OpenAI und xAI zu ersetzen. Besonders betroffen ist die Nutzung von Claude in Palantirs Datenanalysesoftware, einem wichtigen militärischen Anwendungsfall.

Das Verteidigungsministerium betont in der Gerichtseinreichung, es könne nicht "einfach einen Schalter umlegen", da Anthropic derzeit "das einzige für klassifizierte Systeme zugelassene KI-Modell" sei, während "hochintensive Kampfoperationen" laufen.

Breite Branchenunterstützung für Anthropic

Der Rechtsstreit hat erhebliche Aufmerksamkeit in der KI-Branche ausgelöst. Microsoft, KI-Forscher verschiedener Unternehmen, eine Gewerkschaft für Bundesangestellte und ehemalige Militärführer haben Unterstützungserklärungen für Anthropic eingereicht. Keine einzige Organisation hat sich öffentlich auf die Seite der Regierung gestellt.

Legal experts sehen Anthropics Chancen durchaus positiv, da die Maßnahme einer illegalen Vergeltung gleichkommen könnte. Allerdings bevorzugen Gerichte häufig nationale Sicherheitsargumente der Regierung.

Ausblick auf weitere Verfahrensentwicklung

Richterin Rita Lin wird nächsten Dienstag über Anthropics Antrag auf eine einstweilige Verfügung entscheiden, die das normale Geschäft bis zur Verfahrenslösung ermöglichen würde. Anthropic hat bis Freitag Zeit für eine Gegenantwort auf die Regierungsargumente.

Der Fall zeigt exemplarisch die Spannungen zwischen KI-Unternehmen und staatlichen Sicherheitsinteressen auf. Wired berichtet, dass das Pentagon Anthropic als "durchgedrehten Auftragnehmer" bezeichnet, dessen Technologien nicht mehr vertrauenswürdig seien.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport