AI News

Anthropic bestreitet Claude-Sabotage-Möglichkeiten in Militäreinsätzen

Anthropic weist Pentagon-Vorwürfe zurück, das Unternehmen könne Claude während militärischer Operationen manipulieren oder sabotieren.

LLMBase Redaktion Aktualisiert 21. März 2026 2 Min. Lesezeit
anthropic claude ki-sicherheit pentagon militär
Anthropic bestreitet Claude-Sabotage-Möglichkeiten in Militäreinsätzen

Technische Argumente gegen Manipulationsmöglichkeiten

Thiyagu Ramasamy, Anthropics Leiter für den öffentlichen Sektor, erklärte in einer Gerichtsakte vom Freitag: "Anthropic hatte nie die Möglichkeit, Claude zum Stillstand zu bringen, seine Funktionalität zu ändern, den Zugang zu sperren oder anderweitig militärische Operationen zu beeinflussen oder zu gefährden."

Das Unternehmen betont, dass es keinen Backdoor oder Remote-Kill-Switch in seinen deployed Modellen gebe. Nach Anthropics Darstellung können Unternehmensangestellte sich nicht in Pentagon-Systeme einloggen, um Modelle während laufender Operationen zu modifizieren oder zu deaktivieren.

Updates seien nur mit Zustimmung der Regierung und des Cloud-Anbieters möglich - in diesem Fall Amazon Web Services. Zudem könne Anthropic weder auf Prompts noch auf andere Daten zugreifen, die Militärnutzer in Claude eingeben.

Pentagon-Position zu Lieferkettenrisiken

Das Verteidigungsministerium hatte Anthropic diesen Monat als Lieferkettenrisiko eingestuft, was die Nutzung von Claude-Software durch das Pentagon und Auftragnehmer verhindert. Andere Bundesbehörden haben ebenfalls ihre Claude-Nutzung eingestellt.

Regierungsanwälte argumentierten diese Woche, das Verteidigungsministerium sei "nicht verpflichtet, das Risiko zu tolerieren, dass kritische Militärsysteme in entscheidenden Momenten der Landesverteidigung und aktiver militärischer Operationen gefährdet werden".

Nach Wired-Berichten nutzte das Pentagon Claude zur Datenanalyse, zum Schreiben von Memos und zur Unterstützung bei der Erstellung von Kampfplänen. Die Regierung befürchtet, Anthropic könne aktive Militäroperationen stören, falls das Unternehmen bestimmte Nutzungsarten ablehnt.

Verhandlungsversuche und rechtliche Schritte

Sarah Heck, Anthropics Politikchefin, erklärte in Gerichtsunterlagen, das Unternehmen habe am 4. März einen Vertrag vorgeschlagen, der explizit auf Veto-Rechte bei militärischen Entscheidungen verzichtet. Anthropic wäre bereit gewesen, Formulierungen zu akzeptieren, die Bedenken über Claude-Nutzung bei tödlichen Angriffen ohne menschliche Aufsicht adressieren.

Die Verhandlungen scheiterten jedoch. Anthropic hat zwei Klagen eingereicht und strebt eine einstweilige Verfügung gegen das Verbot an. Eine Anhörung ist für den 24. März vor einem Bundesgericht in San Francisco angesetzt.

Auswirkungen für KI-Governance und Militäranwendungen

Der Fall verdeutlicht Spannungen zwischen KI-Sicherheitsbedenken und staatlichen Sicherheitsinteressen. Für europäische Unternehmen und Behörden zeigt die Auseinandersetzung, wie schnell technische Governance-Fragen zu politischen Konflikten eskalieren können.

Das Pentagon arbeitet nach eigenen Angaben mit Cloud-Service-Providern zusammen, um sicherzustellen, dass Anthropic-Führungskräfte keine einseitigen Änderungen an derzeit verwendeten Claude-Systemen vornehmen können. Diese Entwicklung könnte Präzedenzwirkung für ähnliche Fälle in anderen Jurisdiktionen haben.

Wired berichtete über die technischen Details der Auseinandersetzung zwischen Anthropic und dem US-Verteidigungsministerium.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.