AI News

US-Gericht blockiert Pentagon-Sperre gegen Anthropic vorerst

Eine US-Richterin stoppt die Pentagon-Sperre gegen Anthropic nach Streit um militärische Claude-Nutzung. Die Maßnahme galt als Vergeltung für öffentliche Kritik.

Aktualisiert 27. März 2026 1 Min. Lesezeit

Quelle und Methodik

Dieser Beitrag wird von LLMBase als quellengestützte Analyse von Berichten oder Ankündigungen von Handelsblatt .

anthropic claude pentagon ki-sicherheit militaer usa
US-Gericht blockiert Pentagon-Sperre gegen Anthropic vorerst

Richterin sieht illegale Vergeltungsmaßnahme

Richterin Rita Lin bewertete die Pentagon-Sperre als rechtswidrige Vergeltung für Anthropics öffentliche Kritik an militärischen KI-Anwendungen. In ihrer Entscheidung stellte sie fest, dass die Maßnahmen nicht auf genuine Sicherheitsinteressen abzielten, sondern das Unternehmen für seine Haltung bestrafen sollten. Dies verletze das Recht auf freie Meinungsäußerung.

Die Verfügung tritt erst nach einer siebentägigen Frist in Kraft, um der US-Regierung Berufungsmöglichkeiten zu geben. Anthropic begrüßte die Entscheidung und signalisierte Bereitschaft zur konstruktiven Zusammenarbeit mit Regierungsbehörden.

Streit um Claude-Nutzung für Überwachung und autonome Waffen

Der Konflikt entstand durch Anthropics Weigerung, dem Militär uneingeschränkten Zugang zu Claude für Überwachungszwecke und autonome Waffensysteme zu gewähren. Nach Berichten von Insidern kam die Technologie bereits bei Militäroperationen im Iran zum Einsatz.

Verteidigungsminister Pete Hegseth hatte Anthropic daraufhin als Risiko für nationale Sicherheit und Lieferketten eingestuft, was zum Ausschluss von Militäraufträgen führte. Das Justizministerium argumentierte, die Verweigerungshaltung könne laufende Militäreinsätze gefährden.

Auswirkungen auf europäische KI-Governance

Der Fall zeigt exemplarisch die Spannungen zwischen privatwirtschaftlicher KI-Entwicklung und staatlichen Sicherheitsinteressen auf. Für europäische Unternehmen und Regulierer bietet er wichtige Einsichten in den Umgang mit dual-use KI-Technologien.

Unter der EU-KI-Verordnung müssen Anbieter von Hochrisiko-KI-Systemen bereits umfassende Governance-Strukturen implementieren. Der Anthropic-Fall unterstreicht die Bedeutung klarer ethischer Leitlinien und rechtlicher Absicherung für Unternehmen, die militärische Anwendungen ablehnen.

Ausblick auf weitere Entwicklungen

Die temporäre Verfügung markiert nur den ersten Schritt in einem längeren Rechtsstreit. Präsident Trump hatte zusätzlich angeordnet, dass die gesamte Bundesregierung die Nutzung von Claude einstellen solle, was den Druck auf Anthropic weiter erhöht.

Für KI-Unternehmen in Europa und den USA wird der Ausgang des Verfahrens richtungsweisend für künftige Konflikte zwischen ethischen Unternehmenspositionen und staatlichen Anforderungen sein. Der Handelsblatt-Bericht zeigt die anhaltende Rechtsunsicherheit in diesem Bereich auf.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport