AI News

Anthropic Claude Mythos Preview wegen Sicherheitsbedenken zurückgehalten

Anthropic hält sein neues KI-Modell Claude Mythos Preview wegen extremer Cybersecurity-Fähigkeiten zurück und gründet das geschlossene Konsortium Project Glasswing mit Tech-Partnern.

Aktualisiert 8. April 2026 2 Min. Lesezeit

Quelle und Methodik

Dieser Beitrag wird von LLMBase als quellengestützte Analyse von Berichten oder Ankündigungen von Handelsblatt .

anthropic claude cybersecurity ki-sicherheit enterprise vulnerability-detection
Anthropic Claude Mythos Preview wegen Sicherheitsbedenken zurückgehalten

Statt einer öffentlichen Freigabe hat Anthropic das geschlossene Konsortium "Project Glasswing" gegründet, über das ausgewählte Partner kontrollierten Zugang zu einer Vorschauversion erhalten. Diese Entscheidung signalisiert einen neuen Ansatz im Umgang mit KI-Modellen, die kritische Infrastruktursicherheit betreffen könnten.

Project Glasswing Konsortium und Partner

Das Project Glasswing Konsortium umfasst namhafte Technologieunternehmen und Sicherheitsspezialisten. Zu den Partnern zählen die Tech-Giganten Amazon, Apple, Google und Microsoft sowie die Netzwerkausrüster Broadcom und Cisco. Ergänzt wird das Konsortium durch die Cybersecurity-Unternehmen Crowdstrike und Palo Alto Networks sowie Organisationen wie die Linux Foundation.

Diese Partnerauswahl deutet auf eine strategische Herangehensweise hin: Die beteiligten Unternehmen verwalten kritische Infrastrukturen und Software-Ökosysteme, die von den Erkennungsfähigkeiten des Modells profitieren könnten. Für europäische Unternehmen entstehen dabei Fragen zur Abhängigkeit von einem US-dominierten Sicherheitskonsortium.

Technische Fähigkeiten und Sicherheitsimplikationen

Nach Angaben von Anthropic hat Claude Mythos Preview bereits Tausende kritischer Sicherheitslücken in weitverbreiteten Betriebssystemen und Browsern identifiziert. Das Modell soll dabei ein Ausmaß an autonomer Vulnerability-Detection erreichen, das bislang als "kaum denkbar" galt.

Chefwissenschaftler Jared Kaplan erklärte gegenüber der New York Times, das Ziel sei es, "guten Akteuren" einen Vorsprung beim Absichern von Software und Infrastruktur zu verschaffen. Diese Formulierung unterstreicht das Dual-Use-Problem: Dieselben Fähigkeiten, die zur Verbesserung der Cybersecurity eingesetzt werden können, könnten in falschen Händen massive Schäden verursachen.

Auswirkungen für Enterprise-Kunden und Regulierung

Für europäische Unternehmen und Behörden entstehen durch diese Entwicklung mehrere Herausforderungen. Einerseits könnten die Vulnerability-Detection-Fähigkeiten von Claude Mythos Preview erhebliche Verbesserungen der IT-Sicherheit ermöglichen. Andererseits wirft der geschlossene Konsortiums-Ansatz Fragen zur gleichberechtigten Verfügbarkeit kritischer Sicherheitstechnologien auf.

Die Entscheidung von Anthropic, ein so mächtiges Modell nicht öffentlich zu veröffentlichen, könnte auch regulatorische Diskussionen befeuern. Sie zeigt, dass KI-Unternehmen durchaus in der Lage sind, Selbstbeschränkungen zu implementieren - eine Fähigkeit, die in künftigen Governance-Frameworks eine Rolle spielen könnte.

Die kontrollierte Freigabe von Claude Mythos Preview über Project Glasswing wird zum Präzedenzfall für den Umgang mit dual-use AI-Technologien. Handelsblatt berichtet, dass das Modell bereits konkrete Sicherheitslücken in kritischen Systemen aufgedeckt hat, was die Dringlichkeit eines durchdachten Governance-Ansatzes unterstreicht.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport