AI News

Anthropic Claude Quellcode versehentlich veröffentlicht - zweiter Sicherheitsvorfall binnen einer Woche

Anthropic hat unabsichtlich den Basisquellcode seines KI-Agenten Claude freigegeben. Der Vorfall wirft Fragen zur Sicherheitspraxis des Unternehmens auf und folgt auf einen weiteren Datenleck-Vorfall in derselben Woche.

Aktualisiert 1. April 2026 1 Min. Lesezeit

Quelle und Methodik

Dieser Beitrag wird von LLMBase als quellengestützte Analyse von Berichten oder Ankündigungen von Handelsblatt .

ai llm industry anthropic claude sicherheit
Anthropic Claude Quellcode versehentlich veröffentlicht - zweiter Sicherheitsvorfall binnen einer Woche

Details des Claude-Quellcode-Vorfalls

Ein Anthropic-Sprecher erklärte gegenüber dem Handelsblatt, dass eine Veröffentlichung einen Teil des internen Quellcodes preisgab. Das Unternehmen klassifizierte den Vorfall explizit als "Veröffentlichungsproblem durch menschliches Versagen" und nicht als Sicherheitslücke im eigentlichen Sinne. Kundendaten oder Anmeldedaten seien nicht betroffen gewesen.

Der freigegebene Code betraf den Basisquellcode des beliebten Programmieragenten, was Sicherheitsexperten Anlass zur Sorge gab. Die versehentliche Offenlegung könnte Einblicke in die Funktionsweise von Claude ermöglichen und potenzielle Angriffsvektoren aufzeigen.

Zweiter Vorfall binnen einer Woche

Der Claude-Quellcode-Vorfall reiht sich in eine Serie von Sicherheitsproblemen bei Anthropic ein. Wenige Tage zuvor hatte das Unternehmen bereits Tausende von internen Dateien versehentlich öffentlich zugänglich gemacht. Diese Dateien enthielten unter anderem einen Entwurf für einen Blogbeitrag über ein kommendes leistungsstarkes KI-Modell mit den internen Bezeichnungen "Mythos" und "Capybara".

Die Häufung der Vorfälle deutet auf systematische Schwachstellen in Anthropics Veröffentlichungsprozessen hin. Für Unternehmen, die Claude in produktiven Umgebungen einsetzen, stellen solche Vorfälle ein Reputationsrisiko dar, auch wenn keine direkten Kundendaten betroffen waren.

Auswirkungen für KI-Entwicklung und Enterprise-Nutzer

Die versehentliche Preisgabe von Quellcode wirft Fragen zur Code-Management-Praxis führender KI-Anbieter auf. Europäische Unternehmen, die unter der GDPR operieren, müssen bei der Auswahl von KI-Diensten besonders auf Sicherheitspraktiken und Datenschutz-Compliance achten.

Für Entwicklungsteams, die Claude-APIs in ihre Anwendungen integrieren, bleibt der Dienst funktional unbeeinträchtigt. Die Vorfälle unterstreichen jedoch die Wichtigkeit von Multi-Vendor-Strategien und robusten Backup-Plänen bei geschäftskritischen KI-Anwendungen.

Anthropics Versprechen, Maßnahmen zur Verhinderung ähnlicher Vorfälle zu implementieren, wird von der Entwicklergemeinschaft und Unternehmenskunden genau beobachtet werden. Der Claude-Quellcode-Vorfall demonstriert, wie schnell interne Prozessfehler bei führenden KI-Anbietern öffentliche Aufmerksamkeit erregen können.

Die Informationen stammen aus einem Bericht des Handelsblatts über den Anthropic-Sicherheitsvorfall.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport