AI News

Anthropic Claude Code: Versehentlich veröffentlichter Quellcode verbreitet sich im Netz

Anthropic hat den Quellcode für Claude Code versehentlich über NPM veröffentlicht. Der 60MB große Source Code wurde binnen Stunden über 50.000 Mal kopiert, bevor das Unternehmen Gegenmaßnahmen ergriff.

Aktualisiert 1. April 2026 1 Min. Lesezeit

Quelle und Methodik

Dieser Beitrag wird von LLMBase als quellengestützte Analyse von Berichten oder Ankündigungen von Handelsblatt .

anthropic claude ki-sicherheit quellcode datenleck
Anthropic Claude Code: Versehentlich veröffentlichter Quellcode verbreitet sich im Netz

Umfang und Ursache des Datenlecks

Bei dem Vorfall wurde eine 60 Megabyte große Datei mit einer sogenannten Source Map hochgeladen, die eine vollständige Rekonstruktion des Quellcodes ermöglicht. Der Fehler fiel erst auf, nachdem Nutzer auf der Plattform X darauf hinwiesen. Nach Anthropic-Angaben waren keine sensiblen Kundendaten oder Anmeldedaten betroffen.

Der Code verbreitete sich binnen weniger Stunden exponentiell im Internet. Ein Projektordner auf Github verzeichnete mehr als 50.000 Kopien des Claude Code-Quellcodes, bevor Anthropic mit Unterlassungserklärungen reagierte.

Auswirkungen für Enterprise-Teams und Entwickler

Für Unternehmen, die Claude Code in ihren Entwicklungsprozessen einsetzen, wirft der Vorfall Fragen zur Code-Sicherheit und Intellectual Property auf. Die Verfügbarkeit des Quellcodes könnte Reverse Engineering ermöglichen und Wettbewerbsvorteile gefährden.

Entwicklerteams sollten prüfen, welche internen Implementierungsdetails durch den Leak offengelegt wurden. Besonders in regulierten Branchen könnte dies Compliance-Überprüfungen nach sich ziehen, wenn Claude Code in kritischen Anwendungen verwendet wird.

NPM-Veröffentlichungsprozesse unter Scrutiny

Der Vorfall unterstreicht Schwachstellen in automatisierten Deployment-Pipelines großer KI-Anbieter. Die Tatsache, dass eine 60MB Source Map unbemerkt auf NPM landen konnte, deutet auf unzureichende Pre-Release-Validierung hin.

Für andere KI-Unternehmen dürfte dies Anlass sein, ihre eigenen Veröffentlichungsprozesse zu überprüfen. Besonders europäische Teams, die unter GDPR-Vorgaben arbeiten, sollten sicherstellen, dass ähnliche Versehen durch mehrstufige Freigabeverfahren verhindert werden.

Nicht der erste Sicherheitsvorfall bei Anthropic

Handelsblatt weist darauf hin, dass dies nicht die erste Sicherheitslücke bei dem Startup ist. Für Käufer von Enterprise-KI-Lösungen verstärkt sich damit die Notwendigkeit, Anbieter-Due-Diligence um detaillierte Sicherheitsbewertungen zu erweitern.

Anthropic kündigte Maßnahmen an, um künftige Vorfälle zu verhindern, ohne jedoch spezifische technische oder prozessuale Änderungen zu benennen. Der Claude Code-Quellcode bleibt trotz der Unterlassungserklärungen in verschiedenen Kopien online verfügbar.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport