AI News

BMG verklagt Anthropic wegen Claude-Training mit urheberrechtlich geschützten Songtexten

Die Bertelsmann-Tochter BMG Rights Management hat Anthropic wegen der Verletzung von Urheberrechten verklagt. Das KI-Unternehmen soll Songtexte bekannter Künstler ohne Lizenz für das Training von Claude verwendet haben.

Aktualisiert 18. März 2026 2 Min. Lesezeit

Quelle und Methodik

Dieser Beitrag wird von LLMBase als quellengestützte Analyse von Berichten oder Ankündigungen von Handelsblatt .

anthropic claude urheberrecht bmg ki-sicherheit bertelsmann
BMG verklagt Anthropic wegen Claude-Training mit urheberrechtlich geschützten Songtexten

Vorwürfe gegen Anthropic Claude-Training

Laut der Klage von BMG hat Anthropic Songtexte von bekannten Künstlern wie den Rolling Stones, Bruno Mars und Ariana Grande ohne Autorisierung kopiert und für das Training von Claude verwendet. BMG beschuldigt das Unternehmen, dabei Hunderte von Urheberrechten verletzt zu haben.

Besonders problematisch aus Sicht von BMG ist die behauptete Herkunft der Trainingsdaten. Das Musikunternehmen erklärt, dass Anthropic urheberrechtlich geschützte Werke von "nicht autorisierten Torrent-Seiten" für das KI-Training bezogen habe. Diese Praxis stehe "in direktem Widerspruch zu den Standards, die von jedem verantwortungsbewussten Akteur in der KI-Gemeinschaft erwartet werden".

Auswirkungen auf KI-Entwicklung und Compliance

Die BMG-Klage gegen Anthropic reiht sich in eine wachsende Serie von Urheberrechtsklagen gegen KI-Unternehmen ein. Autoren, Nachrichtenagenturen und andere Rechteinhaber haben bereits Dutzende ähnlicher Verfahren eingeleitet. Für europäische KI-Entwickler sind diese Fälle besonders relevant, da sie Präzedenzfälle für die Auslegung von Fair-Use-Prinzipien schaffen könnten.

KI-Unternehmen argumentieren typischerweise, dass sie urheberrechtlich geschütztes Material im Rahmen der "Fair Use"-Regelung verwenden, indem sie es in transformative, neue Werke umwandeln. Die Gerichte müssen jedoch noch endgültig klären, inwieweit diese Argumentation bei großangelegtem KI-Training greift.

Bedeutung für KI-Sicherheit und Governance

Die Anthropic-Klage unterstreicht die Notwendigkeit transparenter Datenherkunft und sauberer Lizenzierungspraktiken in der KI-Entwicklung. Für Unternehmen, die KI-Modelle wie Claude in Europa einsetzen, entstehen zusätzliche Compliance-Risiken, wenn die zugrunde liegenden Trainingsdaten rechtlich umstritten sind.

Die EU AI Act-Regulierung wird voraussichtlich strengere Anforderungen an die Dokumentation von Trainingsdaten stellen. Unternehmen sollten daher ihre KI-Anbieter zu Datenherkunft und Lizenzierung befragen, um rechtliche Risiken zu minimieren.

Fazit

Die BMG-Klage gegen Anthropic zeigt die anhaltenden Spannungen zwischen KI-Innovation und Urheberrechtsschutz auf. Während Anthropic bisher keine öffentliche Stellungnahme abgegeben hat, wird der Fall wichtige Präzedenzfälle für die Bewertung von Fair-Use-Argumenten im KI-Kontext schaffen. Diese Informationen stammen aus einem Bericht von Handelsblatt.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport