AI News

OpenAI Privacy-Streit mit New York Times um 20 Millionen ChatGPT-Gespräche

OpenAI wehrt sich gegen die Forderung der New York Times nach Herausgabe von 20 Millionen privaten ChatGPT-Unterhaltungen und kündigt verstärkte Datenschutzmaßnahmen an.

LLMBase Redaktion Aktualisiert 12. November 2025 2 Min. Lesezeit
ai llm industry datenschutz rechtliche-auseinandersetzung

Gerichtliche Auseinandersetzung um Nutzerdaten

Die New York Times fordert im Rahmen ihrer laufenden Klage gegen OpenAI Zugang zu 20 Millionen zufällig ausgewählten ChatGPT-Gesprächen aus dem Zeitraum Dezember 2022 bis November 2024. Die Zeitung begründet dies damit, Beispiele für Nutzer finden zu wollen, die ChatGPT zur Umgehung ihrer Paywall verwenden könnten.

OpenAI hat bereits mehrere datenschutzfreundliche Alternativen vorgeschlagen, darunter gezielte Suchen nach Inhalten, die möglicherweise Texte aus New York Times-Artikeln enthalten. Diese Vorschläge wurden von der Zeitung abgelehnt. Das Unternehmen argumentiert, dass die breite Datenabfrage Millionen von Nutzern betrifft, die keinen Bezug zur Klage haben.

Implikationen für europäische KI-Regulierung

Der Fall wirft wichtige Fragen zum Datenschutz in KI-Systemen auf, insbesondere im europäischen Kontext. OpenAI erklärt, Schritte zur Compliance zu unternehmen, auch wenn die Forderung der New York Times nicht mit den eigenen Datenschutzstandards übereinstimme. Das Unternehmen nimmt Bezug auf DSGVO-Rechte und andere europäische Datenschutzgesetze.

Für europäische Unternehmen und KI-Teams verdeutlicht der Fall die Spannungen zwischen rechtlichen Verfahren und Datenschutzprinzipien. Die Tatsache, dass Geschäftskunden von ChatGPT Enterprise, ChatGPT Edu und API-Kunden nicht betroffen sind, zeigt unterschiedliche Datenschutz-Frameworks für verschiedene Nutzergruppen.

Neue Sicherheits- und Datenschutzmaßnahmen

OpenAI kündigt eine Beschleunigung seiner Sicherheits- und Datenschutz-Roadmap an. Geplant sind unter anderem clientseitige Verschlüsselung für ChatGPT-Nachrichten und vollautomatisierte Systeme zur Erkennung von Sicherheitsproblemen. Nur schwerwiegende Fälle wie Bedrohungen oder Cybersicherheitsrisiken sollen künftig an ein kleines, überprüftes Team von menschlichen Prüfern weitergeleitet werden.

Die angekündigten Maßnahmen zielen darauf ab, private Unterhaltungen auch vor OpenAI selbst zu schützen. Diese Entwicklung ist besonders relevant für europäische Unternehmen, die strenge Datenschutzanforderungen erfüllen müssen.

Ausblick für KI-Anbieter und Unternehmen

Der Privacy-Streit zwischen OpenAI und der New York Times illustriert die wachsenden rechtlichen Herausforderungen für KI-Anbieter. Für Unternehmen, die KI-Services einsetzen, unterstreicht der Fall die Bedeutung von Datenschutz-Frameworks und der Wahl von Anbietern mit robusten Schutzmaßnahmen.

Die Entwicklung dürfte auch andere KI-Unternehmen dazu veranlassen, ihre Datenschutz- und Sicherheitspraktiken zu überprüfen. OpenAI verspricht regelmäßige Updates zum Verfahren und kündigt weitere Details zu den neuen Sicherheitsfeatures für die nahe Zukunft an.

Original source: OpenAI

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.