AI News

OpenAI Kinderschutz-Maßnahmen gegen CSAM und Online-Missbrauch

OpenAI veröffentlicht Details zu Schutzmaßnahmen gegen Online-Kindesmissbrauch, einschließlich CSAM-Erkennung, Nutzungsrichtlinien und Branchenzusammenarbeit zur Verhinderung von KI-Missbrauch.

LLMBase Redaktion Aktualisiert 29. September 2025 2 Min. Lesezeit
ai llm industry sicherheit kinderschutz

Strikte Nutzungsrichtlinien und automatische Sperrungen

OpenAI verbietet explizit jegliche Nutzung seiner Dienste zur Sexualisierung von Minderjährigen. Die Nutzungsrichtlinien umfassen ein komplettes Verbot von CSAM-Generierung, Grooming-Aktivitäten und altersunangemessenen Inhalten für Kinder. Nutzer, die gegen diese Richtlinien verstoßen, werden automatisch an das National Center for Missing and Exploited Children (NCMEC) gemeldet und dauerhaft von den Diensten ausgeschlossen.

Das Unternehmen überwacht auch Entwickler von Drittanbieter-Anwendungen. Bei wiederholten Verstößen durch deren Nutzer müssen Entwickler entsprechende Sperrungen vornehmen oder riskieren selbst den Ausschluss von OpenAI-Diensten.

Technische Erkennungssysteme und Branchenzusammenarbeit

OpenAI setzt Hash-Matching-Technologie ein, um bekannte CSAM-Inhalte zu identifizieren, und nutzt Thorns CSAM-Klassifizierer zur Erkennung neuer problematischer Inhalte. Die Systeme überwachen sowohl Textanfragen als auch hochgeladene Medieninhalte in Echtzeit.

Besonders problematisch sind neue Missbrauchsmuster, bei denen Nutzer CSAM hochladen und das Modell zur detaillierten Beschreibung auffordern oder fiktive Rollenspiele mit hochgeladenen illegalen Inhalten kombinieren. OpenAI setzt kontextbewusste Klassifizierer und menschliche Expertenprüfung ein, um solche Versuche zu erkennen und zu blockieren.

Herausforderungen bei der Modellsicherheit

Ein zentrales Problem für die KI-Sicherheitsforschung stellt die rechtliche Lage dar: Da CSAM-Besitz illegal ist, können Unternehmen ihre Modelle nicht vollständig gegen solche Inhalte testen. OpenAI befürwortet daher Gesetzesänderungen wie den Child Sexual Abuse Material Prevention Act in New York, der rechtlichen Schutz für verantwortungsvolle Meldungen und proaktive Schutzmaßnahmen schaffen würde.

Bedeutung für europäische KI-Anbieter

Für europäische KI-Unternehmen verdeutlicht OpenAIs Ansatz die Komplexität der Kinderschutz-Compliance. Der EU AI Act und nationale Gesetze erfordern ähnliche Schutzmaßnahmen, wobei die grenzüberschreitende Zusammenarbeit mit US-Behörden wie NCMEC zusätzliche Herausforderungen schafft. Unternehmen müssen sowohl technische Erkennungssysteme als auch rechtskonforme Meldeverfahren implementieren, um regulatorischen Anforderungen zu entsprechen.

Die von OpenAI beschriebenen Missbrauchsmuster zeigen, dass Kinderschutz-Maßnahmen kontinuierlich an neue Angriffsvektoren angepasst werden müssen und eine enge Zusammenarbeit zwischen Technologieanbietern, Behörden und Kinderschutzorganisationen erfordern.

Original source: Der Artikel basiert auf OpenAIs Veröffentlichung unter https://openai.com/index/combating-online-child-sexual-exploitation-abuse.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.