AI News

OpenAI SafetyKit skaliert Risiko-Agenten mit GPT-5 und multimodaler KI

SafetyKit nutzt OpenAI GPT-5 und multimodale Agenten für Content-Moderation und Compliance-Überwachung mit über 95% Genauigkeit bei 16 Milliarden Tokens täglich.

LLMBase Redaktion Aktualisiert 9. September 2025 2 Min. Lesezeit
ai llm industry openai gpt-5 content-moderation compliance

Die Agenten analysieren Text, Bilder, Finanztransaktionen und Produktlisten mit einer Genauigkeit von über 95 Prozent laut SafetyKit-Evaluierungen. Das System verarbeitet mittlerweile täglich über 16 Milliarden Tokens - ein Anstieg von 200 Millionen vor sechs Monaten.

Modellauswahl nach Aufgabenspezifik

SafetyKit entwickelt jeden Agenten für spezifische Risikokategorien und wählt das passende OpenAI-Modell:

  • GPT-5 für multimodale Analyse von Text, Bildern und Benutzeroberflächen
  • GPT-4.1 für detaillierte Content-Policy-Anweisungen und Hochvolumen-Workflows
  • Reinforcement Fine-tuning zur Verbesserung von Recall und Precision
  • Deep Research für Echtzeit-Online-Untersuchungen
  • Computer Using Agent für komplexe Policy-Aufgaben

Der Scam Detection Agent beispielsweise analysiert nicht nur Text, sondern auch visuelle Elemente wie QR-Codes oder in Produktbilder eingebettete Telefonnummern. Der Policy Disclosure Agent prüft Listings auf erforderliche rechtliche Hinweise und regionsspezifische Compliance-Warnungen.

GPT-5 für komplexe Entscheidungen

Policy-Entscheidungen erfordern oft subtile Unterscheidungen. Legacy-Systeme verwenden Keyword-Trigger oder starre Regelsätze, die bei komplexeren Bewertungen versagen können. SafetyKits Policy Disclosure Agent nutzt zunächst interne Policy-Bibliotheken, dann bewertet GPT-5 den Inhalt auf Behandlungs- oder Präventionsaussagen und regionale Disclosure-Anforderungen.

"Die Stärke von GPT-5 liegt in der präzisen Bewertung bei komplexen Policy-Fragen", erklärt David Graunke, CEO von SafetyKit. "Es ermöglicht akkurate, nachvollziehbare Entscheidungen auch in Edge Cases."

Schnelle Integration neuer Modelle

SafetyKit evaluiert jedes neue OpenAI-Modell gegen die schwierigsten Anwendungsfälle und deployt Top-Performer oft am selben Tag. Bei der Einführung von OpenAI o3 verbesserte das Unternehmen die Edge-Case-Performance in wichtigen Policy-Bereichen. GPT-5 folgte wenige Tage später und verbesserte Benchmark-Scores um mehr als 10 Punkte bei den anspruchsvollsten Vision-Tasks.

Laut internen Evaluierungen erreicht GPT-5 89 Prozent Performance bei den schwierigsten Bild-Tasks, während andere LLMs bei 63 Prozent liegen. Bei kombinierten Bild-Text-Aufgaben liegt GPT-5 bei 79 Prozent gegenüber 65 Prozent bei anderen Modellen.

Implikationen für europäische Unternehmen

Für europäische Marktplätze und Fintech-Unternehmen sind solche automatisierten Compliance-Systeme besonders relevant angesichts der strengen DSGVO- und KI-Verordnung-Anforderungen. Die Fähigkeit zur regionsspezifischen Policy-Durchsetzung und nachvollziehbaren Entscheidungsfindung entspricht europäischen Auditability-Standards.

Die Skalierung auf 16 Milliarden Tokens täglich zeigt die operationale Reife multimodaler KI-Agenten für kritische Geschäftsprozesse. SafetyKit schützt mittlerweile hunderte Millionen Endnutzer und hat sein Angebot auf Zahlungsrisiken, Geldwäschebekämpfung und Kinderschutz ausgeweitet.

Original source: OpenAI published this case study on SafetyKit's use of GPT-5 and multimodal agents for content moderation and risk detection.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.