AI News
OpenAI SafetyKit skaliert Risiko-Agenten mit GPT-5 und multimodaler KI
SafetyKit nutzt OpenAI GPT-5 und multimodale Agenten für Content-Moderation und Compliance-Überwachung mit über 95% Genauigkeit bei 16 Milliarden Tokens täglich.
Die Agenten analysieren Text, Bilder, Finanztransaktionen und Produktlisten mit einer Genauigkeit von über 95 Prozent laut SafetyKit-Evaluierungen. Das System verarbeitet mittlerweile täglich über 16 Milliarden Tokens - ein Anstieg von 200 Millionen vor sechs Monaten.
Modellauswahl nach Aufgabenspezifik
SafetyKit entwickelt jeden Agenten für spezifische Risikokategorien und wählt das passende OpenAI-Modell:
- GPT-5 für multimodale Analyse von Text, Bildern und Benutzeroberflächen
- GPT-4.1 für detaillierte Content-Policy-Anweisungen und Hochvolumen-Workflows
- Reinforcement Fine-tuning zur Verbesserung von Recall und Precision
- Deep Research für Echtzeit-Online-Untersuchungen
- Computer Using Agent für komplexe Policy-Aufgaben
Der Scam Detection Agent beispielsweise analysiert nicht nur Text, sondern auch visuelle Elemente wie QR-Codes oder in Produktbilder eingebettete Telefonnummern. Der Policy Disclosure Agent prüft Listings auf erforderliche rechtliche Hinweise und regionsspezifische Compliance-Warnungen.
GPT-5 für komplexe Entscheidungen
Policy-Entscheidungen erfordern oft subtile Unterscheidungen. Legacy-Systeme verwenden Keyword-Trigger oder starre Regelsätze, die bei komplexeren Bewertungen versagen können. SafetyKits Policy Disclosure Agent nutzt zunächst interne Policy-Bibliotheken, dann bewertet GPT-5 den Inhalt auf Behandlungs- oder Präventionsaussagen und regionale Disclosure-Anforderungen.
"Die Stärke von GPT-5 liegt in der präzisen Bewertung bei komplexen Policy-Fragen", erklärt David Graunke, CEO von SafetyKit. "Es ermöglicht akkurate, nachvollziehbare Entscheidungen auch in Edge Cases."
Schnelle Integration neuer Modelle
SafetyKit evaluiert jedes neue OpenAI-Modell gegen die schwierigsten Anwendungsfälle und deployt Top-Performer oft am selben Tag. Bei der Einführung von OpenAI o3 verbesserte das Unternehmen die Edge-Case-Performance in wichtigen Policy-Bereichen. GPT-5 folgte wenige Tage später und verbesserte Benchmark-Scores um mehr als 10 Punkte bei den anspruchsvollsten Vision-Tasks.
Laut internen Evaluierungen erreicht GPT-5 89 Prozent Performance bei den schwierigsten Bild-Tasks, während andere LLMs bei 63 Prozent liegen. Bei kombinierten Bild-Text-Aufgaben liegt GPT-5 bei 79 Prozent gegenüber 65 Prozent bei anderen Modellen.
Implikationen für europäische Unternehmen
Für europäische Marktplätze und Fintech-Unternehmen sind solche automatisierten Compliance-Systeme besonders relevant angesichts der strengen DSGVO- und KI-Verordnung-Anforderungen. Die Fähigkeit zur regionsspezifischen Policy-Durchsetzung und nachvollziehbaren Entscheidungsfindung entspricht europäischen Auditability-Standards.
Die Skalierung auf 16 Milliarden Tokens täglich zeigt die operationale Reife multimodaler KI-Agenten für kritische Geschäftsprozesse. SafetyKit schützt mittlerweile hunderte Millionen Endnutzer und hat sein Angebot auf Zahlungsrisiken, Geldwäschebekämpfung und Kinderschutz ausgeweitet.
Original source: OpenAI published this case study on SafetyKit's use of GPT-5 and multimodal agents for content moderation and risk detection.
KI-News Updates
KI-News direkt ins Postfach
Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.
Weitere Nachrichten
Weitere aktuelle Artikel, die Sie interessieren könnten.
Chat with 100+ AI Models in one App.
Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.