AI News

OpenAI Safety Bug Bounty Programm startet für KI-Sicherheitsrisiken

OpenAI startet ein neues Safety Bug Bounty Programm zur Identifizierung von KI-Missbrauchsrisiken und Sicherheitslücken in agentic AI-Systemen.

Aktualisiert 25. März 2026 2 Min. Lesezeit

Quelle und Methodik

Dieser Beitrag wird von LLMBase als quellengestützte Analyse von Berichten oder Ankündigungen von OpenAI .

ai llm industry ki-sicherheit openai
OpenAI Safety Bug Bounty Programm startet für KI-Sicherheitsrisiken

Das Safety Bug Bounty Programm richtet sich an Sicherheitsforscher und ethical Hacker, die über die Bugcrowd-Plattform Schwachstellen melden können. OpenAI positioniert die Initiative als Reaktion auf die sich schnell entwickelnden Missbrauchsmöglichkeiten von KI-Technologie.

Fokus auf agentic AI-Risiken und Prompt Injection

Das Programm definiert drei Hauptkategorien von KI-Sicherheitsrisiken. Agentic Risks bilden den Schwerpunkt und umfassen Third-Party-Prompt-Injection-Angriffe, bei denen Angreifer-Text zuverlässig die Kontrolle über AI-Agenten wie ChatGPT Agent oder Browser übernehmen kann. OpenAI fordert eine Reproduzierbarkeit von mindestens 50 Prozent für gültige Meldungen.

Datenexfiltration durch manipulierte Agenten stellt einen weiteren kritischen Bereich dar. Das Programm berücksichtigt auch Szenarien, in denen agentic OpenAI-Produkte unerlaubte Aktionen auf OpenAIs Website durchführen oder andere potenziell schädliche Handlungen ausführen. Model Control Protocol (MCP) Risiken fallen ebenfalls unter diese Kategorie, wobei Tests die Nutzungsbedingungen Dritter respektieren müssen.

Schutz proprietärer Informationen und Plattformintegrität

Die zweite Kategorie fokussiert sich auf den Schutz von OpenAIs proprietären Informationen. Dazu gehören Modellgenerierungen, die proprietäre Informationen über Reasoning-Prozesse preisgeben, sowie andere Vulnerabilities, die interne OpenAI-Daten exponieren könnten.

Account- und Plattformintegrität bilden die dritte Säule des Programms. Forscher können Schwachstellen in Anti-Automatisierungs-Kontrollen, Manipulationen von Account-Trust-Signalen oder Umgehungen von Account-Beschränkungen melden. Probleme, die unbefugten Zugang zu Features oder Daten ermöglichen, werden jedoch an das separate Security Bug Bounty Programm weitergeleitet.

Abgrenzung und praktische Relevanz für Entwicklerteams

OpenAI grenzt das Safety Bug Bounty bewusst von allgemeinen Jailbreak-Versuchen ab. Einfache Content-Policy-Umgehungen ohne nachweisbaren Sicherheits- oder Missbrauchsimpact fallen nicht unter das Programm. Jailbreaks, die lediglich zu unhöflicher Sprache oder leicht verfügbaren Informationen führen, werden explizit ausgeschlossen.

Für europäische Entwicklerteams und Unternehmen, die OpenAI-Services integrieren, bietet das Programm Einblicke in prioritäre Sicherheitsbereiche. Die Fokussierung auf agentic Risks spiegelt die wachsende Bedeutung autonomer AI-Systeme in Geschäftsanwendungen wider. Unternehmen sollten besonders auf Third-Party-Prompt-Injection-Risiken achten, wenn sie AI-Agenten in kundenorientierten Anwendungen einsetzen.

Das OpenAI Safety Bug Bounty Programm zeigt die Erweiterung traditioneller Cybersecurity-Ansätze um KI-spezifische Risikokategorien und etabliert neue Standards für die Bewertung von AI-Sicherheit jenseits konventioneller Vulnerabilities. OpenAI betreibt das Programm über die Bugcrowd-Plattform und führt zusätzlich private Kampagnen für spezifische Harm-Kategorien durch.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport