AI News

OpenAI ChatGPT Prompt Injection Abwehr: Safe Url und Social Engineering Schutz

OpenAI erklärt neue Schutzmaßnahmen gegen Prompt Injection Angriffe in ChatGPT mit Safe Url System und Social Engineering Abwehr für KI-Agenten.

LLMBase Redaktion Aktualisiert 11. März 2026 2 Min. Lesezeit
ai llm industry sicherheit chatgpt prompt-injection
OpenAI ChatGPT Prompt Injection Abwehr: Safe Url und Social Engineering Schutz

Prompt Injection entwickelt sich zu Social Engineering

Frühe Prompt Injection Angriffe waren relativ einfach strukturiert - Angreifer platzierten direkte Befehle in externen Inhalten wie Wikipedia-Artikeln. Moderne Angriffe nutzen jedoch zunehmend Social Engineering Techniken, die schwerer zu erkennen sind.

OpenAI zeigt ein Beispiel einer raffinierten E-Mail-basierten Attacke aus 2025, die sich als Geschäftskommunikation tarnt und ChatGPT dazu bringen soll, Mitarbeiterdaten zu extrahieren und an externe Endpunkte zu übertragen. Diese Angriffe funktionieren in 50% der Fälle bei entsprechend formulierten Nutzeranfragen.

Herkömmliche "AI Firewall" Systeme versagen bei solchen ausgereiften Angriffen. Das Problem ähnelt der Erkennung von Lügen oder Misinformation - eine komplexe Aufgabe ohne ausreichenden Kontext.

Safe Url System als Kernschutzmaßnahme

OpenAI verfolgt einen mehrstufigen Ansatz, der KI-Agenten wie menschliche Kundenservice-Mitarbeiter behandelt. Anstatt perfekte Eingabefilterung anzustreben, begrenzt das System die Auswirkungen erfolgreicher Manipulationsversuche.

Das Safe Url System erkennt, wenn ChatGPT sensible Informationen aus Gesprächen an Drittparteien übertragen würde. In solchen Fällen wird entweder eine Nutzerbestätigung eingeholt oder die Übertragung blockiert. Diese Mechanismen funktionieren auch in Atlas, Deep Research, ChatGPT Canvas und ChatGPT Apps.

Die Schutzmaßnahmen basieren auf Source-Sink-Analyse: Angreifer benötigen sowohl eine Quelle (Einfluss auf das System) als auch ein Ziel (gefährliche Funktionalität). OpenAI fokussiert sich darauf, gefährliche Aktionen nicht stillschweigend ablaufen zu lassen.

Auswirkungen für Unternehmen und Entwickler

Für europäische Unternehmen, die KI-Agenten implementieren, empfiehlt OpenAI die Anwendung ähnlicher Kontrollmechanismen wie bei menschlichen Mitarbeitern. Dies ist besonders relevant vor dem Hintergrund der EU-AI-Verordnung, die robuste Sicherheitsmaßnahmen für Hochrisiko-KI-Systeme vorschreibt.

Entwickler sollten bei der Integration von KI-Modellen in Anwendungssysteme berücksichtigen, welche Kontrollen menschliche Agenten in vergleichbaren Situationen hätten. Die vollständige Resistenz gegen Social Engineering ist bei aktuellen Modellen nicht immer kostenwirksam oder praktikabel.

Ausblick auf autonome KI-Systeme

OpenAI sieht die sichere Interaktion mit der "feindlichen Außenwelt" als Voraussetzung für vollautonome Agenten. Das Unternehmen erforscht weiterhin die Auswirkungen von Social Engineering gegen KI-Modelle und integriert die Erkenntnisse sowohl in Anwendungssicherheitsarchitekturen als auch in das Training der Modelle.

Die vorgestellten Prompt Injection Abwehrmaßnahmen zeigen, wie sich KI-Sicherheit von einfacher Eingabefilterung zu ganzheitlichen Systemdesign-Ansätzen entwickelt. OpenAI veröffentlichte weitere Details zum Safe Url System in einem separaten Blogpost.

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.