AI News

OpenAI GPT-5.1 System Card Addendum: Neue Sicherheitsmetriken für Instant und Thinking

OpenAI veröffentlicht erweiterte Sicherheitsbewertungen für GPT-5.1 Instant und GPT-5.1 Thinking mit neuen Evaluierungen zu psychischer Gesundheit und emotionaler Abhängigkeit.

LLMBase Redaktion Aktualisiert 12. November 2025 1 Min. Lesezeit
ai llm industry OpenAI GPT-5.1 KI-Sicherheit System Card

Erweiterte Sicherheitsevaluierungen für GPT-5.1

Das System Card Addendum dokumentiert aktualisierte Baseline-Sicherheitsmetriken für beide GPT-5.1 Varianten. OpenAI hat die standardmäßigen Sicherheitsbewertungen um zwei kritische Bereiche erweitert:

  • Mental Health Evaluations: Bewertung von Situationen, in denen Nutzer Anzeichen von Wahnvorstellungen, Psychosen oder Manien zeigen könnten
  • Emotional Reliance Assessments: Analyse von Outputs im Zusammenhang mit ungesunder emotionaler Abhängigkeit oder Bindung an ChatGPT

Die grundlegenden Sicherheitsmaßnahmen bleiben weitgehend identisch mit denen der ursprünglichen GPT-5 System Card. Das Addendum fokussiert auf die spezifischen Risikoprofile der überarbeiteten Modellversionen.

Unterschiede zwischen Instant und Thinking

GPT-5.1 Instant verfügt über adaptive Reasoning-Fähigkeiten, die es dem Modell ermöglichen, situativ zu entscheiden, wann es vor einer Antwort "nachdenken" sollte. GPT-5.1 Thinking passt die Denkzeit präziser an jede spezifische Anfrage an.

Für europäische Unternehmen ist relevant, dass GPT-5.1 Auto weiterhin automatisches Routing zwischen den Modellen bietet. Dies reduziert die Notwendigkeit manueller Modellauswahl für die meisten Anwendungsfälle.

Implikationen für KI-Governance

Die Erweiterung der Sicherheitsevaluierungen um psychische Gesundheit und emotionale Abhängigkeit spiegelt wachsende regulatorische Erwartungen wider. Für europäische Unternehmen unter dem AI Act sind solche präventiven Sicherheitsbewertungen zunehmend compliance-relevant.

Die dokumentierten Evaluierungen bieten Entwicklerteams konkrete Referenzpunkte für eigene Sicherheitstests. Besonders für Anwendungen mit direktem Nutzerkontakt werden diese Metriken zu wichtigen Audit-Komponenten.

Ausblick für Entwicklerteams

Das System Card Addendum zeigt OpenAIs Fokus auf proaktive Risikobewertung vor der Markteinführung. Für Entwicklerteams bedeutet dies sowohl erweiterte Sicherheitsgarantien als auch höhere Compliance-Standards bei der Integration.

Die Unterscheidung zwischen Instant und Thinking ermöglicht präzisere Anwendungsoptimierung, erfordert aber auch differenziertere Sicherheitsstrategien je nach Deployment-Szenario.

Original source: OpenAI published this system card addendum at https://openai.com/index/gpt-5-system-card-addendum-gpt-5-1

KI-News Updates

KI-News direkt ins Postfach

Wöchentliche Zusammenfassungen der neuesten KI-News. Jederzeit abmelden.

EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.