KI-Begriff 1 Min. Lesezeit

Kontext

Kontext beschreibt die Menge an Informationen, die ein Sprachmodell gleichzeitig betrachten kann, um konsistente Antworten zu formulieren.


Der Kontext umfasst die aktuellen Prompt-Tokens, systemischen Hinweise und – bei Retrieval – eingeblendete Dokumente, die einem Modell während einer Anfrage zur Verfügung stehen. Je größer das Kontextfenster, desto mehr Gesprächsverlauf, Tabellen oder Code kann ein LLM berücksichtigen. Gleichzeitig steigt mit jedem Token der Rechen- und Kostenaufwand.

Strategien für besseren Kontext

  • Chunking + RAG: Lange Quellen werden in relevante Abschnitte zerlegt.
  • Memory-Effizienz: Sliding-Window- oder Attention-Sparseness reduzieren Kosten.
  • Guardrails: System-Prompts legen Tonalität, Stil und Sicherheitsvorgaben fest.
← Zurück zum Glossar
EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport