KI-Begriff 1 Min. Lesezeit

Token

Tokens sind die kleinsten Einheiten, in die Texte für Sprachmodelle zerlegt werden.


Ein Token kann ein ganzes Wort, Wortteil oder Sonderzeichen sein. Tokenizer zerlegen Eingaben in diese Einheiten, und Modelle erzeugen wiederum Tokens als Ausgabe. Tokenkosten bestimmen sowohl Rechenaufwand als auch Abrechnungsmodelle vieler API-Anbieter.

Hinweise

  • Tokenizer-abhängig: Unterschiedliche Modelle verwenden verschiedene Vokabulare.
  • Tokenbudget: Längere Prompts verbrauchen mehr Kontext und erhöhen Kosten.
  • Analyse: Tokenzählung hilft, Antwortlängen zu planen und Limits einzuhalten.
← Zurück zum Glossar
EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport