KI-Begriff 1 Min. Lesezeit

Entropie

Entropie misst die Unsicherheit oder den Informationsgehalt einer Wahrscheinlichkeitsverteilung.


Die Entropie quantifiziert, wie unvorhersehbar ein Zufallsprozess ist. In der Informations- und KI-Theorie beschreibt sie, wie viel Information nötig ist, um ein Ereignis zu kodieren. Hohe Entropie bedeutet, dass eine Verteilung flach ist und keine klaren Favoriten existieren – wichtig beim Sampling aus Sprachmodellen oder beim Bewerten von Klassifikatoren.

Anwendungen

  • Regularisierung: Entropie-Strafen verhindern übermäßige Konfidenz.
  • Decision Trees: Informationsgewinn entscheidet über Splits.
  • Temperature Sampling: Über die Temperatur wird die Entropie einer Tokenverteilung erhöht oder gesenkt.
← Zurück zum Glossar