KI-Begriff 1 Min. Lesezeit

Quantisierung

Quantisierung reduziert die numerische Präzision eines Modells, um Speicher und Rechenaufwand zu sparen.


Bei der Quantisierung werden Gewichte und Aktivierungen von Float32 auf Float16, INT8 oder noch niedrigere Formate projiziert. Moderne Techniken erhalten die Modellqualität durch Skalenfaktoren, Per-Channel-Statistiken oder Nachkalibrierung. So lassen sich große Sprachmodelle auf kleinere GPUs oder Edge-Geräte bringen.

Varianten

  • Post-Training-Quantization: Nachträgliche Umwandlung mit Kalibrier-Daten.
  • Quantization-Aware-Training: Modell lernt bereits während des Trainings mit reduzierter Präzision.
  • Hybrid: Kritische Layer bleiben in höherer Präzision, andere werden aggressiv quantisiert.
← Zurück zum Glossar
EU Made in Europe

Chat with 100+ AI Models in one App.

Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.

Kundensupport