Reasoning-Modelle sind auf logisches Schlussfolgern optimiert und lösen Aufgaben mit mehreren Denk- und Prüfschritten.
Reasoning-Modelle erweitern klassische LLMs um Strategien wie Chain-of-Thought, Tree-of-Thought oder programmatische Verifikation. Sie nutzen verbesserte Trainingsdaten, Abstimmungsziele und Tool-Aufrufe, um komplexe Probleme zu lösen – etwa Mathe-Olympiaden, Code-Analysen oder Entscheidungsbäume.
Eigenschaften
- Explizite Schritte: Modelle beschreiben Zwischenergebnisse und prüfen sich selbst.
- Tool-Nutzung: Zugriff auf Rechner, Wissensquellen oder Agenten-Frameworks.
- Evaluation: Benchmarks wie AIME, GSM8K oder LiveCodeBench messen tatsächliche Denkfähigkeit.