KI-Modell-Ranking (LLM-Leaderboard)
Beste KI-Mathe-Modelle
Top-Sprachmodelle für Mathematik nach Math Index
| Modell Name des KI-Modells und Anbieterorganisation | Preis/1 Mio. Kosten pro 1 Million Tokens — Input (Text, den Sie senden) / Output (Text, den das Modell erzeugt) |
MMLU-Pro
Massive Multitask Language Understanding (Professional) - testet breites Wissen in 14 Fachbereichen, inklusive MINT, Geistes- und Sozialwissenschaften |
GPQA
Graduate-level Google-Proof Q&A Benchmark - testet Denken auf Promotionsniveau und fortgeschrittene Intelligenz |
AIME 2025
American Invitational Mathematics Examination 2025 - testet fortgeschrittene mathematische Problemlösungsfähigkeit | Mathe Artificial Analysis Math Index - kombinierter Score aus AIME, MATH-500 und Benchmarks für mathematisches Denken | Veröffentlichung Zeitpunkt der Veröffentlichung - neuere Modelle können mehr Fähigkeiten bieten | Vergleichen |
|---|---|---|---|---|---|---|---|
| #1 GPT-5.2 (xhigh) von OpenAI | $1.75 / $14.00 | 87.4% | 90.3% | 99.0% | 99.0 | 11. Dez. 2025 | |
| #2 GPT-5 Codex (high) von OpenAI | $1.25 / $10.00 | 86.5% | 83.7% | 98.7% | 98.7 | 23. Sept. 2025 | |
| #3 Gemini 3 Flash Preview (Reasoning) von Google | $0.50 / $3.00 | 89.0% | 89.8% | 97.0% | 97.0 | 17. Dez. 2025 | |
| #4 DeepSeek V3.2 Speciale von DeepSeek | k. A. / k. A. | 86.3% | 87.1% | 96.7% | 96.7 | 1. Dez. 2025 | |
| #5 GPT-5.2 (medium) von OpenAI | $1.75 / $14.00 | 85.9% | 86.4% | 96.7% | 96.7 | 11. Dez. 2025 | |
| #6 MiMo-V2-Flash (Reasoning) von Xiaomi | $0.10 / $0.30 | 84.3% | 84.6% | 96.3% | 96.3 | 16. Dez. 2025 | |
| #7 GPT-5.1 Codex (high) von OpenAI | $1.25 / $10.00 | 86.0% | 86.0% | 95.7% | 95.7 | 13. Nov. 2025 | |
| #8 Gemini 3 Pro Preview (high) von Google | $2.00 / $12.00 | 89.8% | 90.8% | 95.7% | 95.7 | 18. Nov. 2025 | |
| #9 GLM-4.7 (Reasoning) von Z AI | $0.60 / $2.20 | 85.6% | 85.9% | 95.0% | 95.0 | 22. Dez. 2025 | |
| #10 KAT-Coder-Pro V1 von KwaiKAT | $0.30 / $1.20 | 81.3% | 76.4% | 94.7% | 94.7 | 11. Nov. 2025 | |
| #11 Kimi K2 Thinking von Kimi | $0.60 / $2.50 | 84.8% | 83.8% | 94.7% | 94.7 | 6. Nov. 2025 | |
| #12 Nova 2.0 Lite (high) von Amazon | $0.30 / $2.50 | 81.8% | 81.1% | 94.3% | 94.3 | 29. Okt. 2025 | |
| #13 GPT-5 (high) von OpenAI | $1.25 / $10.00 | 87.1% | 85.4% | 94.3% | 94.3 | 7. Aug. 2025 | |
| #14 GPT-5.1 (high) von OpenAI | $1.25 / $10.00 | 87.0% | 87.3% | 94.0% | 94.0 | 13. Nov. 2025 | |
| #15 gpt-oss-120B (high) von OpenAI | $0.15 / $0.60 | 80.8% | 78.2% | 93.4% | 93.4 | 5. Aug. 2025 | |
| #16 Grok 4 von xAI | $3.00 / $15.00 | 86.6% | 87.7% | 92.7% | 92.7 | 10. Juli 2025 | |
| #17 DeepSeek V3.2 (Reasoning) von DeepSeek | $0.28 / $0.42 | 86.2% | 84.0% | 92.0% | 92.0 | 1. Dez. 2025 | |
| #18 GPT-5 (medium) von OpenAI | $1.25 / $10.00 | 86.7% | 84.2% | 91.7% | 91.7 | 7. Aug. 2025 | |
| #19 GPT-5.1 Codex mini (high) von OpenAI | $0.25 / $2.00 | 82.0% | 81.3% | 91.7% | 91.7 | 13. Nov. 2025 | |
| #20 Claude Opus 4.5 (Reasoning) von Anthropic | $5.00 / $25.00 | 89.5% | 86.6% | 91.3% | 91.3 | 24. Nov. 2025 | |
| #21 NVIDIA Nemotron 3 Nano 30B A3B (Reasoning) von NVIDIA | $0.06 / $0.24 | 79.4% | 75.7% | 91.0% | 91.0 | 15. Dez. 2025 | |
| #22 Qwen3 235B A22B 2507 (Reasoning) von Alibaba | $0.70 / $8.40 | 84.3% | 79.0% | 91.0% | 91.0 | 25. Juli 2025 | |
| #23 o4-mini (high) von OpenAI | $1.10 / $4.40 | 83.2% | 78.4% | 90.7% | 90.7 | 16. Apr. 2025 | |
| #24 GPT-5 mini (high) von OpenAI | $0.25 / $2.00 | 83.7% | 82.8% | 90.7% | 90.7 | 7. Aug. 2025 | |
| #25 K-EXAONE (Reasoning) von LG AI Research | k. A. / k. A. | 83.8% | 78.3% | 90.3% | 90.3 | 31. Dez. 2025 | |
| #26 Nova 2.0 Omni (medium) von Amazon | $0.30 / $2.50 | 80.9% | 76.0% | 89.7% | 89.7 | 26. Nov. 2025 | |
| #27 DeepSeek V3.1 (Reasoning) von DeepSeek | $0.59 / $1.69 | 85.1% | 77.9% | 89.7% | 89.7 | 21. Aug. 2025 | |
| #28 DeepSeek V3.1 Terminus (Reasoning) von DeepSeek | $1.64 / $2.75 | 85.1% | 79.2% | 89.7% | 89.7 | 22. Sept. 2025 | |
| #29 Grok 4 Fast (Reasoning) von xAI | $0.20 / $0.50 | 85.0% | 84.7% | 89.7% | 89.7 | 19. Sept. 2025 | |
| #30 gpt-oss-20B (high) von OpenAI | $0.06 / $0.20 | 74.8% | 68.8% | 89.3% | 89.3 | 5. Aug. 2025 | |
| #31 Grok 4.1 Fast (Reasoning) von xAI | $0.20 / $0.50 | 85.4% | 85.3% | 89.3% | 89.3 | 19. Nov. 2025 | |
| #32 Ring-1T von InclusionAI | k. A. / k. A. | 80.6% | 77.4% | 89.3% | 89.3 | 13. Okt. 2025 | |
| #33 Nova 2.0 Pro Preview (medium) von Amazon | $1.25 / $10.00 | 83.0% | 78.5% | 89.0% | 89.0 | 27. Nov. 2025 | |
| #34 Nova 2.0 Lite (medium) von Amazon | $0.30 / $2.50 | 81.3% | 76.8% | 88.7% | 88.7 | 29. Okt. 2025 | |
| #35 o3 von OpenAI | $2.00 / $8.00 | 85.3% | 82.7% | 88.3% | 88.3 | 16. Apr. 2025 | |
| #36 Qwen3 VL 235B A22B (Reasoning) von Alibaba | $0.70 / $8.40 | 83.6% | 77.2% | 88.3% | 88.3 | 23. Sept. 2025 | |
| #37 INTELLECT-3 von Prime Intellect | k. A. / k. A. | 82.2% | 76.1% | 88.0% | 88.0 | 27. Nov. 2025 | |
| #38 Apriel-v1.6-15B-Thinker von ServiceNow | k. A. / k. A. | 79.0% | 73.3% | 88.0% | 88.0 | 25. Nov. 2025 | |
| #39 Claude 4.5 Sonnet (Reasoning) von Anthropic | $3.00 / $15.00 | 87.5% | 83.4% | 88.0% | 88.0 | 29. Sept. 2025 | |
| #40 Gemini 2.5 Pro von Google | $1.25 / $10.00 | 86.2% | 84.4% | 87.7% | 87.7 | 5. Juni 2025 | |
| #41 DeepSeek V3.2 Exp (Reasoning) von DeepSeek | $0.28 / $0.42 | 85.0% | 79.7% | 87.7% | 87.7 | 29. Sept. 2025 | |
| #42 Apriel-v1.5-15B-Thinker von ServiceNow | k. A. / k. A. | 77.3% | 71.3% | 87.5% | 87.5 | 30. Sept. 2025 | |
| #43 Gemini 3 Pro Preview (low) von Google | $2.00 / $12.00 | 89.5% | 88.7% | 86.7% | 86.7 | 18. Nov. 2025 | |
| #44 GLM-4.6 (Reasoning) von Z AI | $0.57 / $2.20 | 82.9% | 78.0% | 86.0% | 86.0 | 30. Sept. 2025 | |
| #45 GLM-4.6V (Reasoning) von Z AI | $0.30 / $0.90 | 79.9% | 71.9% | 85.3% | 85.3 | 8. Dez. 2025 | |
| #46 ERNIE 5.0 Thinking Preview von Baidu | k. A. / k. A. | 83.0% | 77.7% | 85.0% | 85.0 | 13. Nov. 2025 | |
| #47 GPT-5 mini (medium) von OpenAI | $0.25 / $2.00 | 82.8% | 80.3% | 85.0% | 85.0 | 7. Aug. 2025 | |
| #48 Grok 3 mini Reasoning (high) von xAI | $0.30 / $0.50 | 82.8% | 79.1% | 84.7% | 84.7 | 19. Feb. 2025 | |
| #49 Qwen3 VL 32B (Reasoning) von Alibaba | $0.70 / $8.40 | 81.8% | 73.3% | 84.7% | 84.7 | 21. Okt. 2025 | |
| #50 Seed-OSS-36B-Instruct von ByteDance Seed | $0.21 / $0.57 | 81.5% | 72.6% | 84.7% | 84.7 | 20. Aug. 2025 | |
| #51 Qwen3 Next 80B A3B (Reasoning) von Alibaba | $0.50 / $6.00 | 82.4% | 75.9% | 84.3% | 84.3 | 11. Sept. 2025 | |
| #52 Claude 4.5 Haiku (Reasoning) von Anthropic | $1.00 / $5.00 | 76.0% | 67.2% | 83.7% | 83.7 | 15. Okt. 2025 | |
| #53 Ring-flash-2.0 von InclusionAI | $0.14 / $0.57 | 79.3% | 72.5% | 83.7% | 83.7 | 19. Sept. 2025 | |
| #54 GPT-5 nano (high) von OpenAI | $0.05 / $0.40 | 78.0% | 67.6% | 83.7% | 83.7 | 7. Aug. 2025 | |
| #55 GPT-5 (low) von OpenAI | $1.25 / $10.00 | 86.0% | 80.8% | 83.0% | 83.0 | 7. Aug. 2025 | |
| #56 MiniMax-M2.1 von MiniMax | $0.30 / $1.20 | 87.5% | 83.0% | 82.7% | 82.7 | 23. Dez. 2025 | |
| #57 Qwen3 4B 2507 (Reasoning) von Alibaba | k. A. / k. A. | 74.3% | 66.7% | 82.7% | 82.7 | 6. Aug. 2025 | |
| #58 Qwen3 Max Thinking (Preview) von Alibaba | $1.20 / $6.00 | 82.4% | 77.6% | 82.3% | 82.3 | 3. Nov. 2025 | |
| #59 Qwen3 VL 30B A3B (Reasoning) von Alibaba | $0.20 / $2.40 | 80.7% | 72.0% | 82.3% | 82.3 | 3. Okt. 2025 | |
| #60 Magistral Medium 1.2 von Mistral | $2.00 / $5.00 | 81.5% | 73.9% | 82.0% | 82.0 | 18. Sept. 2025 | |
| #61 Qwen3 235B A22B (Reasoning) von Alibaba | $0.70 / $8.40 | 82.8% | 70.0% | 82.0% | 82.0 | 28. Apr. 2025 | |
| #62 GLM-4.5-Air von Z AI | $0.20 / $1.10 | 81.5% | 73.3% | 80.7% | 80.7 | 28. Juli 2025 | |
| #63 Qwen3 Max von Alibaba | $1.20 / $6.00 | 84.1% | 76.4% | 80.7% | 80.7 | 23. Sept. 2025 | |
| #64 Magistral Small 1.2 von Mistral | $0.50 / $1.50 | 76.8% | 66.3% | 80.3% | 80.3 | 17. Sept. 2025 | |
| #65 Motif-2-12.7B-Reasoning von Motif Technologies | k. A. / k. A. | 79.6% | 69.5% | 80.3% | 80.3 | 4. Dez. 2025 | |
| #66 Claude 4.1 Opus (Reasoning) von Anthropic | $15.00 / $75.00 | 88.0% | 80.9% | 80.3% | 80.3 | 5. Aug. 2025 | |
| #67 Falcon-H1R-7B von TII UAE | k. A. / k. A. | 72.5% | 66.1% | 80.0% | 80.0 | 4. Jan. 2026 | |
| #68 EXAONE 4.0 32B (Reasoning) von LG AI Research | k. A. / k. A. | 81.8% | 73.9% | 80.0% | 80.0 | 15. Juli 2025 | |
| #69 Doubao Seed Code von ByteDance Seed | k. A. / k. A. | 85.4% | 76.4% | 79.3% | 79.3 | 11. Nov. 2025 | |
| #70 Mi:dm K 2.5 Pro Preview von Korea Telecom | k. A. / k. A. | 81.3% | 72.2% | 78.7% | 78.7 | 11. Dez. 2025 | |
| #71 K2-V2 (high) von MBZUAI Institute of Foundation Models | k. A. / k. A. | 78.6% | 68.1% | 78.3% | 78.3 | 5. Dez. 2025 | |
| #72 GPT-5 nano (medium) von OpenAI | $0.05 / $0.40 | 77.2% | 67.0% | 78.3% | 78.3 | 7. Aug. 2025 | |
| #73 Gemini 2.5 Flash Preview (Sep '25) (Reasoning) von Google | k. A. / k. A. | 84.2% | 79.3% | 78.3% | 78.3 | 25. Sept. 2025 | |
| #74 MiniMax-M2 von MiniMax | $0.30 / $1.20 | 82.0% | 77.7% | 78.3% | 78.3 | 26. Okt. 2025 | |
| #75 Olmo 3.1 32B Think von Allen Institute for AI | k. A. / k. A. | 76.3% | 59.1% | 77.3% | 77.3 | 12. Dez. 2025 | |
| #76 Llama Nemotron Super 49B v1.5 (Reasoning) von NVIDIA | $0.10 / $0.40 | 81.4% | 74.8% | 76.7% | 76.7 | 25. Juli 2025 | |
| #77 Mi:dm K 2.5 Pro von Korea Telecom | k. A. / k. A. | 80.9% | 70.1% | 76.7% | 76.7 | 11. Dez. 2025 | |
| #78 DeepSeek R1 0528 (May '25) von DeepSeek | $1.35 / $5.40 | 84.9% | 81.3% | 76.0% | 76.0 | 28. Mai 2025 | |
| #79 NVIDIA Nemotron Nano 12B v2 VL (Reasoning) von NVIDIA | $0.20 / $0.60 | 75.9% | 57.2% | 75.0% | 75.0 | 28. Okt. 2025 | |
| #80 Qwen3 Max (Preview) von Alibaba | $1.20 / $6.00 | 83.8% | 76.4% | 75.0% | 75.0 | 5. Sept. 2025 | |
| #81 Claude 4 Sonnet (Reasoning) von Anthropic | $3.00 / $15.00 | 84.2% | 77.7% | 74.3% | 74.3 | 22. Mai 2025 | |
| #82 Qwen3 Omni 30B A3B (Reasoning) von Alibaba | $0.25 / $0.97 | 79.2% | 72.6% | 74.0% | 74.0 | 22. Sept. 2025 | |
| #83 Olmo 3 32B Think von Allen Institute for AI | k. A. / k. A. | 75.9% | 61.0% | 73.7% | 73.7 | 20. Nov. 2025 | |
| #84 GLM-4.5 (Reasoning) von Z AI | $0.49 / $1.90 | 83.5% | 78.2% | 73.7% | 73.7 | 28. Juli 2025 | |
| #85 Gemini 2.5 Flash (Reasoning) von Google | $0.30 / $2.50 | 83.2% | 79.0% | 73.3% | 73.3 | 20. Mai 2025 | |
| #86 Claude 4 Opus (Reasoning) von Anthropic | $15.00 / $75.00 | 87.3% | 79.6% | 73.3% | 73.3 | 22. Mai 2025 | |
| #87 GLM-4.5V (Reasoning) von Z AI | $0.60 / $1.80 | 78.8% | 68.4% | 73.0% | 73.0 | 11. Aug. 2025 | |
| #88 Qwen3 32B (Reasoning) von Alibaba | $0.70 / $8.40 | 79.8% | 66.8% | 73.0% | 73.0 | 28. Apr. 2025 | |
| #89 Cogito v2.1 (Reasoning) von Deep Cogito | $1.25 / $1.25 | 84.9% | 76.8% | 72.7% | 72.7 | 18. Nov. 2025 | |
| #90 Qwen3 VL 30B A3B Instruct von Alibaba | $0.20 / $0.80 | 76.4% | 69.5% | 72.3% | 72.3 | 3. Okt. 2025 | |
| #91 Qwen3 30B A3B (Reasoning) von Alibaba | $0.20 / $2.40 | 77.7% | 61.6% | 72.3% | 72.3 | 28. Apr. 2025 | |
| #92 Qwen3 235B A22B 2507 Instruct von Alibaba | $0.70 / $2.80 | 82.8% | 75.3% | 71.7% | 71.7 | 21. Juli 2025 | |
| #93 Ling-1T von InclusionAI | k. A. / k. A. | 82.2% | 71.9% | 71.3% | 71.3 | 8. Okt. 2025 | |
| #94 Olmo 3 7B Think von Allen Institute for AI | k. A. / k. A. | 65.5% | 51.6% | 70.7% | 70.7 | 20. Nov. 2025 | |
| #95 Qwen3 VL 235B A22B Instruct von Alibaba | $0.70 / $2.80 | 82.3% | 71.2% | 70.7% | 70.7 | 23. Sept. 2025 | |
| #96 NVIDIA Nemotron Nano 9B V2 (Reasoning) von NVIDIA | $0.04 / $0.16 | 74.2% | 57.0% | 69.7% | 69.7 | 18. Aug. 2025 | |
| #97 Hermes 4 - Llama-3.1 405B (Reasoning) von Nous Research | $1.00 / $3.00 | 82.9% | 72.7% | 69.7% | 69.7 | 27. Aug. 2025 | |
| #98 Gemini 2.5 Flash-Lite Preview (Sep '25) (Reasoning) von Google | $0.10 / $0.40 | 80.8% | 70.9% | 68.7% | 68.7 | 8. Sept. 2025 | |
| #99 Hermes 4 - Llama-3.1 70B (Reasoning) von Nous Research | $0.13 / $0.40 | 81.1% | 69.9% | 68.7% | 68.7 | 27. Aug. 2025 | |
| #100 Qwen3 VL 32B Instruct von Alibaba | $0.70 / $2.80 | 79.1% | 67.1% | 68.3% | 68.3 | 21. Okt. 2025 |
Zeige 100 von 474 Modelle
Chat with 100+ AI Models in one App.
Use Claude, ChatGPT, Gemini alongside with EU-Hosted Models like Deepseek, GLM-5, Kimi K2.5 and many more.
Das KI-Modell-Leaderboard verstehen
Dieses umfassende KI-Modell-Leaderboard hilft Ihnen, zu vergleichen und auszuwählen die besten Large Language Models (LLMs) für Ihre Anforderungen. Wir erfassen standardisierte KI-Benchmarks, Token-Preise, Inference-Geschwindigkeit und Modellfähigkeiten bei allen großen KI-Anbietern wie OpenAI, Anthropic, Google, Meta, und DeepSeek.
Kern-KI-Benchmarks erklärt
Wichtige Kennzahlen
So wählen Sie das richtige KI-Modell für Ihren Use Case
Für Forschung & Analyse
Priorisieren Sie Modelle mit hohen MMLU-Pro- (70 %+) und GPQA-Werten (60 %+), wenn es um komplexe Denkaufgaben, wissenschaftliche Recherche und technische Dokumentation geht
Für Kostenoptimierung
Sortieren Sie nach Input-/Output-Preisen - kleinere Modelle liefern bei einfachen Aufgaben oft 80 % der Flaggschiff-Leistung zu 10 % der Kosten
Für Mathe & MINT
Filtern Sie nach Math-Index oder AIME-2025-Scores (50 %+) für quantitative Analysen, Engineering-Berechnungen und wissenschaftliche Anwendungen
Alle Benchmark-Scores und Preisdaten werden täglich von Artificial Analysis aktualisiert, um die neuesten Modellversionen und Fähigkeiten abzubilden. Nutzen Sie die Sortierfilter oben, um KI-Modelle nach Intelligenz, Kosten, Coding-Fähigkeit, Mathe-Leistung, Geschwindigkeit oder Veröffentlichungsdatum zu finden.
Häufig gestellte Fragen
Was ist MMLU-Pro und warum gilt es als Standard-Benchmark für KI-Intelligenz?
MMLU-Pro (Massive Multitask Language Understanding - Professional) ist der umfassendste KI-Benchmark und testet Modelle in 14 akademischen Fachbereichen, darunter Mathematik, Naturwissenschaften, Geschichte, Recht und Ethik. Die Werte reichen von 46 % (Grundkompetenz) bis 87 % (nahe Expertenniveau). Modelle über 75 % zeigen starke allgemeine Intelligenz für professionelle Anwendungen, während Werte unter 60 % auf Einschränkungen bei komplexen Denkaufgaben hindeuten.
Was misst GPQA und welche Modelle erzielen die höchsten Werte?
GPQA (Graduate-level Google-Proof Q&A) prüft Denken auf Promotionsniveau mit Fragen, die bewusst "Google-proof" sind - sie erfordern tiefes Verständnis statt bloßer Faktenrecherche. Spitzenmodelle wie GPT-5.1 (87,3 %), GPT-5 mini (82,8 %) und o3 (82,7 %) sind bei GPQA besonders stark und eignen sich für Forschung, technische Analysen und komplexe Problemlösung. Modelle unter 50 % GPQA haben oft Schwierigkeiten bei anspruchsvollem Denken und liefern eher oberflächliche Antworten.
Was ist AIME 2025 und wie bewertet es die mathematischen Fähigkeiten von KI?
AIME 2025 (American Invitational Mathematics Examination) ist ein Benchmark auf Wettbewerbsniveau, der fortgeschrittene Problemlösung, Algebra, Geometrie und Zahlentheorie testet. Werte über 80 % (wie GPT-5 Codex mit 98,7 % oder GPT-5.1 mit 94 %) zeigen außergewöhnliches mathematisches Denken für Engineering, Scientific Computing und quantitative Analysen. Modelle unter 50 % können bei mehrstufigen mathematischen Aufgaben Probleme haben oder benötigen eine explizite Aufschlüsselung.
Wie wird die Preisgestaltung von KI-Modellen berechnet und was gilt als kosteneffizient?
Die Preise von KI-Modellen werden pro 1 Million Tokens berechnet (etwa 750.000 Wörter). Input-Preise betreffen den Text, den Sie senden, Output-Preise die generierten Antworten. Günstige Modelle wie Llama 3.3 70B kosten $0.54/$0.71 pro Million Tokens, Mid-Tier-Modelle wie GPT-5 nano $0.05/$0.40, Premium-Modelle wie GPT-5 $1.25/$10. Bei typischen Anwendungen mit einem Input-/Output-Verhältnis von 3:1 können Budget-Modelle 10- bis 20-mal günstiger sein und dennoch 70-80 % der Leistung liefern.
Welche KI-Modelle eignen sich am besten für Coding und Programmierung?
Sortieren Sie nach Coding Index um die besten Programmiermodelle zu sehen. Unser Coding Index kombiniert LiveCodeBench, SciCode und Coding-Benchmarks. Zu den Top-Performern gehören GPT-5.1 (57,5), GPT-5 mini (51,4) und GPT-5 Codex (53,5). Diese Modelle sind stark bei Codegenerierung, Debugging, Refactoring und der Erklärung komplexer Algorithmen. Für kostenbewusste Entwickler bieten Modelle mit 40+ Punkten im Coding Index ein sehr gutes Preis-Leistungs-Verhältnis für Routineaufgaben.
Wie oft werden KI-Modell-Benchmarks und Rankings aktualisiert?
Unser Leaderboard wird täglich mit der Artificial Analysis API synchronisiert, damit Benchmark-Scores (MMLU-Pro, GPQA, AIME 2025), Preise und Inference-Geschwindigkeit die neuesten Modellversionen widerspiegeln. Neue Modell-Releases erscheinen sofort unter der Sortierung "Neueste". Benchmark-Scores können sich ändern, wenn Anbieter aktualisierte Versionen veröffentlichen - zum Beispiel erreichte GPT-5.1 (veröffentlicht im November 2025) 69,7 Intelligenzpunkte gegenüber 68,5 bei GPT-5 aus August 2025.
Welche Inference-Geschwindigkeit (Tokens/Sekunde) brauche ich für meine Anwendung?
Die Inference-Geschwindigkeit bestimmt, wie schnell Modelle Antworten erzeugen. Für Echtzeit-Chatbots und interaktive Anwendungen sind 100+ Tokens/Sekunde sinnvoll (z. B. gpt-oss-120B mit 340 tok/s). Für Hintergrundverarbeitung und Batch-Jobs reichen 50-100 tok/s. Premium-Reasoning-Modelle wie GPT-5 (103 tok/s) balancieren Geschwindigkeit und Fähigkeiten. Wichtig: Höhere Geschwindigkeit bedeutet nicht automatisch bessere Qualität - langsamere Modelle liefern oft durchdachtere, detailliertere Antworten.
Kann ich diese KI-Modelle kostenlos testen, bevor ich mich entscheide?
Ja! Probieren Sie unsere kostenlose KI-Chatoberfläche aus, um verschiedene Modelle sofort ohne Account zu testen. Viele Anbieter haben ebenfalls kostenlose Stufen: OpenAI (ChatGPT mit Tageslimits), Anthropic (Claude mit Nutzungslimits), Google (Gemini Free Tier) und Open-Source-Modelle wie Llama 3.3. Vergleichen Sie die Leistung für Ihren konkreten Use Case, bevor Sie auf bezahlte Pläne wechseln.