📊 Classements des modèles IA
🧠 Top 100 des meilleurs Llm
Dernière mise à jour: il y a 5 heures
| Modèle | Créateur | Quality Index | Speed (tok/s) | Prix ($/1M) |
|---|---|---|---|---|
| GPT-5.4 (xhigh) |
OpenAI |
57.2 |
75.0 |
$5.63 Standard |
| Gemini 3.1 Pro Preview |
|
57.2 |
116.2 |
$4.50 Standard |
| GPT-5.3 Codex (xhigh) |
OpenAI |
54.0 |
64.8 |
$4.81 Standard |
| Claude Opus 4.6 (Adaptive Reasoning, Max Effort) |
Anthropic |
53.0 |
47.0 |
$10.00 Premium |
| Claude Sonnet 4.6 (Adaptive Reasoning, Max Effort) |
Anthropic |
51.7 |
54.2 |
$6.00 Standard |
| GPT-5.2 (xhigh) |
OpenAI |
51.3 |
70.0 |
$4.81 Standard |
| GLM-5 (Reasoning) |
Z AI |
49.8 |
57.3 |
$1.55 Budget |
| Claude Opus 4.5 (Reasoning) |
Anthropic |
49.7 |
51.2 |
$10.00 Premium |
| MiniMax-M2.7 |
MiniMax |
49.6 |
39.9 |
$0.53 Budget |
| MiMo-V2-Pro |
Xiaomi |
49.2 |
0.0 |
$1.50 Budget |
| GPT-5.2 Codex (xhigh) |
OpenAI |
49.0 |
99.4 |
$4.81 Standard |
| Grok 4.20 Beta 0309 (Reasoning) |
xAI |
48.5 |
247.6 |
$3.00 Standard |
| Gemini 3 Pro Preview (high) |
|
48.4 |
119.5 |
$4.50 Standard |
| GPT-5.4 mini (xhigh) |
OpenAI |
48.1 |
184.7 |
$1.69 Budget |
| GPT-5.1 (high) |
OpenAI |
47.7 |
100.7 |
$3.44 Standard |
| Kimi K2.5 (Reasoning) |
Kimi |
46.8 |
33.6 |
$1.20 Budget |
| GLM-5-Turbo |
Z AI |
46.8 |
0.0 |
$0.00 Budget |
| GPT-5.2 (medium) |
OpenAI |
46.6 |
0.0 |
$4.81 Standard |
| Claude Opus 4.6 (Non-reasoning, High Effort) |
Anthropic |
46.5 |
44.8 |
$10.00 Premium |
| Gemini 3 Flash Preview (Reasoning) |
|
46.4 |
189.4 |
$1.13 Budget |
| Qwen3.5 397B A17B (Reasoning) |
Alibaba |
45.0 |
56.0 |
$1.35 Budget |
| GPT-5 (high) |
OpenAI |
44.6 |
95.7 |
$3.44 Standard |
| GPT-5 Codex (high) |
OpenAI |
44.6 |
164.2 |
$3.44 Standard |
| GPT-5.4 nano (xhigh) |
OpenAI |
44.4 |
199.7 |
$0.46 Budget |
| Claude Sonnet 4.6 (Non-reasoning, High Effort) |
Anthropic |
44.4 |
46.5 |
$6.00 Standard |
| KAT Coder Pro V2 |
KwaiKAT |
43.8 |
91.9 |
$0.53 Budget |
| MiMo-V2-Omni |
Xiaomi |
43.4 |
0.0 |
$0.00 Budget |
| GPT-5.1 Codex (high) |
OpenAI |
43.1 |
158.5 |
$3.44 Standard |
| Claude Opus 4.5 (Non-reasoning) |
Anthropic |
43.1 |
50.6 |
$10.00 Premium |
| Claude 4.5 Sonnet (Reasoning) |
Anthropic |
43.0 |
45.9 |
$6.00 Standard |
| GLM 5V Turbo (Reasoning) |
Z AI |
42.9 |
0.0 |
$0.00 Budget |
| Claude Sonnet 4.6 (Non-reasoning, Low Effort) |
Anthropic |
42.6 |
46.0 |
$6.00 Standard |
| Qwen3.5 27B (Reasoning) |
Alibaba |
42.1 |
90.0 |
$0.83 Budget |
| GLM-4.7 (Reasoning) |
Z AI |
42.1 |
73.6 |
$1.00 Budget |
| GPT-5 (medium) |
OpenAI |
42.0 |
85.6 |
$3.44 Standard |
| Claude 4.1 Opus (Reasoning) |
Anthropic |
42.0 |
35.0 |
$30.00 Premium |
| MiniMax-M2.5 |
MiniMax |
41.9 |
59.4 |
$0.53 Budget |
| DeepSeek V3.2 (Reasoning) |
DeepSeek |
41.7 |
36.7 |
$0.32 Budget |
| Qwen3.5 122B A10B (Reasoning) |
Alibaba |
41.6 |
131.4 |
$1.10 Budget |
| MiMo-V2-Flash (Feb 2026) |
Xiaomi |
41.5 |
123.3 |
$0.15 Budget |
| Grok 4 |
xAI |
41.5 |
48.4 |
$6.00 Standard |
| Gemini 3 Pro Preview (low) |
|
41.3 |
0.0 |
$4.50 Standard |
| GPT-5 mini (high) |
OpenAI |
41.2 |
76.7 |
$0.69 Budget |
| Kimi K2 Thinking |
Kimi |
40.9 |
100.1 |
$1.08 Budget |
| o3-pro |
OpenAI |
40.7 |
20.8 |
$35.00 Premium |
| GLM-5 (Non-reasoning) |
Z AI |
40.6 |
58.2 |
$1.55 Budget |
| Qwen3.5 397B A17B (Non-reasoning) |
Alibaba |
40.1 |
50.9 |
$1.35 Budget |
| Qwen3 Max Thinking |
Alibaba |
39.9 |
36.4 |
$2.40 Standard |
| MiniMax-M2.1 |
MiniMax |
39.4 |
61.8 |
$0.53 Budget |
| GPT-5 (low) |
OpenAI |
39.2 |
78.4 |
$3.44 Standard |
| MiMo-V2-Flash (Reasoning) |
Xiaomi |
39.2 |
124.5 |
$0.15 Budget |
| Claude 4 Opus (Reasoning) |
Anthropic |
39.0 |
36.8 |
$30.00 Premium |
| GPT-5 mini (medium) |
OpenAI |
38.9 |
81.6 |
$0.69 Budget |
| Claude 4 Sonnet (Reasoning) |
Anthropic |
38.7 |
44.9 |
$6.00 Standard |
| Qwen3.5 Omni Plus |
Alibaba |
38.6 |
50.3 |
$1.50 Budget |
| GPT-5.1 Codex mini (high) |
OpenAI |
38.6 |
190.1 |
$0.69 Budget |
| Grok 4.1 Fast (Reasoning) |
xAI |
38.6 |
126.5 |
$0.28 Budget |
| o3 |
OpenAI |
38.4 |
86.5 |
$3.50 Standard |
| GPT-5.4 nano (medium) |
OpenAI |
38.1 |
195.7 |
$0.46 Budget |
| Step 3.5 Flash |
StepFun |
37.8 |
84.0 |
$0.15 Budget |
| GPT-5.4 mini (medium) |
OpenAI |
37.7 |
182.8 |
$1.69 Budget |
| Kimi K2.5 (Non-reasoning) |
Kimi |
37.3 |
32.4 |
$1.20 Budget |
| Qwen3.5 27B (Non-reasoning) |
Alibaba |
37.2 |
87.2 |
$0.83 Budget |
| Claude 4.5 Haiku (Reasoning) |
Anthropic |
37.1 |
115.9 |
$2.00 Standard |
| Qwen3.5 35B A3B (Reasoning) |
Alibaba |
37.1 |
119.2 |
$0.69 Budget |
| Claude 4.5 Sonnet (Non-reasoning) |
Anthropic |
37.1 |
45.4 |
$6.00 Standard |
| MiniMax-M2 |
MiniMax |
36.1 |
59.7 |
$0.53 Budget |
| NVIDIA Nemotron 3 Super 120B A12B (Reasoning) |
NVIDIA |
36.0 |
156.1 |
$0.41 Budget |
| KAT-Coder-Pro V1 |
KwaiKAT |
36.0 |
99.1 |
$0.53 Budget |
| Claude 4.1 Opus (Non-reasoning) |
Anthropic |
36.0 |
33.4 |
$30.00 Premium |
| Qwen3.5 122B A10B (Non-reasoning) |
Alibaba |
35.9 |
136.1 |
$1.10 Budget |
| Nova 2.0 Pro Preview (medium) |
Amazon |
35.7 |
125.1 |
$3.44 Standard |
| GPT-5.4 (Non-reasoning) |
OpenAI |
35.4 |
59.1 |
$5.63 Standard |
| Grok 4 Fast (Reasoning) |
xAI |
35.1 |
146.7 |
$0.28 Budget |
| Gemini 3 Flash Preview (Non-reasoning) |
|
35.0 |
168.0 |
$1.13 Budget |
| Claude 3.7 Sonnet (Reasoning) |
Anthropic |
34.7 |
0.0 |
$6.00 Standard |
| Gemini 2.5 Pro |
|
34.6 |
117.3 |
$3.44 Standard |
| GLM-4.7 (Non-reasoning) |
Z AI |
34.2 |
75.7 |
$0.94 Budget |
| DeepSeek V3.1 Terminus (Reasoning) |
DeepSeek |
33.9 |
0.0 |
$0.80 Budget |
| GPT-5.2 (Non-reasoning) |
OpenAI |
33.6 |
66.2 |
$4.81 Standard |
| Gemini 3.1 Flash-Lite Preview |
|
33.5 |
196.4 |
$0.56 Budget |
| Doubao Seed Code |
ByteDance Seed |
33.5 |
0.0 |
$0.00 Budget |
| gpt-oss-120B (high) |
OpenAI |
33.3 |
227.9 |
$0.26 Budget |
| o4-mini (high) |
OpenAI |
33.1 |
126.9 |
$1.93 Budget |
| Claude 4 Sonnet (Non-reasoning) |
Anthropic |
33.0 |
45.6 |
$6.00 Standard |
| Claude 4 Opus (Non-reasoning) |
Anthropic |
33.0 |
34.3 |
$30.00 Premium |
| DeepSeek V3.2 Exp (Reasoning) |
DeepSeek |
32.9 |
36.9 |
$0.32 Budget |
| Mercury 2 |
Inception |
32.8 |
735.8 |
$0.38 Budget |
| GLM-4.6 (Reasoning) |
Z AI |
32.5 |
64.6 |
$0.98 Budget |
| Qwen3 Max Thinking (Preview) |
Alibaba |
32.5 |
41.9 |
$2.40 Standard |
| Qwen3.5 9B (Reasoning) |
Alibaba |
32.4 |
169.1 |
$0.10 Budget |
| DeepSeek V3.2 (Non-reasoning) |
DeepSeek |
32.1 |
38.1 |
$0.32 Budget |
| Grok 3 mini Reasoning (high) |
xAI |
32.1 |
197.2 |
$0.35 Budget |
| K-EXAONE (Reasoning) |
LG AI Research |
32.1 |
0.0 |
$0.00 Budget |
| Nova 2.0 Pro Preview (low) |
Amazon |
31.9 |
121.6 |
$3.44 Standard |
| Qwen3 Max |
Alibaba |
31.4 |
32.8 |
$2.40 Standard |
| Claude 4.5 Haiku (Non-reasoning) |
Anthropic |
31.1 |
98.7 |
$2.00 Standard |
| Gemini 2.5 Flash Preview (Sep '25) (Reasoning) |
|
31.1 |
0.0 |
$0.00 Budget |
| Kimi K2 0905 |
Kimi |
30.9 |
39.8 |
$1.14 Budget |
| o1 |
OpenAI |
30.8 |
107.6 |
$26.25 Premium |
🎬 Meilleurs modèles Text-to-Video
Dernière mise à jour: il y a 5 heures
| Rang | Modèle | Créateur | ELO Rating |
|---|---|---|---|
| #1 | Dreamina Seedance 2.0 720p |
ByteDance Seed |
1,273 |
| #2 | SkyReels V4 |
Skywork AI |
1,245 |
| #3 | PixVerse V6 |
PixVerse |
1,241 |
| #4 | Kling 3.0 1080p (Pro) |
KlingAI |
1,241 |
| #5 | Kling 3.0 Omni 1080p (Pro) |
KlingAI |
1,231 |
📹 Meilleurs modèles Image-to-Video
Dernière mise à jour: il y a 5 heures
| Rang | Modèle | Créateur | ELO Rating |
|---|---|---|---|
| #1 | Dreamina Seedance 2.0 720p |
ByteDance Seed |
1,356 |
| #2 | PixVerse V6 |
PixVerse |
1,344 |
| #3 | grok-imagine-video |
xAI |
1,334 |
| #4 | GenFlare 2.0 |
Baidu |
1,326 |
| #5 | Kling 3.0 Omni 1080p (Pro) |
KlingAI |
1,298 |
🎙️ Meilleurs modèles Text-to-Speech
Dernière mise à jour: il y a 5 heures
| Rang | Modèle | Créateur | ELO Rating |
|---|---|---|---|
| #1 | Inworld TTS 1.5 Max |
Inworld |
1,231 |
| #2 | Eleven v3 |
ElevenLabs |
1,197 |
| #3 | Inworld TTS 1.5 Mini |
Inworld |
1,183 |
| #4 | Inworld TTS 1 Max |
Inworld |
1,181 |
| #5 | Speech 2.8 HD |
MiniMax |
1,174 |
✏️ Meilleurs modèles Image Editing
Dernière mise à jour: il y a 5 heures
| Rang | Modèle | Créateur | ELO Rating |
|---|---|---|---|
| #1 | Riverflow 2.0 |
Sourceful |
1,283 |
| #2 | GPT Image 1.5 (high) |
OpenAI |
1,271 |
| #3 | Nano Banana Pro (Gemini 3 Pro Image) |
|
1,249 |
| #4 | Nano Banana 2 (Gemini 3.1 Flash Image Preview) |
|
1,245 |
| #5 | grok-imagine-image |
xAI |
1,225 |
❓ Pourquoi ce classement ?
Face à l’explosion du nombre de modèles d’IA (GPT, Claude, Gemini, Llama, Mistral…),
il devient difficile de s’y retrouver. Ce classement compare plus de 300 modèles
des principaux acteurs du marché sur plusieurs dimensions clés :
🎯 Qualité
Performance sur des benchmarks académiques reconnus (MMLU Pro, GPQA, Math-500)
⚡ Vitesse
Rapidité de génération mesurée en tokens par seconde
💰 Prix
Coût par million de tokens pour optimiser votre budget
💻 Coding
Capacités de programmation et d’assistance au développement
🔬 Méthodologie
Source des données
Les données proviennent de Artificial Analysis,
une plateforme indépendante qui réalise des tests automatisés sur tous les modèles LLM disponibles publiquement.
Notre plugin synchronise automatiquement ces données pour vous garantir un classement toujours à jour.
Critères d’évaluation
Intelligence Index (0-100)
Score composite qui agrège plusieurs benchmarks académiques de référence :
- MMLU Pro : Questions à choix multiples couvrant 57 domaines de connaissances
- GPQA : Questions de niveau doctorat en sciences
- Math-500 : Problèmes mathématiques avancés
Vitesse (tokens/seconde)
Vitesse de génération mesurée en conditions réelles via les API officielles.
Plus le score est élevé, plus le modèle génère rapidement du texte (crucial pour les applications temps réel).
Prix ($/1M tokens)
Tarification “blended” calculée avec un ratio 3:1 (3 tokens en entrée pour 1 token en sortie),
représentant un usage typique. Les prix évoluent régulièrement avec la compétition du marché.
📖 Comment lire ce tableau ?
🎯 Intelligence Index
Score global de performance intellectuelle. Un score de 50+ indique un modèle “frontier” capable de raisonnement avancé.
- 55+ : Excellence (GPT-5.4, Claude Opus 4.6)
- 50-55 : Très performant
- 40-50 : Performant
- < 40 : Basique
⚡ Speed (tokens/s)
Vitesse de génération. Important pour les applications nécessitant des réponses rapides (chatbots, assistance).
- > 100 tok/s : Très rapide
- 50-100 tok/s : Rapide
- 20-50 tok/s : Moyen
- < 20 tok/s : Lent
💰 Prix ($/1M tokens)
Coût par million de tokens. Les prix ont fortement baissé grâce à la compétition.
- Gratuit : $0 (modèles open-source)
- Budget : < $2/1M (GPT-5.4 mini, Gemini 3 Flash)
- Standard : $2-10/1M (GPT-5.4, Claude Sonnet 4.6)
- Premium : > $10/1M (Claude Opus)
🎨 Badges de prix
Des badges colorés indiquent rapidement la catégorie de prix :
- 🟢 Budget : Excellent rapport qualité/prix
- 🔵 Standard : Équilibre performance/coût
- 🟡 Premium : Qualité maximale
💡 Quel modèle choisir selon votre besoin ?
Consultez notre comparatif detaille ChatGPT vs Claude vs Gemini vs Mistral pour une analyse approfondie. Voir aussi notre selection des 15 meilleures IA gratuites en 2026.
💻 Développement / Code
Pour de l’assistance au code, privilégiez les modèles avec un fort score Coding :
Claude Sonnet 4.6, GPT-5.3 Codex, KAT Coder Pro V2.
Ces modèles excellent en génération de code, debugging et explication technique.
✍️ Rédaction / Contenu
Pour créer du contenu, optez pour un bon équilibre qualité/prix :
GPT-5.4 mini, Gemini 3 Flash, Claude 4.5 Haiku.
Parfaits pour articles, emails, descriptions produits à volume élevé.
🔬 Analyse / Recherche
Pour du raisonnement complexe, choisissez les modèles “frontier” (Quality Index > 50) :
GPT-5.4, Claude Opus 4.6, Gemini 3.1 Pro.
Idéaux pour analyse de données, synthèse de recherche, résolution de problèmes.
💸 Usage intensif / Budget
Pour un volume élevé avec budget limité, les modèles open-source ou très abordables :
DeepSeek V3.2, Qwen3.5, MiMo-V2-Flash.
Excellent rapport qualité/prix pour applications de production.
📰 Tendances actuelles du marché LLM
-
Guerre des prix : Les tarifs ont été divisés par 10 en 3 ans grâce à la compétition
entre OpenAI, Anthropic, Google et Meta. -
Explosion des performances : Les modèles récents (2025-2026) dépassent désormais
les humains sur de nombreux benchmarks académiques. -
Spécialisation : Émergence de modèles optimisés pour des tâches spécifiques
(code, maths, langues) plutôt que généralistes. -
Open-source en hausse : Meta (Llama), Alibaba (Qwen3.5), DeepSeek et Xiaomi (MiMo) proposent des modèles
gratuits de niveau quasi-professionnel. -
Modèles de raisonnement : Nouvelle génération capable de “réfléchir” étape par étape
(GPT-5 reasoning, Claude Adaptive Reasoning, DeepSeek V3.2).
