📊 Classements des modèles IA
🧠 Top 100 des meilleurs Llm
| Modèle | Créateur | Quality Index | Speed (tok/s) | Prix ($/1M) |
|---|---|---|---|---|
| GPT-5.1 (high) |
| 69.7 | 127.1 | $3.44 Standard |
| GPT-5 (high) |
| 68.5 | 98.4 | $3.44 Standard |
| GPT-5 Codex (high) |
| 68.5 | 154.6 | $3.44 Standard |
| Kimi K2 Thinking |
| 67.0 | 77.7 | $1.08 Budget |
| GPT-5 (medium) |
| 66.4 | 114.9 | $3.44 Standard |
| o3 |
| 65.5 | 171.9 | $3.50 Standard |
| Grok 4 |
| 65.3 | 36.4 | $6.00 Standard |
| o3-pro |
| 65.3 | 30.7 | $35.00 Premium |
| GPT-5 mini (high) |
| 64.3 | 72.3 | $0.69 Budget |
| Claude 4.5 Sonnet (Reasoning) |
| 62.7 | 67.4 | $6.00 Standard |
| GPT-5 (low) |
| 61.8 | 112.3 | $3.44 Standard |
| MiniMax-M2 |
| 61.4 | 90.5 | $0.53 Budget |
| GPT-5 mini (medium) |
| 60.8 | 71.4 | $0.69 Budget |
| gpt-oss-120B (high) |
| 60.5 | 341.0 | $0.26 Budget |
| Grok 4 Fast (Reasoning) |
| 60.3 | 192.1 | $0.28 Budget |
| Gemini 2.5 Pro |
| 59.6 | 48.2 | $3.44 Standard |
| o4-mini (high) |
| 59.6 | 117.3 | $1.93 Budget |
| Claude 4.1 Opus (Reasoning) |
| 59.3 | 44.5 | $30.00 Premium |
| DeepSeek V3.1 Terminus (Reasoning) |
| 57.7 | 0.0 | $0.80 Budget |
| Qwen3 235B A22B 2507 (Reasoning) |
| 57.5 | 88.3 | $2.63 Standard |
| Grok 3 mini Reasoning (high) |
| 57.1 | 112.6 | $0.35 Budget |
| DeepSeek V3.2 Exp (Reasoning) |
| 56.9 | 28.3 | $0.32 Budget |
| Claude 4 Sonnet (Reasoning) |
| 56.5 | 70.5 | $6.00 Standard |
| GLM-4.6 (Reasoning) |
| 56.0 | 111.1 | $0.99 Budget |
| Qwen3 Max Thinking |
| 55.8 | 36.9 | $2.40 Standard |
| Qwen3 Max |
| 55.1 | 29.4 | $2.40 Standard |
| Claude 4.5 Haiku (Reasoning) |
| 54.6 | 75.1 | $2.00 Standard |
| Gemini 2.5 Flash Preview (Sep '25) (Reasoning) |
| 54.4 | 156.8 | $0.85 Budget |
| Qwen3 VL 235B A22B (Reasoning) |
| 54.4 | 44.4 | $2.63 Standard |
| Qwen3 Next 80B A3B (Reasoning) |
| 54.3 | 169.8 | $1.88 Budget |
| Claude 4 Opus (Reasoning) |
| 54.2 | 41.2 | $30.00 Premium |
| Gemini 2.5 Pro Preview (Mar' 25) |
| 54.1 | 44.4 | $3.44 Standard |
| DeepSeek V3.1 (Reasoning) |
| 54.0 | 0.0 | $0.65 Budget |
| Gemini 2.5 Pro Preview (May' 25) |
| 53.2 | 46.1 | $3.44 Standard |
| gpt-oss-20B (high) |
| 52.4 | 256.2 | $0.09 Budget |
| Magistral Medium 1.2 |
| 52.0 | 93.3 | $2.75 Standard |
| DeepSeek R1 0528 (May '25) |
| 52.0 | 0.0 | $2.36 Standard |
| Qwen3 VL 32B (Reasoning) |
| 51.9 | 51.3 | $2.63 Standard |
| Apriel-v1.5-15B-Thinker |
| 51.6 | 148.7 | $0.00 Budget |
| Seed-OSS-36B-Instruct |
| 51.6 | 29.2 | $0.30 Budget |
| GLM-4.5 (Reasoning) |
| 51.3 | 44.1 | $0.98 Budget |
| Gemini 2.5 Flash (Reasoning) |
| 51.2 | 263.5 | $0.85 Budget |
| GPT-5 nano (high) |
| 51.0 | 165.3 | $0.14 Budget |
| o3-mini (high) |
| 50.8 | 156.3 | $1.93 Budget |
| Kimi K2 0905 |
| 50.4 | 54.0 | $1.20 Budget |
| Claude 3.7 Sonnet (Reasoning) |
| 49.9 | 71.6 | $6.00 Standard |
| Claude 4.5 Sonnet (Non-reasoning) |
| 49.6 | 72.4 | $6.00 Standard |
| GPT-5 nano (medium) |
| 49.3 | 157.8 | $0.14 Budget |
| GLM-4.5-Air |
| 48.8 | 93.9 | $0.43 Budget |
| Grok Code Fast 1 |
| 48.6 | 239.6 | $0.53 Budget |
| Qwen3 Max (Preview) |
| 48.5 | 32.7 | $2.40 Standard |
| o3-mini |
| 48.1 | 141.4 | $1.93 Budget |
| Kimi K2 |
| 48.1 | 36.4 | $1.08 Budget |
| o1-pro |
| 48.0 | 0.0 | $262.50 Premium |
| Gemini 2.5 Flash-Lite Preview (Sep '25) (Reasoning) |
| 47.9 | 673.8 | $0.18 Budget |
| gpt-oss-120B (low) |
| 47.5 | 339.5 | $0.26 Budget |
| o1 |
| 47.2 | 154.0 | $26.25 Premium |
| Gemini 2.5 Flash Preview (Sep '25) (Non-reasoning) |
| 46.7 | 225.0 | $0.85 Budget |
| Qwen3 30B A3B 2507 (Reasoning) |
| 46.4 | 177.6 | $0.75 Budget |
| DeepSeek V3.2 Exp (Non-reasoning) |
| 46.3 | 25.5 | $0.32 Budget |
| Sonar Reasoning Pro |
| 46.3 | 0.0 | $0.00 Budget |
| MiniMax M1 80k |
| 46.2 | 0.0 | $0.83 Budget |
| Gemini 2.5 Flash Preview (Reasoning) |
| 45.8 | 0.0 | $0.00 Budget |
| DeepSeek V3.1 Terminus (Non-reasoning) |
| 45.7 | 0.0 | $0.80 Budget |
| Qwen3 235B A22B 2507 Instruct |
| 45.3 | 43.0 | $1.23 Budget |
| Qwen3 VL 30B A3B (Reasoning) |
| 45.3 | 106.8 | $0.75 Budget |
| Grok 3 |
| 45.3 | 28.0 | $6.00 Standard |
| Llama Nemotron Super 49B v1.5 (Reasoning) |
| 45.2 | 77.5 | $0.18 Budget |
| o1-preview |
| 44.9 | 0.0 | $28.88 Premium |
| Qwen3 Next 80B A3B Instruct |
| 44.8 | 163.6 | $0.88 Budget |
| Ling-1T |
| 44.8 | 15.9 | $1.00 Budget |
| DeepSeek V3.1 (Non-reasoning) |
| 44.8 | 0.0 | $0.84 Budget |
| GLM-4.6 (Non-reasoning) |
| 44.7 | 41.6 | $0.99 Budget |
| Claude 4.1 Opus (Non-reasoning) |
| 44.6 | 39.8 | $30.00 Premium |
| Claude 4 Sonnet (Non-reasoning) |
| 44.4 | 77.0 | $6.00 Standard |
| gpt-oss-20B (low) |
| 44.3 | 256.4 | $0.09 Budget |
| Qwen3 VL 235B A22B Instruct |
| 44.1 | 37.4 | $1.23 Budget |
| DeepSeek R1 (Jan '25) |
| 43.8 | 0.0 | $2.36 Standard |
| GPT-5 (minimal) |
| 43.5 | 71.4 | $3.44 Standard |
| Qwen3 4B 2507 (Reasoning) |
| 43.4 | 0.0 | $0.00 Budget |
| GPT-4.1 |
| 43.4 | 91.1 | $3.50 Standard |
| Magistral Small 1.2 |
| 43.0 | 196.5 | $0.75 Budget |
| GPT-5.1 (Non-reasoning) |
| 42.9 | 83.7 | $3.44 Standard |
| EXAONE 4.0 32B (Reasoning) |
| 42.6 | 94.1 | $0.70 Budget |
| GPT-4.1 mini |
| 42.5 | 76.9 | $0.70 Budget |
| Qwen3 Coder 480B A35B Instruct |
| 42.3 | 40.7 | $3.00 Standard |
| Claude 4 Opus (Non-reasoning) |
| 42.3 | 39.5 | $30.00 Premium |
| GPT-5 (ChatGPT) |
| 41.8 | 105.5 | $3.44 Standard |
| Ring-1T |
| 41.8 | 12.8 | $1.00 Budget |
| Claude 4.5 Haiku (Non-reasoning) |
| 41.7 | 107.2 | $2.00 Standard |
| Qwen3 235B A22B (Reasoning) |
| 41.7 | 54.3 | $2.63 Standard |
| GPT-5 mini (minimal) |
| 41.6 | 69.8 | $0.69 Budget |
| Gemini 2.5 Flash-Lite Preview (Sep '25) (Non-reasoning) |
| 41.6 | 421.4 | $0.18 Budget |
| Hermes 4 - Llama-3.1 405B (Reasoning) |
| 41.6 | 36.0 | $1.50 Budget |
| Grok 3 Reasoning Beta |
| 41.4 | 0.0 | $0.00 Budget |
| DeepSeek V3 0324 |
| 41.3 | 0.0 | $1.25 Budget |
| Claude 3.7 Sonnet (Non-reasoning) |
| 41.1 | 55.8 | $6.00 Standard |
| Qwen3 VL 32B Instruct |
| 41.0 | 46.8 | $1.23 Budget |
| Gemini 2.5 Flash (Non-reasoning) |
| 40.4 | 214.8 | $0.85 Budget |
| Gemini 2.5 Flash-Lite (Reasoning) |
| 40.1 | 512.3 | $0.18 Budget |
🎬 Meilleurs modèles Text-to-Video
| Rang | Modèle | Créateur | ELO Rating |
|---|---|---|---|
| #1 | Veo 3 Preview (No Audio) |
| 1,238 |
| #2 | Kling 2.5 Turbo 1080p |
| 1,232 |
| #3 | Veo 3 (No Audio) |
| 1,227 |
| #4 | Veo 3.1 Preview (No Audio) |
| 1,224 |
| #5 | Veo 3.1 Fast Preview (No Audio) |
| 1,221 |
📹 Meilleurs modèles Image-to-Video
| Rang | Modèle | Créateur | ELO Rating |
|---|---|---|---|
| #1 | Kling 2.5 Turbo 1080p |
| 1,318 |
| #2 | Avenger 0.5 Pro |
| 1,314 |
| #3 | Hailuo 02 0616 |
| 1,313 |
| #4 | Veo 3.1 Fast Preview (No Audio) |
| 1,312 |
| #5 | Veo 3.1 Preview (No Audio) |
| 1,291 |
🎙️ Meilleurs modèles Text-to-Speech
| Rang | Modèle | Créateur | ELO Rating |
|---|---|---|---|
| #1 | Inworld TTS 1 Max |
| 1,223 |
| #2 | Speech-02-HD |
| 1,130 |
| #3 | Speech-02-Turbo |
| 1,121 |
| #4 | TTS-1 |
| 1,115 |
| #5 | Multilingual v2 |
| 1,114 |
✏️ Meilleurs modèles Image Editing
| Rang | Modèle | Créateur | ELO Rating |
|---|---|---|---|
| #1 | Riverflow 2 Preview |
| 1,238 |
| #2 | Riverflow 1 |
| 1,192 |
| #3 | Seedream 4.0 |
| 1,191 |
| #4 | Gemini 2.5 Flash (Nano-Banana) |
| 1,187 |
| #5 | GPT-5 |
| 1,136 |
❓ Pourquoi ce classement ?
Face à l’explosion du nombre de modèles d’IA (GPT, Claude, Gemini, Llama, Mistral…), il devient difficile de s’y retrouver. Ce classement compare plus de 300 modèles des principaux acteurs du marché sur plusieurs dimensions clés :
🎯 Qualité
Performance sur des benchmarks académiques reconnus (MMLU Pro, GPQA, Math-500)
⚡ Vitesse
Rapidité de génération mesurée en tokens par seconde
💰 Prix
Coût par million de tokens pour optimiser votre budget
💻 Coding
Capacités de programmation et d’assistance au développement
🔬 Méthodologie
Source des données
Les données proviennent de Artificial Analysis, une plateforme indépendante qui réalise des tests automatisés sur tous les modèles LLM disponibles publiquement. Notre plugin synchronise automatiquement ces données pour vous garantir un classement toujours à jour.
Critères d’évaluation
Intelligence Index (0-100)
Score composite qui agrège plusieurs benchmarks académiques de référence :
- MMLU Pro : Questions à choix multiples couvrant 57 domaines de connaissances
- GPQA : Questions de niveau doctorat en sciences
- Math-500 : Problèmes mathématiques avancés
Vitesse (tokens/seconde)
Vitesse de génération mesurée en conditions réelles via les API officielles. Plus le score est élevé, plus le modèle génère rapidement du texte (crucial pour les applications temps réel).
Prix ($/1M tokens)
Tarification “blended” calculée avec un ratio 3:1 (3 tokens en entrée pour 1 token en sortie), représentant un usage typique. Les prix évoluent régulièrement avec la compétition du marché.
📖 Comment lire ce tableau ?
🎯 Intelligence Index
Score global de performance intellectuelle. Un score de 85+ indique un modèle “frontier” capable de raisonnement avancé.
- 90-100 : Excellence (GPT-4, Claude Opus)
- 80-90 : Très performant
- 70-80 : Performant
- < 70 : Basique
⚡ Speed (tokens/s)
Vitesse de génération. Important pour les applications nécessitant des réponses rapides (chatbots, assistance).
- > 100 tok/s : Très rapide
- 50-100 tok/s : Rapide
- 20-50 tok/s : Moyen
- < 20 tok/s : Lent
💰 Prix ($/1M tokens)
Coût par million de tokens. Les prix ont fortement baissé grâce à la compétition.
- Gratuit : $0 (modèles open-source)
- Budget : < $2/1M (GPT-4o mini, Gemini Flash)
- Standard : $2-10/1M (GPT-4o, Claude Sonnet)
- Premium : > $10/1M (Claude Opus)
🎨 Badges de prix
Des badges colorés indiquent rapidement la catégorie de prix :
- 🟢 Budget : Excellent rapport qualité/prix
- 🔵 Standard : Équilibre performance/coût
- 🟡 Premium : Qualité maximale
💡 Quel modèle choisir selon votre besoin ?
💻 Développement / Code
Pour de l’assistance au code, privilégiez les modèles avec un fort score Coding : Claude Sonnet 3.5, GPT-4o, DeepSeek Coder.
Ces modèles excellent en génération de code, debugging et explication technique.
✍️ Rédaction / Contenu
Pour créer du contenu, optez pour un bon équilibre qualité/prix : GPT-4o mini, Gemini Pro, Claude Haiku.
Parfaits pour articles, emails, descriptions produits à volume élevé.
🔬 Analyse / Recherche
Pour du raisonnement complexe, choisissez les modèles “frontier” (Intelligence Index > 85) : Claude Opus, GPT-4 Turbo, Gemini Ultra.
Idéaux pour analyse de données, synthèse de recherche, résolution de problèmes.
💸 Usage intensif / Budget
Pour un volume élevé avec budget limité, les modèles open-source ou très abordables : Llama 3, Mistral, Gemini Flash.
Excellent rapport qualité/prix pour applications de production.
📰 Tendances actuelles du marché LLM
- Guerre des prix : Les tarifs ont été divisés par 10 en 2 ans grâce à la compétition entre OpenAI, Anthropic, Google et Meta.
- Explosion des performances : Les modèles récents (2024-2025) dépassent désormais les humains sur de nombreux benchmarks académiques.
- Spécialisation : Émergence de modèles optimisés pour des tâches spécifiques (code, maths, langues) plutôt que généralistes.
- Open-source en hausse : Meta (Llama), Mistral et Alibaba proposent des modèles gratuits de niveau quasi-professionnel.
- Modèles de raisonnement : Nouvelle génération capable de “réfléchir” étape par étape (OpenAI o1, DeepSeek R1).
