Classement des meilleurs LLM en 2026 : comparatif mis a jour quotidiennement

Benchmark et comparatif des meilleurs LLM, mis à jour automatiquement chaque jour. Données consolidées, couvrant précision, multimodalité, coût et performance. Faites défiler pour explorer les classements par catégorie. Face à l’explosion des modèles d’IA, choisir le bon LLM devient un casse-tête : GPT-5, Claude 4.5 Sonnet, Gemini 2.5 Pro, Grok 4… Ce classement compare le top 100 des modèles sur des critères objectifs (qualité, vitesse, coût, capacités multimodales) grâce aux benchmarks indépendants d’Artificial Analysis. Les données sont synchronisées automatiquement chaque jour pour garantir un comparatif toujours à jour. Utilisez les filtres ci-dessous pour trouver le modèle adapté à votre usage et budget.

📊 Classements des modèles IA

🧠 Top 100 des meilleurs Llm


Dernière mise à jour: il y a 5 heures

Modèle Créateur Quality Index Speed (tok/s) Prix ($/1M)
GPT-5.4 (xhigh)

OpenAI

57.2

75.0 $5.63
Standard
Gemini 3.1 Pro Preview

Google

57.2

116.2 $4.50
Standard
GPT-5.3 Codex (xhigh)

OpenAI

54.0

64.8 $4.81
Standard
Claude Opus 4.6 (Adaptive Reasoning, Max Effort)

Anthropic

53.0

47.0 $10.00
Premium
Claude Sonnet 4.6 (Adaptive Reasoning, Max Effort)

Anthropic

51.7

54.2 $6.00
Standard
GPT-5.2 (xhigh)

OpenAI

51.3

70.0 $4.81
Standard
GLM-5 (Reasoning)

Z AI

49.8

57.3 $1.55
Budget
Claude Opus 4.5 (Reasoning)

Anthropic

49.7

51.2 $10.00
Premium
MiniMax-M2.7

MiniMax

49.6

39.9 $0.53
Budget
MiMo-V2-Pro

Xiaomi

49.2

0.0 $1.50
Budget
GPT-5.2 Codex (xhigh)

OpenAI

49.0

99.4 $4.81
Standard
Grok 4.20 Beta 0309 (Reasoning)

xAI

48.5

247.6 $3.00
Standard
Gemini 3 Pro Preview (high)

Google

48.4

119.5 $4.50
Standard
GPT-5.4 mini (xhigh)

OpenAI

48.1

184.7 $1.69
Budget
GPT-5.1 (high)

OpenAI

47.7

100.7 $3.44
Standard
Kimi K2.5 (Reasoning)

Kimi

46.8

33.6 $1.20
Budget
GLM-5-Turbo

Z AI

46.8

0.0 $0.00
Budget
GPT-5.2 (medium)

OpenAI

46.6

0.0 $4.81
Standard
Claude Opus 4.6 (Non-reasoning, High Effort)

Anthropic

46.5

44.8 $10.00
Premium
Gemini 3 Flash Preview (Reasoning)

Google

46.4

189.4 $1.13
Budget
Qwen3.5 397B A17B (Reasoning)

Alibaba

45.0

56.0 $1.35
Budget
GPT-5 (high)

OpenAI

44.6

95.7 $3.44
Standard
GPT-5 Codex (high)

OpenAI

44.6

164.2 $3.44
Standard
GPT-5.4 nano (xhigh)

OpenAI

44.4

199.7 $0.46
Budget
Claude Sonnet 4.6 (Non-reasoning, High Effort)

Anthropic

44.4

46.5 $6.00
Standard
KAT Coder Pro V2

KwaiKAT

43.8

91.9 $0.53
Budget
MiMo-V2-Omni

Xiaomi

43.4

0.0 $0.00
Budget
GPT-5.1 Codex (high)

OpenAI

43.1

158.5 $3.44
Standard
Claude Opus 4.5 (Non-reasoning)

Anthropic

43.1

50.6 $10.00
Premium
Claude 4.5 Sonnet (Reasoning)

Anthropic

43.0

45.9 $6.00
Standard
GLM 5V Turbo (Reasoning)

Z AI

42.9

0.0 $0.00
Budget
Claude Sonnet 4.6 (Non-reasoning, Low Effort)

Anthropic

42.6

46.0 $6.00
Standard
Qwen3.5 27B (Reasoning)

Alibaba

42.1

90.0 $0.83
Budget
GLM-4.7 (Reasoning)

Z AI

42.1

73.6 $1.00
Budget
GPT-5 (medium)

OpenAI

42.0

85.6 $3.44
Standard
Claude 4.1 Opus (Reasoning)

Anthropic

42.0

35.0 $30.00
Premium
MiniMax-M2.5

MiniMax

41.9

59.4 $0.53
Budget
DeepSeek V3.2 (Reasoning)

DeepSeek

41.7

36.7 $0.32
Budget
Qwen3.5 122B A10B (Reasoning)

Alibaba

41.6

131.4 $1.10
Budget
MiMo-V2-Flash (Feb 2026)

Xiaomi

41.5

123.3 $0.15
Budget
Grok 4

xAI

41.5

48.4 $6.00
Standard
Gemini 3 Pro Preview (low)

Google

41.3

0.0 $4.50
Standard
GPT-5 mini (high)

OpenAI

41.2

76.7 $0.69
Budget
Kimi K2 Thinking

Kimi

40.9

100.1 $1.08
Budget
o3-pro

OpenAI

40.7

20.8 $35.00
Premium
GLM-5 (Non-reasoning)

Z AI

40.6

58.2 $1.55
Budget
Qwen3.5 397B A17B (Non-reasoning)

Alibaba

40.1

50.9 $1.35
Budget
Qwen3 Max Thinking

Alibaba

39.9

36.4 $2.40
Standard
MiniMax-M2.1

MiniMax

39.4

61.8 $0.53
Budget
GPT-5 (low)

OpenAI

39.2

78.4 $3.44
Standard
MiMo-V2-Flash (Reasoning)

Xiaomi

39.2

124.5 $0.15
Budget
Claude 4 Opus (Reasoning)

Anthropic

39.0

36.8 $30.00
Premium
GPT-5 mini (medium)

OpenAI

38.9

81.6 $0.69
Budget
Claude 4 Sonnet (Reasoning)

Anthropic

38.7

44.9 $6.00
Standard
Qwen3.5 Omni Plus

Alibaba

38.6

50.3 $1.50
Budget
GPT-5.1 Codex mini (high)

OpenAI

38.6

190.1 $0.69
Budget
Grok 4.1 Fast (Reasoning)

xAI

38.6

126.5 $0.28
Budget
o3

OpenAI

38.4

86.5 $3.50
Standard
GPT-5.4 nano (medium)

OpenAI

38.1

195.7 $0.46
Budget
Step 3.5 Flash

StepFun

37.8

84.0 $0.15
Budget
GPT-5.4 mini (medium)

OpenAI

37.7

182.8 $1.69
Budget
Kimi K2.5 (Non-reasoning)

Kimi

37.3

32.4 $1.20
Budget
Qwen3.5 27B (Non-reasoning)

Alibaba

37.2

87.2 $0.83
Budget
Claude 4.5 Haiku (Reasoning)

Anthropic

37.1

115.9 $2.00
Standard
Qwen3.5 35B A3B (Reasoning)

Alibaba

37.1

119.2 $0.69
Budget
Claude 4.5 Sonnet (Non-reasoning)

Anthropic

37.1

45.4 $6.00
Standard
MiniMax-M2

MiniMax

36.1

59.7 $0.53
Budget
NVIDIA Nemotron 3 Super 120B A12B (Reasoning)

NVIDIA

36.0

156.1 $0.41
Budget
KAT-Coder-Pro V1

KwaiKAT

36.0

99.1 $0.53
Budget
Claude 4.1 Opus (Non-reasoning)

Anthropic

36.0

33.4 $30.00
Premium
Qwen3.5 122B A10B (Non-reasoning)

Alibaba

35.9

136.1 $1.10
Budget
Nova 2.0 Pro Preview (medium)

Amazon

35.7

125.1 $3.44
Standard
GPT-5.4 (Non-reasoning)

OpenAI

35.4

59.1 $5.63
Standard
Grok 4 Fast (Reasoning)

xAI

35.1

146.7 $0.28
Budget
Gemini 3 Flash Preview (Non-reasoning)

Google

35.0

168.0 $1.13
Budget
Claude 3.7 Sonnet (Reasoning)

Anthropic

34.7

0.0 $6.00
Standard
Gemini 2.5 Pro

Google

34.6

117.3 $3.44
Standard
GLM-4.7 (Non-reasoning)

Z AI

34.2

75.7 $0.94
Budget
DeepSeek V3.1 Terminus (Reasoning)

DeepSeek

33.9

0.0 $0.80
Budget
GPT-5.2 (Non-reasoning)

OpenAI

33.6

66.2 $4.81
Standard
Gemini 3.1 Flash-Lite Preview

Google

33.5

196.4 $0.56
Budget
Doubao Seed Code

ByteDance Seed

33.5

0.0 $0.00
Budget
gpt-oss-120B (high)

OpenAI

33.3

227.9 $0.26
Budget
o4-mini (high)

OpenAI

33.1

126.9 $1.93
Budget
Claude 4 Sonnet (Non-reasoning)

Anthropic

33.0

45.6 $6.00
Standard
Claude 4 Opus (Non-reasoning)

Anthropic

33.0

34.3 $30.00
Premium
DeepSeek V3.2 Exp (Reasoning)

DeepSeek

32.9

36.9 $0.32
Budget
Mercury 2

Inception

32.8

735.8 $0.38
Budget
GLM-4.6 (Reasoning)

Z AI

32.5

64.6 $0.98
Budget
Qwen3 Max Thinking (Preview)

Alibaba

32.5

41.9 $2.40
Standard
Qwen3.5 9B (Reasoning)

Alibaba

32.4

169.1 $0.10
Budget
DeepSeek V3.2 (Non-reasoning)

DeepSeek

32.1

38.1 $0.32
Budget
Grok 3 mini Reasoning (high)

xAI

32.1

197.2 $0.35
Budget
K-EXAONE (Reasoning)

LG AI Research

32.1

0.0 $0.00
Budget
Nova 2.0 Pro Preview (low)

Amazon

31.9

121.6 $3.44
Standard
Qwen3 Max

Alibaba

31.4

32.8 $2.40
Standard
Claude 4.5 Haiku (Non-reasoning)

Anthropic

31.1

98.7 $2.00
Standard
Gemini 2.5 Flash Preview (Sep '25) (Reasoning)

Google

31.1

0.0 $0.00
Budget
Kimi K2 0905

Kimi

30.9

39.8 $1.14
Budget
o1

OpenAI

30.8

107.6 $26.25
Premium

🎬 Meilleurs modèles Text-to-Video


Dernière mise à jour: il y a 5 heures

Rang Modèle Créateur ELO Rating
#1 Dreamina Seedance 2.0 720p

ByteDance Seed

1,273

#2 SkyReels V4

Skywork AI

1,245

#3 PixVerse V6

PixVerse

1,241

#4 Kling 3.0 1080p (Pro)

KlingAI

1,241

#5 Kling 3.0 Omni 1080p (Pro)

KlingAI

1,231

📹 Meilleurs modèles Image-to-Video


Dernière mise à jour: il y a 5 heures

Rang Modèle Créateur ELO Rating
#1 Dreamina Seedance 2.0 720p

ByteDance Seed

1,356

#2 PixVerse V6

PixVerse

1,344

#3 grok-imagine-video

xAI

1,334

#4 GenFlare 2.0

Baidu

1,326

#5 Kling 3.0 Omni 1080p (Pro)

KlingAI

1,298

🎙️ Meilleurs modèles Text-to-Speech


Dernière mise à jour: il y a 5 heures

Rang Modèle Créateur ELO Rating
#1 Inworld TTS 1.5 Max

Inworld

1,231

#2 Eleven v3

ElevenLabs

1,197

#3 Inworld TTS 1.5 Mini

Inworld

1,183

#4 Inworld TTS 1 Max

Inworld

1,181

#5 Speech 2.8 HD

MiniMax

1,174

✏️ Meilleurs modèles Image Editing


Dernière mise à jour: il y a 5 heures

Rang Modèle Créateur ELO Rating
#1 Riverflow 2.0

Sourceful

1,283

#2 GPT Image 1.5 (high)

OpenAI

1,271

#3 Nano Banana Pro (Gemini 3 Pro Image)

Google

1,249

#4 Nano Banana 2 (Gemini 3.1 Flash Image Preview)

Google

1,245

#5 grok-imagine-image

xAI

1,225

❓ Pourquoi ce classement ?

Face à l’explosion du nombre de modèles d’IA (GPT, Claude, Gemini, Llama, Mistral…),
il devient difficile de s’y retrouver. Ce classement compare plus de 300 modèles
des principaux acteurs du marché sur plusieurs dimensions clés :

🎯 Qualité

Performance sur des benchmarks académiques reconnus (MMLU Pro, GPQA, Math-500)

⚡ Vitesse

Rapidité de génération mesurée en tokens par seconde

💰 Prix

Coût par million de tokens pour optimiser votre budget

💻 Coding

Capacités de programmation et d’assistance au développement

🔬 Méthodologie

Source des données

Les données proviennent de Artificial Analysis,
une plateforme indépendante qui réalise des tests automatisés sur tous les modèles LLM disponibles publiquement.
Notre plugin synchronise automatiquement ces données pour vous garantir un classement toujours à jour.

Critères d’évaluation

Intelligence Index (0-100)

Score composite qui agrège plusieurs benchmarks académiques de référence :

  • MMLU Pro : Questions à choix multiples couvrant 57 domaines de connaissances
  • GPQA : Questions de niveau doctorat en sciences
  • Math-500 : Problèmes mathématiques avancés

Vitesse (tokens/seconde)

Vitesse de génération mesurée en conditions réelles via les API officielles.
Plus le score est élevé, plus le modèle génère rapidement du texte (crucial pour les applications temps réel).

Prix ($/1M tokens)

Tarification “blended” calculée avec un ratio 3:1 (3 tokens en entrée pour 1 token en sortie),
représentant un usage typique. Les prix évoluent régulièrement avec la compétition du marché.

📖 Comment lire ce tableau ?

🎯 Intelligence Index

Score global de performance intellectuelle. Un score de 50+ indique un modèle “frontier” capable de raisonnement avancé.

  • 55+ : Excellence (GPT-5.4, Claude Opus 4.6)
  • 50-55 : Très performant
  • 40-50 : Performant
  • < 40 : Basique

⚡ Speed (tokens/s)

Vitesse de génération. Important pour les applications nécessitant des réponses rapides (chatbots, assistance).

  • > 100 tok/s : Très rapide
  • 50-100 tok/s : Rapide
  • 20-50 tok/s : Moyen
  • < 20 tok/s : Lent

💰 Prix ($/1M tokens)

Coût par million de tokens. Les prix ont fortement baissé grâce à la compétition.

  • Gratuit : $0 (modèles open-source)
  • Budget : < $2/1M (GPT-5.4 mini, Gemini 3 Flash)
  • Standard : $2-10/1M (GPT-5.4, Claude Sonnet 4.6)
  • Premium : > $10/1M (Claude Opus)

🎨 Badges de prix

Des badges colorés indiquent rapidement la catégorie de prix :

  • 🟢 Budget : Excellent rapport qualité/prix
  • 🔵 Standard : Équilibre performance/coût
  • 🟡 Premium : Qualité maximale

💡 Quel modèle choisir selon votre besoin ?

Consultez notre comparatif detaille ChatGPT vs Claude vs Gemini vs Mistral pour une analyse approfondie. Voir aussi notre selection des 15 meilleures IA gratuites en 2026.

💻 Développement / Code

Pour de l’assistance au code, privilégiez les modèles avec un fort score Coding :
Claude Sonnet 4.6, GPT-5.3 Codex, KAT Coder Pro V2.

Ces modèles excellent en génération de code, debugging et explication technique.

✍️ Rédaction / Contenu

Pour créer du contenu, optez pour un bon équilibre qualité/prix :
GPT-5.4 mini, Gemini 3 Flash, Claude 4.5 Haiku.

Parfaits pour articles, emails, descriptions produits à volume élevé.

🔬 Analyse / Recherche

Pour du raisonnement complexe, choisissez les modèles “frontier” (Quality Index > 50) :
GPT-5.4, Claude Opus 4.6, Gemini 3.1 Pro.

Idéaux pour analyse de données, synthèse de recherche, résolution de problèmes.

💸 Usage intensif / Budget

Pour un volume élevé avec budget limité, les modèles open-source ou très abordables :
DeepSeek V3.2, Qwen3.5, MiMo-V2-Flash.

Excellent rapport qualité/prix pour applications de production.

📰 Tendances actuelles du marché LLM

✉️ Restez informé des évolutions de l’IA

Abonnez-vous à notre newsletter et suivez nos actualités sur l’intelligence artificielle.

FAQ

À quelle fréquence ce classement est-il mis à jour ?

Les données sont synchronisées automatiquement chaque jour avec l’API d’Artificial Analysis. Vous consultez toujours les derniers résultats disponibles, incluant les nouveaux modèles et mises à jour de prix.

Pourquoi certains modèles connus ne sont pas dans le classement ?

Seuls les modèles accessibles publiquement via API sont testés et comparés. Les modèles privés, en bêta fermée ou sans API publique ne peuvent pas être inclus dans ce classement indépendant.

Le prix affiché est-il le prix réel que je paierai ?

Le prix “blended” est une estimation basée sur un ratio 3:1 input/output qui représente un usage typique. Votre coût réel peut varier selon votre cas d’usage. Consultez toujours la tarification officielle de chaque fournisseur pour des chiffres précis.

Un modèle plus cher est-il forcément meilleur ?

Non ! Le rapport qualité/prix varie énormément. Certains modèles “Budget” comme GPT-5.4 mini ou Gemini 3 Flash offrent d’excellentes performances pour un coût très faible. Le choix dépend de votre cas d’usage : pour du contenu simple, un modèle budget suffit amplement.

Comment sont calculés les scores de qualité ?

Artificial Analysis utilise des benchmarks académiques standardisés (MMLU Pro, GPQA, Math-500, etc.) et teste tous les modèles dans les mêmes conditions pour garantir une comparaison objective. Les tests sont automatisés et régulièrement mis à jour.

Puis-je utiliser ces données pour mon projet ?

Les données sont fournies par Artificial Analysis via leur API. Pour toute utilisation commerciale ou redistribution, veuillez consulter leurs conditions d’utilisation sur https://artificialanalysis.ai. Ce classement est fourni à titre informatif.

Puis-je réutiliser ces données ?

Oui, pour un usage informatif en citant la source. Vérifiez néanmoins les licences et mentions légales des fournisseurs d’origine.

Quelle est la différence entre les variantes GPT-5 ?

La famille GPT-5 comprend plusieurs variantes : GPT-5.4 (le modele flagship avec le meilleur Quality Index), GPT-5.4 mini (excellent rapport qualite/prix), GPT-5.4 nano (ultra-rapide et economique), et GPT-5.3 Codex (optimise pour le code). Les variantes “xhigh”, “high”, “medium” et “low” controlent l’effort de raisonnement du modele.

Quel est le meilleur modèle pour du code ?

Pour la programmation, Claude Sonnet 4.6, GPT-5.3 Codex et KAT Coder Pro V2 excellent. Ils offrent d’excellentes capacités de génération de code, debugging et explication technique. Claude Sonnet 4.6 est particulièrement apprécié des développeurs pour sa compréhension du contexte.