🏆 LLM Leaderboard : le classement des meilleurs IA et des meilleurs LLM

Benchmark et comparatif des meilleurs LLM, mis à jour automatiquement chaque jour. Données consolidées, couvrant précision, multimodalité, coût et performance. Faites défiler pour explorer les classements par catégorie. Face à l’explosion des modèles d’IA, choisir le bon LLM devient un casse-tête : GPT-5, Claude 4.5 Sonnet, Gemini 2.5 Pro, Grok 4… Ce classement compare le top 100 des modèles sur des critères objectifs (qualité, vitesse, coût, capacités multimodales) grâce aux benchmarks indépendants d’Artificial Analysis. Les données sont synchronisées automatiquement chaque jour pour garantir un comparatif toujours à jour. Utilisez les filtres ci-dessous pour trouver le modèle adapté à votre usage et budget.

📊 Classements des modèles IA

🧠 Top 100 des meilleurs Llm

Dernière mise à jour: il y a 10 heures
ModèleCréateurQuality IndexSpeed (tok/s)Prix ($/1M)
GPT-5.1 (high)
OpenAI
69.7
127.1 $3.44 Standard
GPT-5 (high)
OpenAI
68.5
98.4 $3.44 Standard
GPT-5 Codex (high)
OpenAI
68.5
154.6 $3.44 Standard
Kimi K2 Thinking
Moonshot AI
67.0
77.7 $1.08 Budget
GPT-5 (medium)
OpenAI
66.4
114.9 $3.44 Standard
o3
OpenAI
65.5
171.9 $3.50 Standard
Grok 4
xAI
65.3
36.4 $6.00 Standard
o3-pro
OpenAI
65.3
30.7 $35.00 Premium
GPT-5 mini (high)
OpenAI
64.3
72.3 $0.69 Budget
Claude 4.5 Sonnet (Reasoning)
Anthropic
62.7
67.4 $6.00 Standard
GPT-5 (low)
OpenAI
61.8
112.3 $3.44 Standard
MiniMax-M2
MiniMax
61.4
90.5 $0.53 Budget
GPT-5 mini (medium)
OpenAI
60.8
71.4 $0.69 Budget
gpt-oss-120B (high)
OpenAI
60.5
341.0 $0.26 Budget
Grok 4 Fast (Reasoning)
xAI
60.3
192.1 $0.28 Budget
Gemini 2.5 Pro
Google
59.6
48.2 $3.44 Standard
o4-mini (high)
OpenAI
59.6
117.3 $1.93 Budget
Claude 4.1 Opus (Reasoning)
Anthropic
59.3
44.5 $30.00 Premium
DeepSeek V3.1 Terminus (Reasoning)
DeepSeek
57.7
0.0 $0.80 Budget
Qwen3 235B A22B 2507 (Reasoning)
Alibaba
57.5
88.3 $2.63 Standard
Grok 3 mini Reasoning (high)
xAI
57.1
112.6 $0.35 Budget
DeepSeek V3.2 Exp (Reasoning)
DeepSeek
56.9
28.3 $0.32 Budget
Claude 4 Sonnet (Reasoning)
Anthropic
56.5
70.5 $6.00 Standard
GLM-4.6 (Reasoning)
Z AI
56.0
111.1 $0.99 Budget
Qwen3 Max Thinking
Alibaba
55.8
36.9 $2.40 Standard
Qwen3 Max
Alibaba
55.1
29.4 $2.40 Standard
Claude 4.5 Haiku (Reasoning)
Anthropic
54.6
75.1 $2.00 Standard
Gemini 2.5 Flash Preview (Sep '25) (Reasoning)
Google
54.4
156.8 $0.85 Budget
Qwen3 VL 235B A22B (Reasoning)
Alibaba
54.4
44.4 $2.63 Standard
Qwen3 Next 80B A3B (Reasoning)
Alibaba
54.3
169.8 $1.88 Budget
Claude 4 Opus (Reasoning)
Anthropic
54.2
41.2 $30.00 Premium
Gemini 2.5 Pro Preview (Mar' 25)
Google
54.1
44.4 $3.44 Standard
DeepSeek V3.1 (Reasoning)
DeepSeek
54.0
0.0 $0.65 Budget
Gemini 2.5 Pro Preview (May' 25)
Google
53.2
46.1 $3.44 Standard
gpt-oss-20B (high)
OpenAI
52.4
256.2 $0.09 Budget
Magistral Medium 1.2
Mistral
52.0
93.3 $2.75 Standard
DeepSeek R1 0528 (May '25)
DeepSeek
52.0
0.0 $2.36 Standard
Qwen3 VL 32B (Reasoning)
Alibaba
51.9
51.3 $2.63 Standard
Apriel-v1.5-15B-Thinker
ServiceNow
51.6
148.7 $0.00 Budget
Seed-OSS-36B-Instruct
ByteDance Seed
51.6
29.2 $0.30 Budget
GLM-4.5 (Reasoning)
Z AI
51.3
44.1 $0.98 Budget
Gemini 2.5 Flash (Reasoning)
Google
51.2
263.5 $0.85 Budget
GPT-5 nano (high)
OpenAI
51.0
165.3 $0.14 Budget
o3-mini (high)
OpenAI
50.8
156.3 $1.93 Budget
Kimi K2 0905
Moonshot AI
50.4
54.0 $1.20 Budget
Claude 3.7 Sonnet (Reasoning)
Anthropic
49.9
71.6 $6.00 Standard
Claude 4.5 Sonnet (Non-reasoning)
Anthropic
49.6
72.4 $6.00 Standard
GPT-5 nano (medium)
OpenAI
49.3
157.8 $0.14 Budget
GLM-4.5-Air
Z AI
48.8
93.9 $0.43 Budget
Grok Code Fast 1
xAI
48.6
239.6 $0.53 Budget
Qwen3 Max (Preview)
Alibaba
48.5
32.7 $2.40 Standard
o3-mini
OpenAI
48.1
141.4 $1.93 Budget
Kimi K2
Moonshot AI
48.1
36.4 $1.08 Budget
o1-pro
OpenAI
48.0
0.0 $262.50 Premium
Gemini 2.5 Flash-Lite Preview (Sep '25) (Reasoning)
Google
47.9
673.8 $0.18 Budget
gpt-oss-120B (low)
OpenAI
47.5
339.5 $0.26 Budget
o1
OpenAI
47.2
154.0 $26.25 Premium
Gemini 2.5 Flash Preview (Sep '25) (Non-reasoning)
Google
46.7
225.0 $0.85 Budget
Qwen3 30B A3B 2507 (Reasoning)
Alibaba
46.4
177.6 $0.75 Budget
DeepSeek V3.2 Exp (Non-reasoning)
DeepSeek
46.3
25.5 $0.32 Budget
Sonar Reasoning Pro
Perplexity
46.3
0.0 $0.00 Budget
MiniMax M1 80k
MiniMax
46.2
0.0 $0.83 Budget
Gemini 2.5 Flash Preview (Reasoning)
Google
45.8
0.0 $0.00 Budget
DeepSeek V3.1 Terminus (Non-reasoning)
DeepSeek
45.7
0.0 $0.80 Budget
Qwen3 235B A22B 2507 Instruct
Alibaba
45.3
43.0 $1.23 Budget
Qwen3 VL 30B A3B (Reasoning)
Alibaba
45.3
106.8 $0.75 Budget
Grok 3
xAI
45.3
28.0 $6.00 Standard
Llama Nemotron Super 49B v1.5 (Reasoning)
NVIDIA
45.2
77.5 $0.18 Budget
o1-preview
OpenAI
44.9
0.0 $28.88 Premium
Qwen3 Next 80B A3B Instruct
Alibaba
44.8
163.6 $0.88 Budget
Ling-1T
InclusionAI
44.8
15.9 $1.00 Budget
DeepSeek V3.1 (Non-reasoning)
DeepSeek
44.8
0.0 $0.84 Budget
GLM-4.6 (Non-reasoning)
Z AI
44.7
41.6 $0.99 Budget
Claude 4.1 Opus (Non-reasoning)
Anthropic
44.6
39.8 $30.00 Premium
Claude 4 Sonnet (Non-reasoning)
Anthropic
44.4
77.0 $6.00 Standard
gpt-oss-20B (low)
OpenAI
44.3
256.4 $0.09 Budget
Qwen3 VL 235B A22B Instruct
Alibaba
44.1
37.4 $1.23 Budget
DeepSeek R1 (Jan '25)
DeepSeek
43.8
0.0 $2.36 Standard
GPT-5 (minimal)
OpenAI
43.5
71.4 $3.44 Standard
Qwen3 4B 2507 (Reasoning)
Alibaba
43.4
0.0 $0.00 Budget
GPT-4.1
OpenAI
43.4
91.1 $3.50 Standard
Magistral Small 1.2
Mistral
43.0
196.5 $0.75 Budget
GPT-5.1 (Non-reasoning)
OpenAI
42.9
83.7 $3.44 Standard
EXAONE 4.0 32B (Reasoning)
LG AI Research
42.6
94.1 $0.70 Budget
GPT-4.1 mini
OpenAI
42.5
76.9 $0.70 Budget
Qwen3 Coder 480B A35B Instruct
Alibaba
42.3
40.7 $3.00 Standard
Claude 4 Opus (Non-reasoning)
Anthropic
42.3
39.5 $30.00 Premium
GPT-5 (ChatGPT)
OpenAI
41.8
105.5 $3.44 Standard
Ring-1T
InclusionAI
41.8
12.8 $1.00 Budget
Claude 4.5 Haiku (Non-reasoning)
Anthropic
41.7
107.2 $2.00 Standard
Qwen3 235B A22B (Reasoning)
Alibaba
41.7
54.3 $2.63 Standard
GPT-5 mini (minimal)
OpenAI
41.6
69.8 $0.69 Budget
Gemini 2.5 Flash-Lite Preview (Sep '25) (Non-reasoning)
Google
41.6
421.4 $0.18 Budget
Hermes 4 - Llama-3.1 405B (Reasoning)
Nous Research
41.6
36.0 $1.50 Budget
Grok 3 Reasoning Beta
xAI
41.4
0.0 $0.00 Budget
DeepSeek V3 0324
DeepSeek
41.3
0.0 $1.25 Budget
Claude 3.7 Sonnet (Non-reasoning)
Anthropic
41.1
55.8 $6.00 Standard
Qwen3 VL 32B Instruct
Alibaba
41.0
46.8 $1.23 Budget
Gemini 2.5 Flash (Non-reasoning)
Google
40.4
214.8 $0.85 Budget
Gemini 2.5 Flash-Lite (Reasoning)
Google
40.1
512.3 $0.18 Budget

🎬 Meilleurs modèles Text-to-Video

Dernière mise à jour: il y a 10 heures
RangModèleCréateurELO Rating
#1Veo 3 Preview (No Audio)
Google
1,238
#2Kling 2.5 Turbo 1080p
Kuaishou KlingAI
1,232
#3Veo 3 (No Audio)
Google
1,227
#4Veo 3.1 Preview (No Audio)
Google
1,224
#5Veo 3.1 Fast Preview (No Audio)
Google
1,221

📹 Meilleurs modèles Image-to-Video

Dernière mise à jour: il y a 10 heures
RangModèleCréateurELO Rating
#1Kling 2.5 Turbo 1080p
Kuaishou KlingAI
1,318
#2Avenger 0.5 Pro
Video Rebirth
1,314
#3Hailuo 02 0616
MiniMax
1,313
#4Veo 3.1 Fast Preview (No Audio)
Google
1,312
#5Veo 3.1 Preview (No Audio)
Google
1,291

🎙️ Meilleurs modèles Text-to-Speech

Dernière mise à jour: il y a 10 heures
RangModèleCréateurELO Rating
#1Inworld TTS 1 Max
Inworld
1,223
#2Speech-02-HD
MiniMax
1,130
#3Speech-02-Turbo
MiniMax
1,121
#4TTS-1
OpenAI
1,115
#5Multilingual v2
ElevenLabs
1,114

✏️ Meilleurs modèles Image Editing

Dernière mise à jour: il y a 10 heures
RangModèleCréateurELO Rating
#1Riverflow 2 Preview
Sourceful
1,238
#2Riverflow 1
Sourceful
1,192
#3Seedream 4.0
ByteDance Seed
1,191
#4Gemini 2.5 Flash (Nano-Banana)
Google
1,187
#5GPT-5
OpenAI
1,136

❓ Pourquoi ce classement ?

Face à l’explosion du nombre de modèles d’IA (GPT, Claude, Gemini, Llama, Mistral…), il devient difficile de s’y retrouver. Ce classement compare plus de 300 modèles des principaux acteurs du marché sur plusieurs dimensions clés :

🎯 Qualité

Performance sur des benchmarks académiques reconnus (MMLU Pro, GPQA, Math-500)

⚡ Vitesse

Rapidité de génération mesurée en tokens par seconde

💰 Prix

Coût par million de tokens pour optimiser votre budget

💻 Coding

Capacités de programmation et d’assistance au développement

🔬 Méthodologie

Source des données

Les données proviennent de Artificial Analysis, une plateforme indépendante qui réalise des tests automatisés sur tous les modèles LLM disponibles publiquement. Notre plugin synchronise automatiquement ces données pour vous garantir un classement toujours à jour.

Critères d’évaluation

Intelligence Index (0-100)

Score composite qui agrège plusieurs benchmarks académiques de référence :

  • MMLU Pro : Questions à choix multiples couvrant 57 domaines de connaissances
  • GPQA : Questions de niveau doctorat en sciences
  • Math-500 : Problèmes mathématiques avancés

Vitesse (tokens/seconde)

Vitesse de génération mesurée en conditions réelles via les API officielles. Plus le score est élevé, plus le modèle génère rapidement du texte (crucial pour les applications temps réel).

Prix ($/1M tokens)

Tarification “blended” calculée avec un ratio 3:1 (3 tokens en entrée pour 1 token en sortie), représentant un usage typique. Les prix évoluent régulièrement avec la compétition du marché.

📖 Comment lire ce tableau ?

🎯 Intelligence Index

Score global de performance intellectuelle. Un score de 85+ indique un modèle “frontier” capable de raisonnement avancé.

  • 90-100 : Excellence (GPT-4, Claude Opus)
  • 80-90 : Très performant
  • 70-80 : Performant
  • < 70 : Basique

⚡ Speed (tokens/s)

Vitesse de génération. Important pour les applications nécessitant des réponses rapides (chatbots, assistance).

  • > 100 tok/s : Très rapide
  • 50-100 tok/s : Rapide
  • 20-50 tok/s : Moyen
  • < 20 tok/s : Lent

💰 Prix ($/1M tokens)

Coût par million de tokens. Les prix ont fortement baissé grâce à la compétition.

  • Gratuit : $0 (modèles open-source)
  • Budget : < $2/1M (GPT-4o mini, Gemini Flash)
  • Standard : $2-10/1M (GPT-4o, Claude Sonnet)
  • Premium : > $10/1M (Claude Opus)

🎨 Badges de prix

Des badges colorés indiquent rapidement la catégorie de prix :

  • 🟢 Budget : Excellent rapport qualité/prix
  • 🔵 Standard : Équilibre performance/coût
  • 🟡 Premium : Qualité maximale

💡 Quel modèle choisir selon votre besoin ?

💻 Développement / Code

Pour de l’assistance au code, privilégiez les modèles avec un fort score Coding : Claude Sonnet 3.5, GPT-4o, DeepSeek Coder.

Ces modèles excellent en génération de code, debugging et explication technique.

✍️ Rédaction / Contenu

Pour créer du contenu, optez pour un bon équilibre qualité/prix : GPT-4o mini, Gemini Pro, Claude Haiku.

Parfaits pour articles, emails, descriptions produits à volume élevé.

🔬 Analyse / Recherche

Pour du raisonnement complexe, choisissez les modèles “frontier” (Intelligence Index > 85) : Claude Opus, GPT-4 Turbo, Gemini Ultra.

Idéaux pour analyse de données, synthèse de recherche, résolution de problèmes.

💸 Usage intensif / Budget

Pour un volume élevé avec budget limité, les modèles open-source ou très abordables : Llama 3, Mistral, Gemini Flash.

Excellent rapport qualité/prix pour applications de production.

📰 Tendances actuelles du marché LLM

✉️ Restez informé des évolutions de l’IA

Abonnez-vous à notre newsletter et suivez nos actualités sur l’intelligence artificielle.

FAQ

À quelle fréquence ce classement est-il mis à jour ?

Les données sont synchronisées automatiquement chaque jour avec l’API d’Artificial Analysis. Vous consultez toujours les derniers résultats disponibles, incluant les nouveaux modèles et mises à jour de prix.

Pourquoi certains modèles connus ne sont pas dans le classement ?

Seuls les modèles accessibles publiquement via API sont testés et comparés. Les modèles privés, en bêta fermée ou sans API publique ne peuvent pas être inclus dans ce classement indépendant.

Le prix affiché est-il le prix réel que je paierai ?

Le prix “blended” est une estimation basée sur un ratio 3:1 input/output qui représente un usage typique. Votre coût réel peut varier selon votre cas d’usage. Consultez toujours la tarification officielle de chaque fournisseur pour des chiffres précis.

Un modèle plus cher est-il forcément meilleur ?

Non ! Le rapport qualité/prix varie énormément. Certains modèles “Budget” comme GPT-4o mini ou Gemini Flash offrent d’excellentes performances pour un coût très faible. Le choix dépend de votre cas d’usage : pour du contenu simple, un modèle budget suffit amplement.

Comment sont calculés les scores de qualité ?

Artificial Analysis utilise des benchmarks académiques standardisés (MMLU Pro, GPQA, Math-500, etc.) et teste tous les modèles dans les mêmes conditions pour garantir une comparaison objective. Les tests sont automatisés et régulièrement mis à jour.

Puis-je utiliser ces données pour mon projet ?

Les données sont fournies par Artificial Analysis via leur API. Pour toute utilisation commerciale ou redistribution, veuillez consulter leurs conditions d’utilisation sur https://artificialanalysis.ai. Ce classement est fourni à titre informatif.

Puis-je réutiliser ces données ?

Oui, pour un usage informatif en citant la source. Vérifiez néanmoins les licences et mentions légales des fournisseurs d’origine.

Quelle différence entre GPT-4, GPT-4 Turbo et GPT-4o ?

GPT-4 est la version originale (mars 2023), GPT-4 Turbo est une version optimisée plus rapide et moins chère, et GPT-4o (“omni”) est la dernière version multimodale (texte + image + audio). GPT-4o offre le meilleur rapport performance/prix de la gamme GPT-4.

Quel est le meilleur modèle pour du code ?

Pour la programmation, Claude Sonnet 3.5, GPT-4o et DeepSeek Coder excellent. Ils offrent d’excellentes capacités de génération de code, debugging et explication technique. Claude Sonnet 3.5 est particulièrement apprécié des développeurs pour sa compréhension du contexte.