Outils IA

Claude Opus 4.7 vs GPT-5.2 vs Gemini 3.1 Pro vs DeepSeek V4 : guide mai 2026

|
28 avril 2026
|
10 min de lecture
Claude Opus 4.7 vs GPT-5.2 vs Gemini 3.1 Pro vs DeepSeek V4 : guide mai 2026 - Featured Image

Get weekly AI tool reviews

We test tools so you don't have to. No spam.

Version courte : vérifié le 10 mai 2026 : si tu veux un default, commence par la tâche, pas par la marque. Claude Opus 4.7 est le choix le plus sûr pour code difficile et travail professionnel long. GPT-5.2 est le point de comparaison officiel actuel d'OpenAI, pas GPT-5.5. Gemini 3.1 Pro est fort quand recherche, multimodal et long contexte comptent. DeepSeek V4 Flash est le default par coût pour l'API avec contexte 1M, tandis que V4 Pro mérite un test sur les tâches plus dures pendant sa remise temporaire.

Faits vérifiés sur les modèles frontier
Updated 10 mai 2026
  • Anthropic dit que Claude Opus 4.7 est sorti le 16 avril 2026 et garde le prix d'Opus 4.6 : $5 input et $25 output par 1M tokens
  • La page officielle OpenAI liste GPT-5.2 à $1.75 input, $0.175 cached input et $14 output par 1M tokens
  • La page officielle OpenAI ne liste pas GPT-5.5 dans cette mise à jour
  • Google liste Gemini 3.1 Pro Preview à $2/$12 par 1M tokens jusqu'à 200K de prompt, et $4/$18 au-delà
  • La page modèle Google liste 1M tokens d'entrée, 64K tokens de sortie et de bons résultats GPQA, BrowseComp, SWE-Bench et Terminal-Bench
  • DeepSeek V4 Flash est listé à $0.14 input cache-miss et $0.28 output par 1M tokens
  • DeepSeek V4 Pro a 75% de remise jusqu'au 31 mai 2026 : $0.435 input cache-miss et $0.87 output par 1M tokens
  • DeepSeek dit que deepseek-chat et deepseek-reasoner seront retirés après le 24 juillet 2026 à 15:59 UTC

Cette page garde l'ancien slug parce que Google connaît déjà cette URL. Le contenu, lui, devait être corrigé : la page publique actuelle d'OpenAI ne liste pas GPT-5.5, donc cette mise à jour utilise GPT-5.2.

J'ai vérifié les pages officielles d'Anthropic, OpenAI, Google et DeepSeek. Quand un fournisseur publie des benchmarks, je les traite comme des claims fournisseur, pas comme une preuve indépendante. Le but n'est pas de nommer un gagnant universel. Le but est de dire quel modèle tester en premier pour le travail en face de toi.

output le moins cher
$0.28
DeepSeek V4 Flash
output GPT-5.2
$14
par 1M tokens
Gemini GPQA
94.3%
model card officielle
Opus 4.7
$5/$25
input/output

Réponse courte

Choisis selon le workload, pas selon la marque.

Meilleur modèle par usage

UsagePremier modèle à testerRaison
Code difficile et travail logiciel soutenuClaude Opus 4.7Anthropic le positionne comme un Opus plus fort pour code, agents et tâches professionnelles
Écosystème OpenAI ou workflows CodexGPT-5.2 ou GPT-5.2 CodexLa page officielle OpenAI liste GPT-5.2 et GPT-5.2 Codex, pas GPT-5.5
Recherche, raisonnement multimodal et outils GoogleGemini 3.1 ProGoogle liste GPQA, BrowseComp, SWE-Bench et support 1M contexte
API 1M contexte au plus bas coûtDeepSeek V4 FlashLe prix officiel DeepSeek est bien plus bas que les flagships occidentaux
Expériences avec poids DeepSeek ouvertsDeepSeek V4 Pro ou FlashDeepSeek renvoie vers les poids ouverts depuis la note V4 officielle

Pourquoi cet article utilise GPT-5.2, pas GPT-5.5

L'ancienne version allait trop loin sur un nom que la page officielle ne liste pas.

La version précédente parlait de prix et de benchmarks GPT-5.5 comme si tout était officiel. Ce n'est plus prudent. La page officielle de prix OpenAI liste GPT-5.2, GPT-5.1, GPT-5, GPT-5.2 Codex, GPT-5.1 Codex et des modèles liés. Elle ne liste pas GPT-5.5.

Correction faite

L'URL contient encore gpt-5-5, mais l'article utilise GPT-5.2 comme référence OpenAI officielle actuelle. Cela évite de publier des prix GPT-5.5 non supportés tout en gardant l'URL existante.

Besoin d'aide pour implémenter ceci ?

Plus de 50 implémentations · 60 % plus rapide · 2-4 semaines

Prix actuels

Pages publiques officielles, vérifiées le 10 mai 2026.

Prix API par 1M tokens

ModèleInputInput cacheOutputNotes
Claude Opus 4.7$5.00Non listé dans l'annonce$25.00Anthropic dit : même prix qu'Opus 4.6
GPT-5.2$1.75$0.175$14.00Page officielle OpenAI
GPT-5.2 Pro$21.00-$168.00Tier Pro premium OpenAI
Gemini 3.1 Pro Preview, <=200K prompt$2.00$0.20 context cache$12.00Prix standard Gemini API
Gemini 3.1 Pro Preview, >200K prompt$4.00$0.40 context cache$18.00Prix standard Gemini API
DeepSeek V4 Flash$0.0028 cache hit / $0.14 cache miss-$0.28Prix officiel DeepSeek
DeepSeek V4 Pro remisé$0.003625 cache hit / $0.435 cache miss-$0.8775% de remise jusqu'au 31 mai 2026

Pour le coût API pur, DeepSeek V4 Flash gagne largement. Parmi les modèles frontier hébergés classiques, GPT-5.2 est moins cher qu'Opus 4.7 au prix de liste. Gemini 3.1 Pro devient plus cher quand les prompts dépassent 200K tokens, mais il apporte le stack Google, 1M d'entrée et de bons claims officiels.

Claims de benchmarks

Utiles, mais reportés par les fournisseurs.

Forces listées officiellement

ModèleForces reportéesAttention
Claude Opus 4.7Anthropic parle de gains en code, vision, tâches multi-step, suivi d'instructions et travail professionnelTester la migration de prompts, car un suivi d'instructions plus strict peut changer le comportement
GPT-5.2La page de prix OpenAI confirme la disponibilité publique actuelle et les variantes CodexNe pas reprendre d'anciens claims GPT-5.5
Gemini 3.1 ProGoogle liste GPQA Diamond 94.3%, SWE-Bench Verified 80.6%, Terminal-Bench 68.5%, BrowseComp 85.9%Modèle Preview : comportement et prix peuvent changer
DeepSeek V4 ProDeepSeek dit que V4 Pro mène les modèles ouverts actuels en connaissance générale et les bat en Math/STEM/CodingLes tableaux détaillés en texte sont limités sur la page officielle
DeepSeek V4 FlashDeepSeek dit que Flash se rapproche de V4 Pro en raisonnement et l'égale sur des tâches agents simplesTester sur tes tâches avant de remplacer un modèle plus cher

Code et agents

Claude pour le code dur, DeepSeek pour les workers peu chers, GPT-5.2 pour OpenAI.

Pour du code difficile, je commencerais par Claude Opus 4.7 si le budget suit. Le lancement d'Anthropic vise clairement l'ingénierie logicielle avancée, les tâches longues, le meilleur suivi d'instructions et le travail professionnel. Pour de grands codebases, c'est le premier test premium le plus sûr.

Si ton workflow vit déjà dans l'outillage OpenAI, utilise GPT-5.2 ou GPT-5.2 Codex comme référence officielle actuelle. Les anciens claims GPT-5.5 ne devraient pas guider un achat ou un routing tant qu'OpenAI ne publie pas ce modèle dans ses docs.

Si tu construis un système de routing, DeepSeek V4 Flash est le worker peu cher évident. Utilise-le pour les tâches d'implémentation, l'extraction long contexte et les appels agents à haut volume. Monte vers DeepSeek V4 Pro ou un flagship occidental quand la tâche demande plus de planification, de jugement ou de fiabilité.

Recherche et long contexte

Gemini et DeepSeek comptent tous les deux, mais pas pour la même raison.

Gemini 3.1 Pro a le profil officiel le plus fort pour la recherche dans ce groupe : Google liste 94.3% sur GPQA Diamond, 85.9% sur BrowseComp avec recherche et Python, 1M tokens d'entrée et 64K tokens de sortie. C'est un bon premier test pour recherche, multimodal et workloads intégrés à Google.

DeepSeek V4 est l'exception côté coût sur le long contexte. Si ton workload est surtout "lire beaucoup, extraire, résumer, transformer", V4 Flash mérite le premier benchmark, car l'écart de prix peut changer l'économie du produit.

Sources officielles vérifiées

Sources primaires pour la mise à jour factuelle.

Conclusion

Il n'y a pas de gagnant universel.

Si tu veux une règle simple : Claude Opus 4.7 pour code dur et travail professionnel, GPT-5.2 pour workflows OpenAI actuels, Gemini 3.1 Pro pour recherche et multimodal long contexte, DeepSeek V4 Flash pour volume API 1M contexte à bas coût.

L'ancien angle GPT-5.5 était le principal risque de ce post. C'est corrigé. Pour les détails de migration DeepSeek, lis le guide DeepSeek V4. Pour choisir un workflow plus large, utilise l'AI Model Picker. Pour comparer les dépenses mensuelles entre modèles, utilise le calculateur de coût IA.

Stay ahead of the AI curve

We test new AI tools every week and share honest results. Join our newsletter.