📚 Cet article s’intègre dans le parcours IA d’ITSkillsCenter. Pour la vue d’ensemble — Claude, ChatGPT, RAG, agents, Ollama, plan 90 jours — voir le panorama IA pour PME francophones 2026.
Ce que vous saurez faire
- Comparer Claude 4.7, GPT-5, Gemini 2.5
- Benchmark reproductible
- Choisir le bon modèle par tâche
- Architecture hybride
Étape 1 — État de l’art 2026
Claude Opus 4.7: contexte 1M, best raisonnement/code
Claude Sonnet 4.6: contexte 500k, équilibre
Claude Haiku 4.5: contexte 500k, rapide peu cher
GPT-5: contexte 1M, multi-modal vidéo temps réel
GPT-5 mini: 400k, très rapide, pas cher
Gemini 2.5 Pro: contexte 2M, grounding Google
Gemini 2.5 Flash: 1M, très rapide, pas cher
Étape 2 — Installation
pip install anthropic openai google-genai
Étape 3 — Benchmark reproductible
import os, time
from anthropic import Anthropic
from openai import OpenAI
from google import genai
anthro = Anthropic()
oai = OpenAI()
gem = genai.Client(api_key=os.environ["GEMINI_API_KEY"])
TESTS = [
("reasoning", "3 amis partagent une pizza. Aminata 3/8, Ousmane 1/4, "
"Fatou le reste. Chaque part de Fatou pèse 45g. "
"Poids total pizza?"),
("code", "Fonction Python TVA 18% Sénégal, arrondi FCFA supérieur, "
"retourne (tva, ttc)."),
("fr", "Email formel français pour demander RDV au DRH, 80 mots."),
]
providers = {
"claude-sonnet-4-6": lambda p: anthro.messages.create(
model="claude-sonnet-4-6", max_tokens=512,
messages=[{"role":"user","content":p}]).content[0].text,
"gpt-5-mini": lambda p: oai.chat.completions.create(
model="gpt-5-mini", max_tokens=512,
messages=[{"role":"user","content":p}]).choices[0].message.content,
"gemini-2.5-flash": lambda p: gem.models.generate_content(
model="gemini-2.5-flash", contents=p).text,
}
for test_name, prompt in TESTS:
print(f"\n=== {test_name} ===")
for nom, appel in providers.items():
t = time.time()
out = appel(prompt)
dt = (time.time()-t) * 1000
print(f"{nom:22s} {dt:6.0f}ms | {out[:80]}...")
Étape 4 — Tarifs nov 2025
Modèle in (USD/M) out (USD/M)
Claude Opus 4.7 15 75
Claude Sonnet 4.6 3 15
Claude Haiku 4.5 0,25 1,25
GPT-5 10 40
GPT-5 mini 0,15 0,60
Gemini 2.5 Pro 1,25 5
Gemini 2.5 Flash 0,075 0,30
Pour 1M in + 300k out/mois:
Claude Sonnet: 7,5 USD
GPT-5 mini: 0,33 USD
Gemini Flash: 0,16 USD
Étape 5 — Forces mesurées
Tâche Claude 4.7 GPT-5 Gemini 2.5 Pro
SWE-bench (code) 72% 68% 65%
MMLU (général) 91% 91% 90%
HumanEval (Python) 96% 94% 93%
MATH 87% 89% 88%
Vision vidéo RT moyen best bon
FR nuancé excellent bon excellent
Long context 1M+ bon moyen best
Tool use / agents best bon bon
Étape 6 — Choix par cas d’usage
Développement/debug: Claude Opus 4.7 ou Sonnet 4.6
Automation low-cost: GPT-5 mini ou Gemini Flash
Longs documents PDF: Gemini 2.5 Pro (2M tokens)
Agents tool use: Claude 4.7
Rédaction FR soignée: Claude ou Gemini
Vision temps réel: GPT-5 realtime
Multimodal vidéo+voix: GPT-5 ou Gemini 2.5
Étape 7 — OpenRouter pour multi-providers
from openai import OpenAI
client = OpenAI(
base_url="https://openrouter.ai/api/v1",
api_key=os.environ["OPENROUTER_KEY"])
for model in ["anthropic/claude-sonnet-4.6", "openai/gpt-5-mini", "google/gemini-2.5-flash"]:
r = client.chat.completions.create(
model=model,
messages=[{"role":"user","content":"Hello"}])
print(model, r.choices[0].message.content)
Étape 8 — Prompt caching game-changer
Claude: cache_control ephemeral → -90% sur portion cachée
OpenAI: automatique sur préfixes ≥ 1024 tokens répétés
Gemini: Context caching payant (0,075 USD/M/heure)
System 3000 tokens utilisé 100x/h:
Sans cache: 4,5 USD/h
Avec cache: 0,45 USD/h
Étape 9 — Sécurité
Les 3 providers:
✓ Pas d'entraînement sur data API par défaut
✓ Chiffrement TLS 1.3 + AES-256 au repos
✓ DPA RGPD disponibles
✓ Certifications SOC2, ISO 27001
Anthropic: HIPAA disponible
OpenAI: BAA disponible
Google: Vertex AI audit complet
Étape 10 — Recommandation par taille
TPE: ChatGPT Plus 20 USD/mo tout-en-un
PME 10-50: Anthropic API (Haiku auto, Sonnet complexe) ~80 USD/mo
PME 50-250: multi-provider via OpenRouter + LangSmith ~300-800 USD/mo
Grande entreprise: Vertex AI (Gemini) ou Bedrock (Claude) pour compliance