Ce que vous saurez faire
- Utiliser Mistral Large 3 via API
- Tool use, fine-tuning, hébergement européen
- Codestral pour code
- Comparer coûts vs concurrents
Étape 1 — Installation
pip install mistralai==1.5.0
Étape 2 — Premier appel
from mistralai import Mistral
import os
client = Mistral(api_key=os.environ["MISTRAL_API_KEY"])
r = client.chat.complete(
model="mistral-large-3",
messages=[{"role":"user","content":
"Explique SYSCOHADA révisé en 200 mots."}],
max_tokens=500, temperature=0.2)
print(r.choices[0].message.content)
Étape 3 — Tool use
outils = [{
"type": "function",
"function": {
"name": "get_cours_bceao",
"description": "Taux BCEAO à une date",
"parameters": {
"type":"object",
"properties": {"date":{"type":"string","description":"ISO YYYY-MM-DD"}},
"required": ["date"]
}
}
}]
r = client.chat.complete(
model="mistral-large-3",
tools=outils,
tool_choice="auto",
messages=[{"role":"user","content":"Taux BCEAO du 15 mars 2026?"}])
for bloc in r.choices[0].message.tool_calls or []:
print(bloc.function.name, bloc.function.arguments)
Étape 4 — Codestral pour code
r = client.chat.complete(
model="codestral-latest",
messages=[{"role":"user","content":
"Fonction TS qui calcule DSO depuis liste factures"}],
max_tokens=600)
# Codestral souvent meilleur que Mistral Large sur code
Étape 5 — Embeddings
r = client.embeddings.create(model="mistral-embed",
inputs=["texte à encoder"])
vecteur = r.data[0].embedding # 1024 dims
Étape 6 — Déploiement on-premise vLLM
pip install vllm
# Serveur compatible OpenAI
vllm serve mistralai/Mistral-Small-Instruct-2409 \
--port 8000 --max-model-len 32768 \
--tensor-parallel-size 2
from openai import OpenAI
client = OpenAI(base_url="http://localhost:8000/v1", api_key="token-x")
r = client.chat.completions.create(
model="mistralai/Mistral-Small-Instruct-2409",
messages=[{"role":"user","content":"Hello"}])
Étape 7 — Intégration LangChain
from langchain_mistralai import ChatMistralAI
llm = ChatMistralAI(model="mistral-large-3", temperature=0.2, max_tokens=1024)
r = llm.invoke("Résume ce contrat en 3 puces")
Étape 8 — Prompt système FR pro
Tu es un assistant expert du marché sénégalais. Tu:
- utilises le français africain (CFA, UEMOA, BCEAO, SYSCOHADA)
- connais les codes locaux (noms wolof, peul, serer)
- respectes conventions RCCM et NINEA
- cites le droit OHADA
- parles de Wave, OM, YAS Money (ex-Free Money) comme paiements courants
Étape 9 — Tarifs 2026
mistral-large-3: 2 USD in / 6 USD out / M tokens
mistral-small-3: 0,2 / 0,6
ministral-8b: 0,1 / 0,3
1M in + 300k out:
Mistral Large: 3,8 USD
Claude Sonnet: 7,5 USD
GPT-5 mini: 0,33 USD
Gemini Flash: 0,16 USD
Étape 10 — Quand choisir Mistral
✓ Confidentialité UE stricte (banque, santé, public)
✓ Marchés publics avec hébergeur européen
✓ Budget contraint avec volume output élevé
✓ Fine-tuning abordable
✓ Auto-hébergement (poids publiés Apache 2)
Limites:
- Derrière Claude 4.7 / GPT-5 sur raisonnement complexe
- Écosystème plus petit
- Vision limitée
- Tool use moins mature pour agents multi-étapes
Besoin d'un site web ?
Confiez-nous la Création de Votre Site Web
Site vitrine, e-commerce ou application web — nous transformons votre vision en réalité digitale. Accompagnement personnalisé de A à Z.
À partir de 250.000 FCFA
Parlons de Votre Projet
Publicité