ITSkillsCenter
Intelligence Artificielle

Installer YOLO v11 et Ultralytics : tutoriel pas-à-pas

9 دقائق للقراءة

📍 Article principal : Détection d’objets en 2026 : pipeline YOLO v11 + Ultralytics + Roboflow. Lisez-le d’abord pour comprendre où s’inscrit ce tutoriel d’installation.

Installer YOLO v11 paraît trivial — pip install ultralytics suffit en théorie. En pratique, sur une machine vierge, la chaîne complète (driver NVIDIA, CUDA, cuDNN, Python, PyTorch, Ultralytics) compte une demi-douzaine de pièges qui font perdre une demi-journée à un développeur sans repère. Ce tutoriel vous fait passer méthodiquement de la machine nue à un yolo predict qui détecte des chiens, des bus et des panneaux sur une image de test, en validant à chaque étape que tout est en ordre. La méthode est compatible Windows 11, Ubuntu 22.04 LTS et Ubuntu 24.04 LTS, avec les variantes signalées au fur et à mesure.

Prérequis

  • Une carte NVIDIA avec architecture Pascal ou plus récente (GTX 10xx, RTX 20xx, RTX 30xx, RTX 40xx, RTX 50xx). Sans GPU NVIDIA, la version CPU fonctionne mais sera dix à trente fois plus lente.
  • Au moins 16 Go de RAM système (32 Go recommandés pour entraînement).
  • 20 Go d’espace disque libre pour Python, PyTorch et les checkpoints.
  • Une connexion internet stable pour télécharger PyTorch (~2 Go) et les checkpoints YOLO v11 (5 à 110 Mo selon la taille).
  • Niveau attendu : développeur à l’aise en ligne de commande, débutant en deep learning accepté.
  • Temps estimé : 45 minutes la première fois, 5 minutes les suivantes.

Étape 1 — Vérifier la carte graphique et le driver NVIDIA

Avant tout, il faut s’assurer que la machine voit bien la carte graphique et qu’un driver NVIDIA récent est en place. Le driver est ce qui permet au système de communiquer avec le GPU ; sans driver à jour, PyTorch refusera d’utiliser la carte ou plantera silencieusement. Sur Windows, la vérification se fait avec l’outil intégré nvidia-smi qui affiche carte, version du driver et version de CUDA disponible. Ouvrez un terminal PowerShell et exécutez :

nvidia-smi

La sortie attendue affiche un en-tête avec « NVIDIA-SMI » suivi du numéro de version du driver, puis le nom de votre carte (par exemple NVIDIA GeForce RTX 3060), la mémoire utilisée, et la « CUDA Version » que le driver supporte (par exemple 12.4). Cette version n’est pas la version de CUDA installée sur votre machine — c’est la version maximale supportée par le driver. Si la commande échoue avec « command not found » ou « n’est pas reconnue », téléchargez et installez le dernier driver « Game Ready » ou « Studio » sur nvidia.com/Download. Sur Ubuntu, utilisez le pilote propriétaire via sudo ubuntu-drivers autoinstall puis redémarrez.

Une fois nvidia-smi qui répond et qui montre votre carte avec une CUDA Version supérieure ou égale à 11.8, vous êtes prêt pour la suite. Notez la valeur affichée — elle servira au choix de la roue PyTorch à l’étape 3.

Étape 2 — Installer Python et créer un environnement virtuel

Ultralytics et PyTorch demandent un Python relativement récent. Python 3.11 est le compromis idéal en 2026 : suffisamment récent pour bénéficier des optimisations de performance, suffisamment éprouvé pour que toutes les dépendances binaires (numpy, opencv-python, torch) soient disponibles en wheel précompilée. Travailler dans un environnement virtuel (venv) plutôt que sur le Python global est une discipline non négociable : cela isole les dépendances de ce projet et évite les conflits avec d’autres outils Python que vous installeriez plus tard.

Sur Windows, télécharger l’installeur officiel sur python.org/downloads (cocher Add Python to PATH). Sur Ubuntu, Python 3.11 est dans les dépôts à partir de 22.04 :

# Ubuntu
sudo apt update
sudo apt install -y python3.11 python3.11-venv python3-pip

# Vérification
python3.11 --version

# Création de l'environnement
mkdir ~/yolo-v11 && cd ~/yolo-v11
python3.11 -m venv .venv
source .venv/bin/activate

# Sur Windows PowerShell, l'activation est différente :
# python -m venv .venv
# ..venvScriptsActivate.ps1

Après activation, votre prompt doit afficher (.venv) en préfixe. Toute commande pip ou python exécutée dans ce terminal pointera maintenant exclusivement sur l’environnement virtuel. Mettez à jour pip pour éviter les bugs de résolution de dépendances : pip install -U pip. La sortie doit indiquer une version supérieure ou égale à 24.0.

Étape 3 — Installer PyTorch avec support CUDA

PyTorch est le moteur de calcul derrière YOLO v11. Il existe plusieurs distributions binaires selon la version de CUDA visée. Le piège classique est d’installer la version CPU par défaut depuis PyPI (pip install torch), qui marche mais qui ignore la carte graphique. Il faut explicitement choisir la roue CUDA. La page officielle pytorch.org/get-started/locally génère la commande exacte selon votre OS et votre CUDA. Pour la majorité des configurations 2026 avec un driver récent, la commande pour CUDA 12.4 est :

pip install torch torchvision --index-url https://download.pytorch.org/whl/cu124

Le téléchargement fait environ 2,5 Go ; comptez 5 à 10 minutes selon la connexion. À la fin, vérifiez immédiatement que PyTorch voit bien le GPU, sinon les étapes suivantes installeraient YOLO sur une base CPU sans le savoir :

python -c "import torch; print('CUDA:', torch.cuda.is_available()); print('Device:', torch.cuda.get_device_name(0) if torch.cuda.is_available() else 'CPU')"

La sortie attendue est CUDA: True suivi du nom de votre carte (par exemple NVIDIA GeForce RTX 3060). Si CUDA: False, la roue installée est la version CPU — désinstaller (pip uninstall torch torchvision) et recommencer en vérifiant l’index URL. Si une erreur « CUDA driver version is insufficient » apparaît, votre driver est trop ancien : repassez par l’étape 1.

Étape 4 — Installer Ultralytics

Avec PyTorch fonctionnel sur GPU, l’installation d’Ultralytics se résume à une commande, conformément au Quickstart officiel. Le package gère lui-même ses dépendances tierces (opencv-python, matplotlib, pillow, pyyaml…) via PyPI :

pip install -U ultralytics

L’installation prend une minute environ. Vérifiez qu’elle a réussi en demandant la version :

yolo version
# ou
python -c "import ultralytics; print(ultralytics.__version__)"

Vous devez voir un numéro de version du type 8.3.x ou plus récent (la lignée 8.3.x couvre YOLO v11 chez Ultralytics, le numéro de version du package est découplé de la nomenclature des modèles). Si yolo n’est pas trouvé, vérifiez que l’environnement virtuel est bien activé. Sur Windows, le binaire yolo.exe est placé dans .venvScripts.

Étape 5 — Première inférence sur une image de test

Le test de validation le plus parlant est de lancer une détection sur une image fournie par Ultralytics et de regarder le résultat annoté. Cette commande télécharge le checkpoint YOLO11n (5,2 Mo) la première fois puis l’utilise pour détecter les objets dans une image hébergée sur ultralytics.com. Lancez :

yolo predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg' save=True

La sortie attendue commence par un téléchargement Downloading https://github.com/ultralytics/assets/releases/…/yolo11n.pt, puis une ligne d’inférence du type image 1/1 …/bus.jpg: 640×480 4 persons, 1 bus, 12.5ms. À la fin, le chemin du fichier annoté est imprimé, généralement runs/detect/predict/bus.jpg. Ouvrez ce fichier : vous devez voir des boîtes englobantes étiquetées « person » et « bus » sur l’image.

Si l’inférence échoue avec une erreur réseau, téléchargez le checkpoint manuellement depuis les releases du repo ultralytics/assets et placez-le dans le répertoire courant. Si elle réussit mais affiche une latence supérieure à 50 ms, c’est probablement que vous tournez sur CPU malgré tout — revérifiez l’étape 3.

Étape 6 — Vérifier que le GPU est effectivement utilisé

Une dernière vérification permet d’éviter les mauvaises surprises lors d’un entraînement de plusieurs heures qui, s’il tourne sur CPU sans qu’on le sache, peut être 30 fois plus lent que prévu. Pendant qu’une inférence ou un entraînement tourne, ouvrez un second terminal et exécutez :

nvidia-smi

Dans la table des processus en bas de l’affichage, vous devez voir un processus python ou yolo avec une utilisation GPU non nulle (colonne « GPU-Util » à plus de 0 %, mémoire « Memory » à plusieurs centaines de Mo). Si la liste est vide ou si la mémoire reste à 0, la commande tourne en CPU malgré le GPU disponible. Forcer GPU en ajoutant device=0 à la commande YOLO :

yolo predict model=yolo11n.pt source='https://ultralytics.com/images/bus.jpg' device=0 save=True

Cette flag indique à PyTorch d’utiliser explicitement le GPU 0. La latence doit chuter à 1-3 ms pour YOLO11n sur une RTX 3060 ou supérieure. Si la commande échoue avec « no CUDA-capable device is detected », alors PyTorch n’a pas été installé avec le support CUDA — refaire l’étape 3.

Erreurs fréquentes

Erreur Cause Solution
torch.cuda.is_available() == False alors que nvidia-smi marche Roue PyTorch CPU installée par défaut Désinstaller et réinstaller avec l’index URL CUDA approprié.
« no module named ultralytics » Environnement virtuel non activé Activer le venv (source .venv/bin/activate ou Activate.ps1).
Latence inférence à 80 ms+ sur YOLO11n Inférence sur CPU malgré GPU disponible Forcer device=0 dans la commande YOLO.
SSL Error au téléchargement du checkpoint Pare-feu corporate ou proxy Télécharger manuellement depuis github.com/ultralytics/assets/releases puis pointer model=./yolo11n.pt.
CUDA OOM dès la première inférence Une autre application occupe la VRAM (Chrome, jeu, autre script Python) Fermer ces applications, vérifier avec nvidia-smi que la mémoire libre dépasse 1 Go.
Permission denied à l’écriture runs/ Répertoire courant non accessible en écriture Se placer dans un répertoire utilisateur (cd ~/yolo-v11).

Tutoriels associés

Pour aller plus loin

Une fois cette installation validée, la suite naturelle est l’entraînement sur un dataset personnel via Roboflow, puis le passage à l’inférence accélérée TensorRT pour la production.

Sponsoriser ce contenu

Cet emplacement est à vous

Position premium en fin d'article — c'est l'instant où les lecteurs sont le plus engagés. Réservez cet espace pour votre marque, votre formation ou votre offre.

Recevoir nos tarifs
Publicité