Skip to content

Commit 2f2c97b

Browse files
authored
Update README.md
1 parent a38d277 commit 2f2c97b

File tree

1 file changed

+16
-7
lines changed

1 file changed

+16
-7
lines changed

README.md

Lines changed: 16 additions & 7 deletions
Original file line numberDiff line numberDiff line change
@@ -1,15 +1,24 @@
11
# UCIA_ObjectDetection
22
Ce projet vise à exploiter sur RPi4 un réseau de neurones de la famille YOLO (**yolov8n**, **yolov8s**, **yolo11n**, **yolo11s**) entraîné à détecter dans des images trois types d’objets (sphère, cube, étoile) situés en face du robot portant la caméra, dans un rayon de 5 à 45 cm.
33

4-
Le projet détaille :
5-
- la création des images d'entraînement avec la caméra de la RPi4,
6-
- l'annotation des images d'entraînement sur le site **roboflow**,
7-
- l'entraînnement de réseaux YOLO (yolov8n, yolov8s, yolo11n, yolo11s) sur un PC de calcul muni d'une carte Nvidia, avec exploration des valeurs des méta-paramètre d'entraînement : **batchsize** (2, 4, 8, 16, 20, 30) et **epochs** (20, 40, 60, 80, 100), pour trouver la combinaison donnant le meilleur rapport "temps d'inférence / performance".
4+
Un première étude préliminaire (V1) est menée avec 62 images annotées contenant 10 objets chacune, obtenue avec la caméra Raspberrypy Standard.
5+
Les objectifs sont :
6+
- tester la faisabilité d'entraîner un réseau YOLO avec ces images,
7+
- évaluer le temps d'inférence sur RPi4 d'un réseau YOLO entraîné à la détection des objets 3D.
8+
À la suite de cette étude, le temps d'inférence trouvé est de l'ordre de 0.5 seconde sur RPi4, avec des détections d'objets très satisfaisante.
89

9-
Les meilleures version du réseau YOLO entraîné sont exportées sur RPI4 aux formats ONNX et NCNN pour tester leurs temps d'inférence et leurs performances à détecter correctement les objets appris.
10+
La deuxième étude vise à consolider l'étude préliminaire en utilisant la configuration matérielle préconisée dans le CDC du projet UCIA : Carte RPi4 équipée de la caméra RaspberryPi Grand Angle, fixée sur le robot Thymio à l'aide d'un support plexiglass. On retrouve les étapes de l'étude préliminaire :
11+
- création de 200 images de 12 objets chacune avec la caméra "Grand Angle",
12+
- annotation des images sur le site **roboflow**,
13+
- entraînnement des 4 réseaux YOLO (yolov8n, yolov8s, yolo11n, yolo11s) sur un PC de calcul muni d'une carte Nvidia, avec exploration des valeurs des méta-paramètre d'entraînement :
14+
- **batch** (2, 4, 8, 16, 32)
15+
- **epochs** (20, 40, 60, 80, 100),
16+
Le but est de trouver la combinaison des valeurs de **batc** et de **epchos** donnant le meilleur rapport "temps d'inférence / performance".
1017

11-
Les tests sur RPi4 donnent des temps d'inférence inférieurs à la secondes, avec de bons score de détection pour les réseaux.
18+
Les meilleures version du réseau YOLO entraîné sont exportées sur RPI4 au formats NCNN pour tester leurs temps d'inférence et leurs performances à détecter correctement les objets appris.
1219

13-
Ce dépôt GiHub ne contient pas les fichiers binaires des réseaux YOLO (**yolov8n**, **yolov8s**, **yolo11n**, **yolo11s**) entraînés pour les différentes valeurs des méta-paramètres **batchsize** (2, 4, 8, 16, 20, 30) et **epochs** (20, 40, 60, 80, 100). Pour les construire, il faut entraîner les réseaux YOLO (si possible sur un PC muni d'une carte graphique) avec les procédures et les programmes Python décrits dans le rapport d'étude (voir dossier Doc).
20+
Les tests sur RPi4 donnent des temps d'inférence inférieurs à la secondes, avec de très bons score de détection.
21+
22+
Ce dépôt GiHub ne contient pas les fichiers binaires des réseaux YOLO (**yolov8n**, **yolov8s**, **yolo11n**, **yolo11s**) entraînés pour les différentes valeurs des méta-paramètres **batchsize** (2, 4, 8, 16, 32) et **epochs** (20, 40, 60, 80, 100). Pour les construire, il faut entraîner les réseaux YOLO (si possible sur un PC muni d'une carte graphique) avec les procédures et les programmes Python décrits dans le rapport d'étude (voir dossier Doc).
1423

1524

0 commit comments

Comments
 (0)