Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/742
Title: Real-time Object Detection in Low Powered Edge Devices
Authors: KREBBAZA, ABdelbaki
YAMANI, MOhamed
Issue Date: 2024
Abstract: Object detection has seen significant development in recent years, particularly due to the increasing demand for smart systems operating at the edge. Modern applications, such as autonomous vehicles, intelligent cameras, and surveillance systems, rely on real-time object detection. However, deploying these applications on low-powered devices poses a major challenge due to the limited computational resources and power constraints. Devices such as NVIDIA Jetson Nano, Raspberry Pi 4 B, and Raspberry Pi 3 have become popular due to their portability and low cost, making them ideal for many smart applications. However, they face significant limitations in terms of performance compared to more powerful machines like computers or servers. This makes it necessary to develop and optimize object detection models that are compatible with such constrained devices. Common models used in this context include SSD-MobileNet, YOLOv3, YOLOv4-Tiny, and Faster R-CNN. Real-time object detection on low-powered edge devices has become an important area of study and research, as intelligent systems must function in real-time with limited resources. Devices like the NVIDIA Jetson Nano, Raspberry Pi 4 B, and Raspberry Pi 3 are widely used due to their affordability and suitability for resource-limited environments. However, these devices struggle with computational and energy constraints. This study evaluates different object detection models on these devices, aiming to strike a balance between precision, inference speed, power consumption, and memory usage. The study concludes that while the Jetson Nano provides superior performance, Raspberry Pi devices, particularly the Raspberry Pi 3, exhibit lower performance due to their limitations. Techniques such as model quantization, pruning, and the use of more efficient neural network architectures are necessary to improve the performance of object detection models on these low-powered devices. *** Au cours des dernières années, les technologies de détection d’objets ont connu un développement remarquable, en particulier avec le besoin croissant de systèmes intelligents fonctionnant à la périphérie des réseaux. De nombreuses applications modernes, telles que les voitures autonomes, les caméras intelligentes et les systèmes de surveillance, reposent sur la détection d’objets en temps réel. Cependant, l’implémentation de ces applications sur des dispositifs à faible consommation d’énergie constitue un défi important en raison des ressources informatiques limitées et de la consommation d’énergie. Les dispositifs à faible consommation d’énergie tels que NVIDIA Jetson Nano, Raspberry Pi 4 B et Raspberry Pi 3 sont devenus populaires grâce à leurs caractéristiques de portabilité et de faible coût, ce qui en fait une option idéale pour de nombreuses applications intelligentes. Cependant, ces dispositifs présentent des limitations importantes en termes de performances par rapport aux appareils plus puissants comme les ordinateurs ou les serveurs. Par conséquent, il est apparu nécessaire de développer et d’améliorer les modèles de détection d’objets pour qu’ils soient compatibles avec ces appareils limités. Parmi les modèles les plus utilisés et adaptés à ces appareils figurent SSD-MobileNet, YOLOv3, YOLOv4-Tiny et Faster R-CNN. La détection d’objets sur des dispositifs à faible consommation d’énergie est devenue un sujet important d’étude et de recherche, car les systèmes intelligents doivent fonctionner en temps réel dans des environnements aux ressources limitées. Les dispositifs NVIDIA Jetson Nano, Raspberry Pi 4 B et Raspberry Pi 3 sont parmi les plus utilisés dans ce contexte, en raison de leur coût abordable et de leur adéquation aux environnements avec des ressources limitées. Néanmoins, ces dispositifs font face à des défis importants en raison de leurs capacités informatiques limitées et de leur consommation d’énergie. Pour répondre à ces besoins, différents modèles de détection d’objets tels que SSDMobileNet, YOLOv3, YOLOv4-Tiny, YOLOv5 et Faster R-CNN ont été développés. Ces modèles visent à trouver un équilibre entre la précision, la vitesse d’inférence, la consommation d’énergie et l’utilisation de la mémoire. Les chercheurs travaillent également à l’amélioration de ces modèles grâce à l’utilisation de techniques telles que la quantification, la réduction de paramètres, ainsi qu’à l’accélération des performances via des processeurs spécialisés comme les unités de traitement graphique (GPU) ou les unités de traitement tensoriel (TPU). La performance de plusieurs modèles de détection d’objets, notamment SSD-MobileNet, YOLOv3, YOLOv4-Tiny, YOLOv5 et Faster R-CNN, a été évaluée sur trois dispositifs à faible consommation d’énergie : NVIDIA Jetson Nano, Raspberry Pi 4 B et Raspberry Pi 3. Cette évaluation repose sur des critères tels que la précision (mAP), le temps d’inférence, la consommation d’énergie, l’utilisation de la mémoire et le nombre d’images par seconde (FPS). Les résultats ont montré que l’appareil Jetson Nano offre les meilleures performances en raison de son support GPU, ce qui lui permet d’exécuter les modèles plus rapidement et de manière plus efficace que les appareils Raspberry Pi. Cependant, les appareils Raspberry Pi, en particulier Raspberry Pi 3, ont montré des performances nettement plus lentes en raison de leurs limitations informatiques et de leur consommation d’énergie élevée. Par exemple, le modèle SSD-MobileNet sur Jetson Nano a affiché une précision de 72%, un temps d’inférence de 30 millisecondes, une consommation d’énergie de 7 watts, et a atteint 28 images par seconde. En revanche, le même modèle sur Raspberry Pi 3 a montré une précision inférieure, un temps d’inférence plus long et une consommation d’énergie plus élevée, ce qui le rend inadapté aux applications nécessitant des performances en temps réel. Les résultats montrent que le modèle Faster R-CNN offre la meilleure précision sur tous les dispositifs, mais il consomme plus d’énergie et nécessite un temps d’inférence plus long, ce qui le rend moins adapté aux dispositifs à faible consommation d’énergie nécessitant un équilibre entre précision et vitesse. D’un autre côté, les modèles YOLOv3 et YOLOv5 offrent un bon équilibre entre précision et vitesse d’inférence, ce qui les rend adaptés aux dispositifs prenant en charge les GPU comme Jetson Nano. Quant au modèle YOLOv4-Tiny, il sacrifie une partie de la précision pour obtenir une plus grande vitesse et une meilleure efficacité énergétique, ce qui le rend plus adapté aux dispositifs limités en ressources. De nombreux défis ont été soulignés lors du déploiement des modèles de détection d’objets sur des dispositifs à faible consommation d’énergie. Alors que le Jetson Nano peut offrir de bonnes performances avec la plupart des modèles et se rapprocher d’une utilisation en temps réel, les appareils Raspberry Pi 4 B et Raspberry Pi 3 ont du mal à gérer les modèles complexes tels que YOLOv3 et Faster R-CNN, en raison des contraintes informatiques et de la consommation énergétique élevée. Les recherches futures devraient se concentrer sur l’optimisation des modèles tels que YOLOv3 et YOLOv5 pour qu’ils fonctionnent sur des dispositifs à faible consommation d’énergie en utilisant des techniques telles que la recherche d’architecture neuronale, la quantification des modèles, et l’accélération matérielle. Il est également possible d’explorer des plateformes matérielles alternatives comme les dispositifs basés sur TPU, tels que Google Coral, pour fournir des solutions plus efficaces pour le calcul en périphérie.
Description: Supervisor : Pr. Abdellatif Rahmoun Co-Supervisor : Dr. Hamdane Bensenane
URI: https://repository.esi-sba.dz/jspui/handle/123456789/742
Appears in Collections:Master

Files in This Item:
File Description SizeFormat 
Master-1-1.pdf94,53 kBAdobe PDFView/Open
Show full item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.