Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/473
Full metadata record
DC FieldValueLanguage
dc.contributor.authorHAMMA, RAhma-
dc.contributor.authorBOUMARAF, MAlak-
dc.date.accessioned2023-10-15T07:32:26Z-
dc.date.available2023-10-15T07:32:26Z-
dc.date.issued2023-
dc.identifier.urihttps://repository.esi-sba.dz/jspui/handle/123456789/473-
dc.descriptionSupervisor : Pr. Sidi Mohammed BENSLIMANE / Co-supervisor : Dr. Mohamed Walid ATTAOUIen_US
dc.description.abstractAbstract : In this thesis, we propose a Deep Q-Network (DQN) approach to develop an autonomous vehicle system enabling path understanding and collision avoidance. The purpose of this work is to simulate a scenario and train a DQN algorithm in a virtual environment using the CARLA simulator. We create a reward function to simulate human driving behavior using a continuum equation designed specifically for this case. The results show that the proposed method can navigate to the goal without colliding with obstacles. Furthermore, by analyzing the behavior of the DQN algorithm, it is clear that increasing the number of training sets leads to better results. This approach, involving non-global path planning, is effectively implemented on virtual environment platforms. This differentiation sets it apart from other autonomous vehicle designs because it can be easily tested in simulations and opens up opportunities for additional experiments in future research.*** Résumé : Dans ce memoire, nous proposons une approche Deep Q-Network (DQN) pour d´evelopper Syst`emes de v´ehicules permettant de concevoir la trajectoire et d’´eviter les collisions. Le but de ce travail est de simuler un sc´enario et de former un algorithme DQN dans un environnement virtuel utilisant le simulateur CARLA. Cr´eer une fonction de r´ecompense pour simuler le comportement de conduite humaine en utilisant une ´equation de continuum con¸cue sp´ecifiquement pour ce cas. Les r´esultats montrent que la m´ethode peut naviguer vers le but sans entrer en collision avec des obstacles.En outre, en analysant le comportement de DQN, il est clair qu’augmenter le nombre de jeux de formation conduit `a de meilleurs r´esultats. Cette approche particuli`ere qui comprend la planification des voies non mondiales est mise en oeuvre efficacement sur les plateformes d’environnement virtuel. Cette diff´erenciation la distingue des autres mod`eles de v´ehicules autonomes parce qu’elle peut ˆetre facilement test´ee dans des simulations et ouvre des possibilit´es d’exp´eriences suppl´ementaires dans des recherches futures.en_US
dc.language.isoenen_US
dc.titleApplying Deep Reinforcement Learning for Autonomous Driving in CARLA Simulatoren_US
dc.typeThesisen_US
Appears in Collections:Ingénieur

Files in This Item:
File Description SizeFormat 
PFE_Final-1-1.pdf62,79 kBAdobe PDFView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.