DC Field | Value | Language |
dc.contributor.author | HAMMA, RAhma | - |
dc.contributor.author | BOUMARAF, MAlak | - |
dc.date.accessioned | 2023-10-15T07:32:26Z | - |
dc.date.available | 2023-10-15T07:32:26Z | - |
dc.date.issued | 2023 | - |
dc.identifier.uri | https://repository.esi-sba.dz/jspui/handle/123456789/473 | - |
dc.description | Supervisor : Pr. Sidi Mohammed BENSLIMANE / Co-supervisor : Dr. Mohamed Walid ATTAOUI | en_US |
dc.description.abstract | Abstract :
In this thesis, we propose a Deep Q-Network (DQN) approach to develop an autonomous
vehicle system enabling path understanding and collision avoidance. The
purpose of this work is to simulate a scenario and train a DQN algorithm in a virtual
environment using the CARLA simulator.
We create a reward function to simulate human driving behavior using a continuum
equation designed specifically for this case.
The results show that the proposed method can navigate to the goal without colliding
with obstacles. Furthermore, by analyzing the behavior of the DQN algorithm,
it is clear that increasing the number of training sets leads to better results.
This approach, involving non-global path planning, is effectively implemented on
virtual environment platforms. This differentiation sets it apart from other autonomous
vehicle designs because it can be easily tested in simulations and opens
up opportunities for additional experiments in future research.***
Résumé :
Dans ce memoire, nous proposons une approche Deep Q-Network (DQN) pour
d´evelopper Syst`emes de v´ehicules permettant de concevoir la trajectoire et d’´eviter
les collisions. Le but de ce travail est de simuler un sc´enario et de former un algorithme
DQN dans un environnement virtuel utilisant le simulateur CARLA. Cr´eer
une fonction de r´ecompense pour simuler le comportement de conduite humaine en
utilisant une ´equation de continuum con¸cue sp´ecifiquement pour ce cas.
Les r´esultats montrent que la m´ethode peut naviguer vers le but sans entrer en
collision avec des obstacles.En outre, en analysant le comportement de DQN, il est
clair qu’augmenter le nombre de jeux de formation conduit `a de meilleurs r´esultats.
Cette approche particuli`ere qui comprend la planification des voies non mondiales
est mise en oeuvre efficacement sur les plateformes d’environnement virtuel.
Cette diff´erenciation la distingue des autres mod`eles de v´ehicules autonomes parce
qu’elle peut ˆetre facilement test´ee dans des simulations et ouvre des possibilit´es
d’exp´eriences suppl´ementaires dans des recherches futures. | en_US |
dc.language.iso | en | en_US |
dc.title | Applying Deep Reinforcement Learning for Autonomous Driving in CARLA Simulator | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Ingénieur
|