Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/669
Full metadata record
DC FieldValueLanguage
dc.contributor.authorBOUCHA, AYmene-
dc.contributor.authorBRAHNA, LYnda-
dc.date.accessioned2024-09-25T13:05:06Z-
dc.date.available2024-09-25T13:05:06Z-
dc.date.issued2024-
dc.identifier.urihttps://repository.esi-sba.dz/jspui/handle/123456789/669-
dc.descriptionSupervisor : Pr. Sidi Mohammed BENSLIMANE / Dr. Sahar BOULKABOULen_US
dc.description.abstractVisually impaired individuals face challenges in navigating their surroundings, with traditional aids like white canes and guide dogs having limitations. However, emerging navigation assistance systems leverage modern technologies like artificial intelligence and the Internet of Things to offer more comprehensive support. These systems incorporate visual prompts, conversational text, and voice recognition to facilitate autonomous, secure navigation. Visual prompting systems utilize cameras to capture and process environmental images, providing users with visual cues like arrows and labels to identify obstacles. Conversely, conversational text systems employ natural language processing to understand user queries and offer informative responses. Voice recognition systems further enhance interaction by enabling voice commands for navigation. In this thesis, we aim to propose a novel navigation assistance system tailored for the blind and visually impaired, addressing the shortcomings of existing systems while integrating our own enhancements. By evaluating current approaches and identifying their strengths and weaknesses, our study seeks to advance the autonomy and safety of visually impaired individuals in their daily travels. *** Les personnes malvoyantes rencontrent des défis lorsqu’elles naviguent dans leur environnement, avec des aides traditionnelles telles que les cannes blanches et les chiens guides présentant des limites. Cependant, une nouvelle génération de systèmes d’assistance à la navigation utilise des technologies modernes telles que l’intelligence artificielle et l’Internet des objets pour offrir un soutien plus complet. Ces systèmes intègrent des indications visuelles, du texte conversationnel et la reconnaissance vocale pour faciliter une navigation autonome et sécurisée. Les systèmes d’indication visuelle utilisent des caméras pour capturer et traiter les images de l’environnement, fournissant aux utilisateurs des indications visuelles telles que des flèches et des étiquettes pour identifier les obstacles. En revanche, les systèmes de texte conversationnel utilisent le traitement du langage naturel pour comprendre les requêtes des utilisateurs et leur fournir des réponses informatives. Les systèmes de reconnaissance vocale améliorent encore l’interaction en permettant des commandes vocales pour la navigation. Dans cette thèse, nous avons pour objectif de proposer un nouveau système d’assistance à la navigation adapté aux personnes aveugles et malvoyantes, en abordant les lacunes des systèmes existants tout en intégrant nos propres améliorations. En évaluant les approches actuelles et en identifiant leurs forces et faiblesses, notre étude vise à améliorer l’autonomie et la sécurité des personnes malvoyantes dans leurs déplacements quotidiens.en_US
dc.language.isoenen_US
dc.subjectNavigation Assistanceen_US
dc.subjectVisually Impaireden_US
dc.subjectArtificial Intelligenceen_US
dc.subjectInternet of Thingsen_US
dc.subjectVisual Promptsen_US
dc.subjectVoice Recognitionen_US
dc.titleNavigation Aid System for Blind People Using Artificial Intelligence Algorithmsen_US
dc.typeThesisen_US
Appears in Collections:Ingénieur

Files in This Item:
File Description SizeFormat 
Boucha_Brahna_Engineering_Thesis-1-1.pdf69,58 kBAdobe PDFView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.