DC Field | Value | Language |
dc.contributor.author | BOUCHA, AYmene | - |
dc.contributor.author | BRAHNA, LYnda | - |
dc.date.accessioned | 2024-09-25T13:05:06Z | - |
dc.date.available | 2024-09-25T13:05:06Z | - |
dc.date.issued | 2024 | - |
dc.identifier.uri | https://repository.esi-sba.dz/jspui/handle/123456789/669 | - |
dc.description | Supervisor : Pr. Sidi Mohammed BENSLIMANE / Dr. Sahar BOULKABOUL | en_US |
dc.description.abstract | Visually impaired individuals face challenges in navigating their surroundings, with
traditional aids like white canes and guide dogs having limitations. However, emerging
navigation assistance systems leverage modern technologies like artificial intelligence and
the Internet of Things to offer more comprehensive support. These systems incorporate
visual prompts, conversational text, and voice recognition to facilitate autonomous, secure
navigation.
Visual prompting systems utilize cameras to capture and process environmental images,
providing users with visual cues like arrows and labels to identify obstacles. Conversely,
conversational text systems employ natural language processing to understand
user queries and offer informative responses. Voice recognition systems further enhance
interaction by enabling voice commands for navigation.
In this thesis, we aim to propose a novel navigation assistance system tailored for
the blind and visually impaired, addressing the shortcomings of existing systems while
integrating our own enhancements. By evaluating current approaches and identifying
their strengths and weaknesses, our study seeks to advance the autonomy and safety of
visually impaired individuals in their daily travels. ***
Les personnes malvoyantes rencontrent des défis lorsqu’elles naviguent dans leur environnement,
avec des aides traditionnelles telles que les cannes blanches et les chiens guides
présentant des limites. Cependant, une nouvelle génération de systèmes d’assistance à la
navigation utilise des technologies modernes telles que l’intelligence artificielle et l’Internet
des objets pour offrir un soutien plus complet. Ces systèmes intègrent des indications visuelles,
du texte conversationnel et la reconnaissance vocale pour faciliter une navigation
autonome et sécurisée.
Les systèmes d’indication visuelle utilisent des caméras pour capturer et traiter les
images de l’environnement, fournissant aux utilisateurs des indications visuelles telles
que des flèches et des étiquettes pour identifier les obstacles. En revanche, les systèmes
de texte conversationnel utilisent le traitement du langage naturel pour comprendre les
requêtes des utilisateurs et leur fournir des réponses informatives. Les systèmes de reconnaissance
vocale améliorent encore l’interaction en permettant des commandes vocales
pour la navigation.
Dans cette thèse, nous avons pour objectif de proposer un nouveau système d’assistance
à la navigation adapté aux personnes aveugles et malvoyantes, en abordant les lacunes
des systèmes existants tout en intégrant nos propres améliorations. En évaluant les approches
actuelles et en identifiant leurs forces et faiblesses, notre étude vise à améliorer
l’autonomie et la sécurité des personnes malvoyantes dans leurs déplacements quotidiens. | en_US |
dc.language.iso | en | en_US |
dc.subject | Navigation Assistance | en_US |
dc.subject | Visually Impaired | en_US |
dc.subject | Artificial Intelligence | en_US |
dc.subject | Internet of Things | en_US |
dc.subject | Visual Prompts | en_US |
dc.subject | Voice Recognition | en_US |
dc.title | Navigation Aid System for Blind People Using Artificial Intelligence Algorithms | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Ingénieur
|