DC Field | Value | Language |
dc.contributor.author | BOUCHA, AYmene | - |
dc.contributor.author | BRAHNA, LYnda | - |
dc.date.accessioned | 2024-09-25T13:01:38Z | - |
dc.date.available | 2024-09-25T13:01:38Z | - |
dc.date.issued | 2024 | - |
dc.identifier.uri | https://repository.esi-sba.dz/jspui/handle/123456789/668 | - |
dc.description | Supervisor : Pr. Sidi Mohammed BENSLIMANE / Dr. Sahar BOULKABOUL | en_US |
dc.description.abstract | The visually impaired encounter numerous challenges while navigating their surroundings.
Although traditional aids such as white canes and guide dogs are helpful, they have
limitations. For instance, white canes only provide information about immediate obstacles,
and guide dogs require specific training and can be costly. However, a new generation
of navigation assistance systems is emerging, leveraging modern technologies such as artificial
intelligence, the Internet of Things, visual prompts, conversational text, and voice
recognition. These innovations offer significant potential to provide more comprehensive
information and autonomous, secure navigation methods for the visually impaired.
Visual prompting systems function by using cameras to capture images of the environment,
processing them to identify objects and obstacles. They then generate visual
cues such as arrows, labels, or even 3D representations to show the user the location
of detected elements. Meanwhile, conversational text systems employ natural language
processing to understand user queries and provide them with information about their
environment in a natural and informative manner. For example, users can ask questions
like ”What is that object in the distance?” or ”How can I get to the nearest ATM?” Voice
recognition systems complement this approach by allowing users to give voice commands
such as ”Turn left” or ”Turn right.”
The combination of these technologies opens up new perspectives for navigation among
visually impaired individuals, offering richer information and more intuitive interaction
with the environment. In this context, the objective of this dissertation is to review the
state-of-the-art in different navigation assistance approaches and compare their respective
advantages. By examining the capabilities and limitations of each system, this study aims
to provide recommendations for further improving the autonomy and safety of visually
impaired individuals during their daily travels. ***
Les personnes aveugles rencontrent de nombreux défis lorsqu’elles naviguent dans leur
environnement. Bien que des aides traditionnelles comme les cannes blanches et les chiens
guides soient utiles, elles présentent des limites. Par exemple, les cannes blanches ne fournissent
des informations que sur les obstacles immédiats, et les chiens guides nécessitent
une formation spécifique et peuvent être coûteux. Cependant, une nouvelle génération de
systèmes d’aide à la navigation émerge, exploitant des technologies modernes telles que
l’intelligence artificielle, l’internet des objets, l’incitation visuelle, le texte conversationnel
et la reconnaissance vocale. Ces innovations offrent un potentiel considérable pour fournir
des informations plus complètes et des moyens de navigation plus autonomes et sûrs pour
les personnes aveugles.
Les systèmes d’incitation visuelle fonctionnent en utilisant des caméras pour capturer
des images de l’environnement, puis en les traitant pour identifier les objets et les obstacles.
Ils génèrent ensuite des indications visuelles telles que des flèches, des étiquettes ou même
des représentations en 3D pour montrer à l’utilisateur l’emplacement des éléments détectés.
Parallèlement, les systèmes de texte conversationnel utilisent le traitement du langage
naturel pour comprendre les requêtes des utilisateurs et leur fournir des informations sur
leur environnement de manière naturelle et informative. Par exemple, l’utilisateur peut
poser des questions telles que ”Quel est cet objet au loin ?” ou ”Comment puis-je me
rendre au distributeur automatique le plus proche ?”. Les systèmes de reconnaissance vocale
complètent cette approche en permettant aux utilisateurs de donner des commandes
vocales telles que ”Tourner à gauche” ou ”Tourner à droite”.
L’association de ces technologies ouvre de nouvelles perspectives pour la navigation des
personnes aveugles, offrant des informations plus riches et une interaction plus intuitive
avec l’environnement. Dans ce contexte, l’objectif de ce mémoire est de dresser l’état
de l’art des différentes approches d’aide à la navigation et de comparer leurs avantages
respectifs. En examinant les capacités et les limites de chaque système, cette étude vise à
fournir des recommandations pour améliorer encore davantage l’autonomie et la sécurité
des personnes aveugles lors de leurs déplacements quotidiens. | en_US |
dc.language.iso | en | en_US |
dc.subject | Navigation Assistance | en_US |
dc.subject | Visually Impaired | en_US |
dc.subject | Artificial Intelligence | en_US |
dc.subject | Internet of Things | en_US |
dc.subject | Visual Prompts | en_US |
dc.subject | Voice Recognition | en_US |
dc.title | Navigation Aid System: State of the art | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Master
|