Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/668
Full metadata record
DC FieldValueLanguage
dc.contributor.authorBOUCHA, AYmene-
dc.contributor.authorBRAHNA, LYnda-
dc.date.accessioned2024-09-25T13:01:38Z-
dc.date.available2024-09-25T13:01:38Z-
dc.date.issued2024-
dc.identifier.urihttps://repository.esi-sba.dz/jspui/handle/123456789/668-
dc.descriptionSupervisor : Pr. Sidi Mohammed BENSLIMANE / Dr. Sahar BOULKABOULen_US
dc.description.abstractThe visually impaired encounter numerous challenges while navigating their surroundings. Although traditional aids such as white canes and guide dogs are helpful, they have limitations. For instance, white canes only provide information about immediate obstacles, and guide dogs require specific training and can be costly. However, a new generation of navigation assistance systems is emerging, leveraging modern technologies such as artificial intelligence, the Internet of Things, visual prompts, conversational text, and voice recognition. These innovations offer significant potential to provide more comprehensive information and autonomous, secure navigation methods for the visually impaired. Visual prompting systems function by using cameras to capture images of the environment, processing them to identify objects and obstacles. They then generate visual cues such as arrows, labels, or even 3D representations to show the user the location of detected elements. Meanwhile, conversational text systems employ natural language processing to understand user queries and provide them with information about their environment in a natural and informative manner. For example, users can ask questions like ”What is that object in the distance?” or ”How can I get to the nearest ATM?” Voice recognition systems complement this approach by allowing users to give voice commands such as ”Turn left” or ”Turn right.” The combination of these technologies opens up new perspectives for navigation among visually impaired individuals, offering richer information and more intuitive interaction with the environment. In this context, the objective of this dissertation is to review the state-of-the-art in different navigation assistance approaches and compare their respective advantages. By examining the capabilities and limitations of each system, this study aims to provide recommendations for further improving the autonomy and safety of visually impaired individuals during their daily travels. *** Les personnes aveugles rencontrent de nombreux défis lorsqu’elles naviguent dans leur environnement. Bien que des aides traditionnelles comme les cannes blanches et les chiens guides soient utiles, elles présentent des limites. Par exemple, les cannes blanches ne fournissent des informations que sur les obstacles immédiats, et les chiens guides nécessitent une formation spécifique et peuvent être coûteux. Cependant, une nouvelle génération de systèmes d’aide à la navigation émerge, exploitant des technologies modernes telles que l’intelligence artificielle, l’internet des objets, l’incitation visuelle, le texte conversationnel et la reconnaissance vocale. Ces innovations offrent un potentiel considérable pour fournir des informations plus complètes et des moyens de navigation plus autonomes et sûrs pour les personnes aveugles. Les systèmes d’incitation visuelle fonctionnent en utilisant des caméras pour capturer des images de l’environnement, puis en les traitant pour identifier les objets et les obstacles. Ils génèrent ensuite des indications visuelles telles que des flèches, des étiquettes ou même des représentations en 3D pour montrer à l’utilisateur l’emplacement des éléments détectés. Parallèlement, les systèmes de texte conversationnel utilisent le traitement du langage naturel pour comprendre les requêtes des utilisateurs et leur fournir des informations sur leur environnement de manière naturelle et informative. Par exemple, l’utilisateur peut poser des questions telles que ”Quel est cet objet au loin ?” ou ”Comment puis-je me rendre au distributeur automatique le plus proche ?”. Les systèmes de reconnaissance vocale complètent cette approche en permettant aux utilisateurs de donner des commandes vocales telles que ”Tourner à gauche” ou ”Tourner à droite”. L’association de ces technologies ouvre de nouvelles perspectives pour la navigation des personnes aveugles, offrant des informations plus riches et une interaction plus intuitive avec l’environnement. Dans ce contexte, l’objectif de ce mémoire est de dresser l’état de l’art des différentes approches d’aide à la navigation et de comparer leurs avantages respectifs. En examinant les capacités et les limites de chaque système, cette étude vise à fournir des recommandations pour améliorer encore davantage l’autonomie et la sécurité des personnes aveugles lors de leurs déplacements quotidiens.en_US
dc.language.isoenen_US
dc.subjectNavigation Assistanceen_US
dc.subjectVisually Impaireden_US
dc.subjectArtificial Intelligenceen_US
dc.subjectInternet of Thingsen_US
dc.subjectVisual Promptsen_US
dc.subjectVoice Recognitionen_US
dc.titleNavigation Aid System: State of the arten_US
dc.typeThesisen_US
Appears in Collections:Master

Files in This Item:
File Description SizeFormat 
Boucha_Brahna_Master_Thesis-1-1.pdf74,82 kBAdobe PDFView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.