Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/725
Full metadata record
DC FieldValueLanguage
dc.contributor.authorTEBABNA, AHmed RAmi-
dc.date.accessioned2024-10-06T07:37:27Z-
dc.date.available2024-10-06T07:37:27Z-
dc.date.issued2024-
dc.identifier.urihttps://repository.esi-sba.dz/jspui/handle/123456789/725-
dc.descriptionSupervisor : Ms. Bedjaoui Mohameden_US
dc.description.abstractIn the context of enhancing human-computer interaction, this thesis presents the development and evaluation of an intelligent multimodal HCI system incorporating gaze estimation, gesture recognition, and speech recognition. The problem addressed is the need for a more intuitive and seamless user interaction experience. The objective was to integrate advanced computer vision techniques using MediaPipe for real-time gaze and gesture tracking, and Vosk for robust speech recognition, aiming to improve interaction efficiency and accessibility. Comprehensive experiments were conducted to assess the system’s accuracy and responsiveness under various conditions. The results demonstrated significant improvements in interaction fluidity and user satisfaction, highlighting the potential of multimodal HCI systems in diverse applications. In conclusion, the integrated system not only enhances user experience but also sets a precedent for future developments in creating more intuitive and efficient HCI systems. *** Dans le contexte de l’amélioration de l’interaction homme-machine, cet thèse présente le développement et l’évaluation d’un système intelligent d’interaction homme-machine (HCI) multimodal intégrant l’estimation du regard, la reconnaissance des gestes et la reconnaissance vocale. Le problème abordé est la nécessité d’une expérience d’interaction utilisateur plus intuitive et fluide. L’objectif était d’intégrer des techniques avancées de vision par ordinateur utilisant MediaPipe pour le suivi en temps réel du regard et des gestes, et Vosk pour une reconnaissance vocale robuste, visant à améliorer l’efficacité et l’accessibilité de l’interaction. Des expériences complètes ont été menées pour évaluer la précision et la réactivité du système dans diverses conditions. Les résultats ont démontré des améliorations significatives de la fluidité de l’interaction et de la satisfaction des utilisateurs, soulignant le potentiel des systèmes HCI multimodaux dans diverses applications. En conclusion, le système intégré améliore non seulement l’expérience utilisateur, mais établit également un précédent pour les développements futurs dans la création de systèmes HCI plus intuitifs et efficaces.en_US
dc.language.isoenen_US
dc.subjectHuman-computer Interactionen_US
dc.subjectDistributed Systemsen_US
dc.subjectDeep Learningen_US
dc.subjectNatural Language Processingen_US
dc.subjectGestures Recognitionen_US
dc.subjectVoice User Interfaceen_US
dc.titleDevelopment and Evaluation of an Intelligent Multimodal Human-Computer Interaction System Integrating Gaze, Gesture, and Speech Recognitionen_US
dc.typeThesisen_US
Appears in Collections:Ingénieur

Files in This Item:
File Description SizeFormat 
PFE (4) (1) (1)-1-1.pdf74 kBAdobe PDFView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.