DC Field | Value | Language |
dc.contributor.author | TEBABNA, AHmed RAmi | - |
dc.date.accessioned | 2024-10-06T07:37:27Z | - |
dc.date.available | 2024-10-06T07:37:27Z | - |
dc.date.issued | 2024 | - |
dc.identifier.uri | https://repository.esi-sba.dz/jspui/handle/123456789/725 | - |
dc.description | Supervisor : Ms. Bedjaoui Mohamed | en_US |
dc.description.abstract | In the context of enhancing human-computer interaction, this thesis presents the development
and evaluation of an intelligent multimodal HCI system incorporating gaze estimation,
gesture recognition, and speech recognition. The problem addressed is the need for a more
intuitive and seamless user interaction experience. The objective was to integrate advanced
computer vision techniques using MediaPipe for real-time gaze and gesture tracking, and Vosk
for robust speech recognition, aiming to improve interaction efficiency and accessibility. Comprehensive
experiments were conducted to assess the system’s accuracy and responsiveness
under various conditions. The results demonstrated significant improvements in interaction
fluidity and user satisfaction, highlighting the potential of multimodal HCI systems in diverse
applications. In conclusion, the integrated system not only enhances user experience but also
sets a precedent for future developments in creating more intuitive and efficient HCI systems. ***
Dans le contexte de l’amélioration de l’interaction homme-machine, cet thèse présente le développement
et l’évaluation d’un système intelligent d’interaction homme-machine (HCI) multimodal intégrant
l’estimation du regard, la reconnaissance des gestes et la reconnaissance vocale. Le problème
abordé est la nécessité d’une expérience d’interaction utilisateur plus intuitive et fluide. L’objectif
était d’intégrer des techniques avancées de vision par ordinateur utilisant MediaPipe pour le suivi
en temps réel du regard et des gestes, et Vosk pour une reconnaissance vocale robuste, visant à
améliorer l’efficacité et l’accessibilité de l’interaction. Des expériences complètes ont été menées
pour évaluer la précision et la réactivité du système dans diverses conditions. Les résultats ont
démontré des améliorations significatives de la fluidité de l’interaction et de la satisfaction des utilisateurs,
soulignant le potentiel des systèmes HCI multimodaux dans diverses applications. En
conclusion, le système intégré améliore non seulement l’expérience utilisateur, mais établit également
un précédent pour les développements futurs dans la création de systèmes HCI plus intuitifs
et efficaces. | en_US |
dc.language.iso | en | en_US |
dc.subject | Human-computer Interaction | en_US |
dc.subject | Distributed Systems | en_US |
dc.subject | Deep Learning | en_US |
dc.subject | Natural Language Processing | en_US |
dc.subject | Gestures Recognition | en_US |
dc.subject | Voice User Interface | en_US |
dc.title | Development and Evaluation of an Intelligent Multimodal Human-Computer Interaction System Integrating Gaze, Gesture, and Speech Recognition | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Ingénieur
|