Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/613
Full metadata record
DC FieldValueLanguage
dc.contributor.authorABDALLAOUI, WAlid-
dc.date.accessioned2024-09-23T08:17:33Z-
dc.date.available2024-09-23T08:17:33Z-
dc.date.issued2024-
dc.identifier.urihttps://repository.esi-sba.dz/jspui/handle/123456789/613-
dc.descriptionEncadreur : M. CHAIB Souleymanen_US
dc.description.abstractIn recent years, Virtual Reality (VR) applications, including 360° videos, have garnered signiĄcant interest due to their immersive experiences, making them applicable across various domains such as education, medicine, and entertainment. A typical 360° video viewing setup involves users interacting with the scene through Head Mounted Devices (HMDs), with the Ąeld of view (FoV) being the region seen by the user at any given moment. Despite their potential, 360° videos present unique challenges, primarily due to their high bandwidth requirementsŮup to six times that of traditional videosŮand the necessity for low motionto- photon latency to prevent cybersickness. Optimization models are crucial in addressing these challenges, Tile-based streaming, for instance, divides the video into smaller tiles, allowing for adaptive streaming of only the tiles within the viewerŠs FoV. Accurately predicting a userŠs FoV ensures the efficient streaming of content, reducing both bandwidth consumption and latency. Most of the algorithms in the state of art are based on userŠs viewing data history and are trained on limited data. Data scarcity prevents optimized streaming for videos with no watch history or limited viewing data. In this work we introduce a novel framework for streaming 360° videos that does not depend on user history. Our approach involves modeling user viewing behaviors and generating diverse synthetic viewing data. This data is used to train a predictive model that forecasts user motion trajectories in 360° streaming systems. Our method achieves prediction times under 6ms, signiĄcantly faster than existing approaches, and performs exceptionally well without relying on real user viewing histories. We also implemented an interactive application for tailored dataset generation, providing researchers with the tools to create comprehensive datasets reĆecting a wide range of user behaviors and video content. This framework facilitates optimized streaming, enhancing the quality and efficiency of 360° video experiences.*** Ces dernières années, les applications de Réalité Virtuelle (VR), y compris les vidéos à 360°, ont suscité un intérêt considérable en raison de leurs expériences immersives, les rendant applicables dans divers domaines tels que lŠéducation, la médecine et le divertissement. Une conĄguration typique de visionnage de vidéo à 360° implique que les utilisateurs interagissent avec la scène à travers des dispositifs montés sur la tête (HMD), le champ de vision (FoV) représentant la région vue par lŠutilisateur à tout moment donné. Malgré leur potentiel, les vidéos à 360° présentent des déĄs uniques, principalement en raison de leurs exigences élevées en bande passante, jusquŠà six fois supérieures à celles des vidéos traditionnelles, et de la nécessité dŠune faible latence de mouvement à photon pour éviter le mal des transports. Les modèles dŠoptimisation sont cruciaux pour relever ces déĄs, notamment le streaming basé sur les tuiles, qui divise la vidéo en tuiles plus petites permettant un streaming adaptatif uniquement des tuiles dans le FoV du spectateur. Prédire avec précision le FoV dŠun utilisateur garantit le streaming efficace du contenu, réduisant à la fois la consommation de bande passante et la latence. La plupart des algorithmes de pointe sont basés sur lŠhistorique des données de visionnage de lŠutilisateur et sont formés sur des données limitées. La rareté des données empêche un streaming optimisé pour les vidéos sans historique de visionnage ou avec des données de visionnage limitées. Dans ce travail, nous présentons un nouveau cadre pour le streaming de vidéos à 360° qui ne dépend pas de lŠhistorique de lŠutilisateur. Notre approche consiste à modéliser les comportements de visionnage des utilisateurs et à générer diverses données de visionnage synthétiques. Ces données sont utilisées pour former un modèle prédictif qui anticipe les trajectoires de mouvement des utilisateurs dans les systèmes de streaming à 360°. Notre méthode atteint des temps de prédiction inférieurs à 6 ms, signiĄcativement plus rapides que les approches existantes, et offre des performances exceptionnelles sans dépendre des historiques de visionnage réels des utilisateurs. Nous avons également mis en oeuvre une application interactive pour la génération de jeux de données personnalisés, fournissant aux chercheurs les outils nécessaires pour créer des jeux de données complets reĆétant une large gamme de comportements des utilisateurs et de contenus vidéo. Ce cadre facilite le streaming optimisé, améliorant la qualité et lŠefficacité des expériences vidéo à 360°.en_US
dc.language.isoenen_US
dc.subjectVRen_US
dc.subject360° Videosen_US
dc.subjectHMDen_US
dc.subjectSaliencyen_US
dc.subjectFoVen_US
dc.subjectStreamingen_US
dc.titleModeling Users’ Behavior in 360-Degree Videos: A Framework for Synthetic Data Generationen_US
dc.typeThesisen_US
Appears in Collections:Ingenieur

Files in This Item:
File Description SizeFormat 
PFE-ABDALLAOUI Walid-1-1.pdf121,71 kBAdobe PDFView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.