DC Field | Value | Language |
dc.contributor.author | ABDALLAOUI, WAlid | - |
dc.date.accessioned | 2024-09-23T08:17:33Z | - |
dc.date.available | 2024-09-23T08:17:33Z | - |
dc.date.issued | 2024 | - |
dc.identifier.uri | https://repository.esi-sba.dz/jspui/handle/123456789/613 | - |
dc.description | Encadreur : M. CHAIB Souleyman | en_US |
dc.description.abstract | In recent years, Virtual Reality (VR) applications, including 360° videos, have garnered signiĄcant
interest due to their immersive experiences, making them applicable across various domains such
as education, medicine, and entertainment. A typical 360° video viewing setup involves users
interacting with the scene through Head Mounted Devices (HMDs), with the Ąeld of view (FoV)
being the region seen by the user at any given moment.
Despite their potential, 360° videos present unique challenges, primarily due to their high bandwidth
requirementsŮup to six times that of traditional videosŮand the necessity for low motionto-
photon latency to prevent cybersickness. Optimization models are crucial in addressing these
challenges, Tile-based streaming, for instance, divides the video into smaller tiles, allowing for adaptive
streaming of only the tiles within the viewerŠs FoV. Accurately predicting a userŠs FoV ensures
the efficient streaming of content, reducing both bandwidth consumption and latency.
Most of the algorithms in the state of art are based on userŠs viewing data history and are
trained on limited data. Data scarcity prevents optimized streaming for videos with no watch
history or limited viewing data. In this work we introduce a novel framework for streaming 360°
videos that does not depend on user history. Our approach involves modeling user viewing behaviors
and generating diverse synthetic viewing data. This data is used to train a predictive model that
forecasts user motion trajectories in 360° streaming systems. Our method achieves prediction times
under 6ms, signiĄcantly faster than existing approaches, and performs exceptionally well without
relying on real user viewing histories.
We also implemented an interactive application for tailored dataset generation, providing researchers
with the tools to create comprehensive datasets reĆecting a wide range of user behaviors
and video content. This framework facilitates optimized streaming, enhancing the quality and
efficiency of 360° video experiences.***
Ces dernières années, les applications de Réalité Virtuelle (VR), y compris les vidéos à 360°, ont
suscité un intérêt considérable en raison de leurs expériences immersives, les rendant applicables
dans divers domaines tels que lŠéducation, la médecine et le divertissement. Une conĄguration
typique de visionnage de vidéo à 360° implique que les utilisateurs interagissent avec la scène à
travers des dispositifs montés sur la tête (HMD), le champ de vision (FoV) représentant la région
vue par lŠutilisateur à tout moment donné.
Malgré leur potentiel, les vidéos à 360° présentent des déĄs uniques, principalement en raison
de leurs exigences élevées en bande passante, jusquŠà six fois supérieures à celles des vidéos traditionnelles,
et de la nécessité dŠune faible latence de mouvement à photon pour éviter le mal des
transports. Les modèles dŠoptimisation sont cruciaux pour relever ces déĄs, notamment le streaming
basé sur les tuiles, qui divise la vidéo en tuiles plus petites permettant un streaming adaptatif
uniquement des tuiles dans le FoV du spectateur. Prédire avec précision le FoV dŠun utilisateur
garantit le streaming efficace du contenu, réduisant à la fois la consommation de bande passante et
la latence.
La plupart des algorithmes de pointe sont basés sur lŠhistorique des données de visionnage de
lŠutilisateur et sont formés sur des données limitées. La rareté des données empêche un streaming
optimisé pour les vidéos sans historique de visionnage ou avec des données de visionnage limitées.
Dans ce travail, nous présentons un nouveau cadre pour le streaming de vidéos à 360° qui ne dépend
pas de lŠhistorique de lŠutilisateur. Notre approche consiste à modéliser les comportements de visionnage
des utilisateurs et à générer diverses données de visionnage synthétiques. Ces données sont
utilisées pour former un modèle prédictif qui anticipe les trajectoires de mouvement des utilisateurs
dans les systèmes de streaming à 360°. Notre méthode atteint des temps de prédiction inférieurs à
6 ms, signiĄcativement plus rapides que les approches existantes, et offre des performances exceptionnelles
sans dépendre des historiques de visionnage réels des utilisateurs.
Nous avons également mis en oeuvre une application interactive pour la génération de jeux
de données personnalisés, fournissant aux chercheurs les outils nécessaires pour créer des jeux de
données complets reĆétant une large gamme de comportements des utilisateurs et de contenus vidéo.
Ce cadre facilite le streaming optimisé, améliorant la qualité et lŠefficacité des expériences vidéo à
360°. | en_US |
dc.language.iso | en | en_US |
dc.subject | VR | en_US |
dc.subject | 360° Videos | en_US |
dc.subject | HMD | en_US |
dc.subject | Saliency | en_US |
dc.subject | FoV | en_US |
dc.subject | Streaming | en_US |
dc.title | Modeling Users’ Behavior in 360-Degree Videos: A Framework for Synthetic Data Generation | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Ingenieur
|