DC Field | Value | Language |
dc.contributor.author | EL MESTARI, SOumia Zohra | - |
dc.date.accessioned | 2022-03-28T14:19:22Z | - |
dc.date.available | 2022-03-28T14:19:22Z | - |
dc.date.issued | 2020 | - |
dc.identifier.uri | https://repository.esi-sba.dz/jspui/handle/123456789/59 | - |
dc.description | M BENSLIMANE Sidi Mohamed Encadreur Mme MOKRAOUI Anissa Co-Encadreur | en_US |
dc.description.abstract | During the last few years, the image and Video Compression technologies have
grown by leaps and bounds. However, the growth rate of image and video data
is far beyond the improvement of the compression ratio. Moreover, it has been
widely recognised that there are increasing challenges of pursuing further coding
performance improvement within the traditional hybrid coding framework.
The already existing temporal coders, rely entirely on non-dense motion estimation.
Despite their performance, such methods fail with specific video contents. Thus the
need to more robust and content sensitive coders using Data Driven techniques.
Over the past two decades, the technology lived its greatest breakthrough over
multiple fields due usage of Deep Learning for several tasks. Imagery and in particular
video compression was no exception.
In this thesis we presented a state of the art about Capturing temporal redundancy
for Video Coding purposes using Deep Learning.
In an explicit manner, the system has to be designed around a neural network
unit made only to estimate motion given two successive frames. Such a system
require another sub system to perform frame reconstruction given a previous frame
and motion informations. Such a method is complex where the performance of the
whole system rely entirely on the ability of the motion estimation unit in capturing
the temporal dependency.
From another angle, in an implicit manner,a video can be seen as a set of frames
related to one-another by a conditional temporal distribution. Hence by capturing
and estimating this distribution using Variational Auto-Encoders, the video can be
successfully projected into a lower dimensional space.***
Au cours des dernières années, les technologies de compression d’images et de vidéo
ont connu une croissance fulgurante. Cependant, le taux de croissance des données
d’image et de vidéo est bien au-delà de l’amélioration du taux de compression.
En outre, la poursuite de l’amélioration des performances dans le cadre du codage
hybride traditionnel constitue un défi de plus en plus important.
Les méthodes existantes de codage temporel, reposent entièrement sur l’estimation
nondense de mouvement . Malgré leurs performances, ces méthodes sont limités avec
des contenus vidéo spécifiques. D’Où la necessité d’avoir de codeurs plus robustes
et plus sensibles au contenu, en utilisant des techniques basées sur les données.
Au cours des deux dernières décennies, la technologie a connu sa plus grande
percée dans de nombreux domaines grâce à l’apprentissage approfondi. L’imagerie
et la compression vidéo n’ont pas fait exception à la règle.
Dans cette thèse, nous avons présenté un état de l’art sur la capture de la
redondance temporelle à des fins de codage vidéo à l’aide de l’apprentissage approfondi.
Dans une première manière dite "explicite", le système est conçu autour d’une
unité de réseau neuronal, faite uniquement pour estimer le mouvement à partir
de deux images successives. Un tel système nécessite un autre sous-système pour
effectuer la reconstruction de l’image à partir d’une image précédente et des informations
de mouvement. Une telle méthode est complexe lorsque la performance de l’ensemble
du système dépend entièrement de la capacité de l’unité d’estimation du mouvement
à capturer la dépendance temporelle.
Sous un autre angle, de manière implicite, une vidéo peut être vue comme
un ensemble d’images liées les unes aux autres par une distribution temporelle
conditionnelle. Ainsi, en capturant et en estimant cette distribution à l’aide d’autoencodeurs
variationnels, la vidéo peut être projetée avec succès dans un espace
dimensionnel inférieur. | en_US |
dc.language.iso | en | en_US |
dc.subject | Image Processing | en_US |
dc.subject | Video Compression | en_US |
dc.subject | Deep Neural Networks | en_US |
dc.subject | Generative Models | en_US |
dc.subject | Motion Estimation | en_US |
dc.subject | Convolutional Neural Networks | en_US |
dc.subject | Variational Auto-Encoder | en_US |
dc.title | Temporal Video Compression Using Neural Networks | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Master
|