Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/59
Full metadata record
DC FieldValueLanguage
dc.contributor.authorEL MESTARI, SOumia Zohra-
dc.date.accessioned2022-03-28T14:19:22Z-
dc.date.available2022-03-28T14:19:22Z-
dc.date.issued2020-
dc.identifier.urihttps://repository.esi-sba.dz/jspui/handle/123456789/59-
dc.descriptionM BENSLIMANE Sidi Mohamed Encadreur Mme MOKRAOUI Anissa Co-Encadreuren_US
dc.description.abstractDuring the last few years, the image and Video Compression technologies have grown by leaps and bounds. However, the growth rate of image and video data is far beyond the improvement of the compression ratio. Moreover, it has been widely recognised that there are increasing challenges of pursuing further coding performance improvement within the traditional hybrid coding framework. The already existing temporal coders, rely entirely on non-dense motion estimation. Despite their performance, such methods fail with specific video contents. Thus the need to more robust and content sensitive coders using Data Driven techniques. Over the past two decades, the technology lived its greatest breakthrough over multiple fields due usage of Deep Learning for several tasks. Imagery and in particular video compression was no exception. In this thesis we presented a state of the art about Capturing temporal redundancy for Video Coding purposes using Deep Learning. In an explicit manner, the system has to be designed around a neural network unit made only to estimate motion given two successive frames. Such a system require another sub system to perform frame reconstruction given a previous frame and motion informations. Such a method is complex where the performance of the whole system rely entirely on the ability of the motion estimation unit in capturing the temporal dependency. From another angle, in an implicit manner,a video can be seen as a set of frames related to one-another by a conditional temporal distribution. Hence by capturing and estimating this distribution using Variational Auto-Encoders, the video can be successfully projected into a lower dimensional space.*** Au cours des dernières années, les technologies de compression d’images et de vidéo ont connu une croissance fulgurante. Cependant, le taux de croissance des données d’image et de vidéo est bien au-delà de l’amélioration du taux de compression. En outre, la poursuite de l’amélioration des performances dans le cadre du codage hybride traditionnel constitue un défi de plus en plus important. Les méthodes existantes de codage temporel, reposent entièrement sur l’estimation nondense de mouvement . Malgré leurs performances, ces méthodes sont limités avec des contenus vidéo spécifiques. D’Où la necessité d’avoir de codeurs plus robustes et plus sensibles au contenu, en utilisant des techniques basées sur les données. Au cours des deux dernières décennies, la technologie a connu sa plus grande percée dans de nombreux domaines grâce à l’apprentissage approfondi. L’imagerie et la compression vidéo n’ont pas fait exception à la règle. Dans cette thèse, nous avons présenté un état de l’art sur la capture de la redondance temporelle à des fins de codage vidéo à l’aide de l’apprentissage approfondi. Dans une première manière dite "explicite", le système est conçu autour d’une unité de réseau neuronal, faite uniquement pour estimer le mouvement à partir de deux images successives. Un tel système nécessite un autre sous-système pour effectuer la reconstruction de l’image à partir d’une image précédente et des informations de mouvement. Une telle méthode est complexe lorsque la performance de l’ensemble du système dépend entièrement de la capacité de l’unité d’estimation du mouvement à capturer la dépendance temporelle. Sous un autre angle, de manière implicite, une vidéo peut être vue comme un ensemble d’images liées les unes aux autres par une distribution temporelle conditionnelle. Ainsi, en capturant et en estimant cette distribution à l’aide d’autoencodeurs variationnels, la vidéo peut être projetée avec succès dans un espace dimensionnel inférieur.en_US
dc.language.isoenen_US
dc.subjectImage Processingen_US
dc.subjectVideo Compressionen_US
dc.subjectDeep Neural Networksen_US
dc.subjectGenerative Modelsen_US
dc.subjectMotion Estimationen_US
dc.subjectConvolutional Neural Networksen_US
dc.subjectVariational Auto-Encoderen_US
dc.titleTemporal Video Compression Using Neural Networksen_US
dc.typeThesisen_US
Appears in Collections:Master

Files in This Item:
File Description SizeFormat 
Master_ElMestari_Soumia_Zohra.pdf284,59 kBAdobe PDFView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.