Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/205
Full metadata record
DC FieldValueLanguage
dc.contributor.authorGuitt, BAhia-
dc.contributor.authorYAGOUB, FAtima Zohra-
dc.date.accessioned2022-04-13T09:35:46Z-
dc.date.available2022-04-13T09:35:46Z-
dc.date.issued2021-
dc.identifier.urihttps://repository.esi-sba.dz/jspui/handle/123456789/205-
dc.descriptionEncadré par : M. Chaib Soulaymane M. Benammar Abdessalemen_US
dc.description.abstractL’analyse automatique d’images médicales s’impose aujourd’hui comme un outil incontournable pour le diagnostic voire même d’aide à la décision dans le domaine médical. L’objectif de ce sujet de Master est d’effectuer une synthèse des travaux de l’état de l’art portant sur les approches d’apprentissage profond ayant été proposées pour l’analyse des images médicales du cancer de la peau. De plus, Nous avons proposé un modèle pour améliorer les performances de classification des lésions cutanées en utilisant les réseaux de neurones convolutifs.*** The automatic analysis of medical images is nowadays an essential tool for diagnosis and even decision support in the medical field. The objective of this Master thesis is to carry out a synthesis of the state of the art work on deep learning approaches that have been proposed for the analysis of medical images of skin cancer. Moreover, we proposed a model to improve the classification performance of skin lesions using convolutional neural networks.en_US
dc.language.isofren_US
dc.subjectCancer De La Peauen_US
dc.subjectLa Classification Du Cancer De La Peauen_US
dc.subjectL’apprentissage Profonden_US
dc.subjectLes Images Médicalesen_US
dc.subjectCnnen_US
dc.titleComparaison entre les approches d’apprentissage profond pour la classification de cancer de la peauen_US
dc.typeThesisen_US
Appears in Collections:Master

Files in This Item:
File Description SizeFormat 
Master_2 (2).pdf571,08 kBAdobe PDFView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.