Skip navigation
Please use this identifier to cite or link to this item: https://repository.esi-sba.dz/jspui/handle/123456789/638
Full metadata record
DC FieldValueLanguage
dc.contributor.authorMECHRI, ABdechakour-
dc.date.accessioned2024-09-23T13:23:18Z-
dc.date.available2024-09-23T13:23:18Z-
dc.date.issued2024-
dc.identifier.urihttps://repository.esi-sba.dz/jspui/handle/123456789/638-
dc.descriptionSupervisor : Dr. KHALDI Belkacem Co-Supervisor : Dr. FERRAG Mohamed Amineen_US
dc.description.abstractAs software becomes increasingly integral to various industries, the need for robust software security has become paramount. Ensuring the protection of software from attacks and cyber threats throughout its lifecycle—from development to deployment and maintenance— requires innovative approaches. This thesis explores the application of Transformer- Based Language Models to enhance software security. We begin by reviewing the current state of software security and machine learning, then delves into various approaches, evaluating the efficacy of these models in identifying and analyzing vulnerabilities, and comparing their performance to RNN-based models. The results demonstrate that Transformer-Based Language Models hold significant promise in vulnerability detection, offering a powerful tool to advance the field of software security. Through rigorous evaluation and comparison, we establish these models as superior in their capability to identify and address software vulnerabilities, paving the way for more secure software development practices. *** À mesure que les logiciels deviennent de plus en plus essentiels dans divers secteurs, le besoin d’une sécurité logicielle robuste est devenu primordial. Assurer la protection des logiciels contre les attaques et les menaces cybernétiques tout au long de leur cycle de vie - du développement au déploiement et à la maintenance - nécessite des approches innovantes. Cette thèse explore l’application des modèles de langage basés sur les Transformers pour améliorer la sécurité des logiciels. Nous commençons par examiner l’état actuel de la sécurité des logiciels et de l’apprentissage automatique, puis nous nous penchons sur diverses approches, évaluant l’efficacité de ces modèles dans l’identification et l’analyse des vulnérabilités, et comparant leurs performances à celles des modèles basés sur les RNN. Les résultats démontrent que les modèles de langage basés sur les Transformers sont très prometteurs pour la détection des vulnérabilités, offrant un outil puissant pour faire progresser le domaine de la sécurité des logiciels. Grâce à une évaluation et une comparaison rigoureuses, nous établissons la supériorité de ces modèles dans leur capacité à identifier et à traiter les vulnérabilités logicielles, ouvrant la voie à des pratiques de développement de logiciels plus sécurisées.en_US
dc.language.isoenen_US
dc.subjectTransformer-Based Language Modelsen_US
dc.subjectLarge Language Modelen_US
dc.subjectGenerative Pre-trained Transformersen_US
dc.subjectStatic Analysisen_US
dc.subjectVulnerability Detectionen_US
dc.subjectCyber Threatsen_US
dc.subjectSoftware Lifecycleen_US
dc.subjectSoftware Securityen_US
dc.titleEnhancing Software Security Using Transformer-Based Language Modelsen_US
dc.typeThesisen_US
Appears in Collections:Master

Files in This Item:
File Description SizeFormat 
Msc-1-1.pdf77,76 kBAdobe PDFView/Open
Show simple item record


Items in DSpace are protected by copyright, with all rights reserved, unless otherwise indicated.