DC Field | Value | Language |
dc.contributor.author | ZAGHLAOUI, KArim | - |
dc.date.accessioned | 2024-09-23T13:04:04Z | - |
dc.date.available | 2024-09-23T13:04:04Z | - |
dc.date.issued | 2024 | - |
dc.identifier.uri | https://repository.esi-sba.dz/jspui/handle/123456789/634 | - |
dc.description | Supervisor : Ms. DIF Nassima Co-Supervisor : Ms. BOUZEGHOUB Amel | en_US |
dc.description.abstract | After the major breakthroughs advancements of graph neural networks in representation
learning on static graphs, strong models called temporal graph neural networks (TGNNs)
have been developed. The ability to effectively model the dynamic nature of a temporal graph
made TGNNs achieve state-of-the-art performance across a wide range of predictive tasks.
The success of these models has led to their application in critical tasks such as financial
forecasting, fraud detection, and recommendation systems, where the ability to explain the
model’s predictions is crucial. However, incorporating both temporal and spatial aspects in
temporal graph models has turned them into complex models that are challenging to explain.
While numerous well-established techniques exist to explain the predictions of static graph
models, they are not easily generalized to the temporal cases. Recently, few methods have
emerged to explain the predictions made by TGNNs focusing on discrete time series on the
graph, leaving the continuous-time setting underexplored.
In this master, we introduced the main aspects of recommendation systems, and the
graph neural networks approach. Then we introduced the notions of explainable artificial
intelligence and presented the state of the art of explainability methods employed to explain
temporal graph neural networks. ***
Après les avancées majeures des réseaux neuronaux graphiques dans l’apprentissage de la
représentation sur des graphes statiques, des modèles puissants appelés réseaux neuronaux
graphiques temporels (TGNN) ont été développés. La capacité de modéliser efficacement la
nature dynamique d’un graphe temporel a permis aux TGNN d’atteindre des performances
de pointe dans un large éventail de tâches prédictives. Le succès de ces modèles a conduit
à leur application dans des tâches critiques telles que la prévision financière, la détection
de fraude et les systèmes de recommandation, où la capacité d’expliquer les prédictions du
modèle est cruciale. Cependant, l’intégration des aspects temporels et spatiaux dans les
modèles graphiques temporels les a rendus complexes et difficiles à expliquer. Alors que
de nombreuses techniques bien établies existent pour expliquer les prédictions des modèles
graphiques statiques, elles ne sont pas facilement généralisables aux cas temporels. Récemment,
quelques méthodes ont émergé pour expliquer les prédictions faites par les TGNN en
se concentrant sur les séries temporelles discrètes sur le graphe, laissant le cadre du temps
continu inexploré.
Dans ce mémoire, nous avons introduit les principaux aspects des systèmes de recommandation
et l’approche des réseaux neuronaux graphiques. Ensuite, nous avons introduit
les notions d’intelligence artificielle explicable et présenté l’état de l’art des méthodes de
explicabilité utilisées pour expliquer les réseaux neuronaux graphiques temporels. | en_US |
dc.language.iso | en | en_US |
dc.subject | Explainable Artificial Intelligence (XAI) | en_US |
dc.subject | Temporal Graph Neural Networks (TGNNs) | en_US |
dc.subject | Link Prediction | en_US |
dc.subject | Recommendation System | en_US |
dc.title | Towards Transparent Recommender System | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Master
|