DC Field | Value | Language |
dc.contributor.author | EMZIANE, MOhamed | - |
dc.date.accessioned | 2024-10-03T13:26:33Z | - |
dc.date.available | 2024-10-03T13:26:33Z | - |
dc.date.issued | 2024 | - |
dc.identifier.uri | https://repository.esi-sba.dz/jspui/handle/123456789/719 | - |
dc.description | Supervisor : Mr. MALKI Abdelhamid | en_US |
dc.description.abstract | Fog-native computing is an emerging paradigm that facilitates the development of flexible
and scalable IoT applications through the use of microservice architecture at the network
edge. This paradigm allows IoT users to request and consume services in close proximity,
thereby enhancing Quality of Service (QoS) attributes such as reduced service delays.
Typically, these requested services consist of multiple interdependent microservice instances,
collectively referred to as a service plan. However, selecting the appropriate
service plan for each request is a challenging task in dynamic fog environments, where
network conditions and service requests fluctuate rapidly.
In this research, we investigate the microservice selection problem for IoT applications
deployed on fog computing platforms and propose a learning-based solution employing
deep reinforcement learning (DRL). We implemented the fog computing platform as a
multinode Kubernetes cluster with Raspberry Pi edge nodes and a central control plane.
Real-time cluster metrics were collected, allowing us to observe the impact of DRL on
load balancing and resource optimization. Our approach aims to optimize application
request delays while effectively balancing the load among microservice instances. By
leveraging DRL, the system can adapt to the dynamic nature of fog environments, learning
to compute optimal physical service plans that accommodate varying demands and
conditions.
To address the plan-dependency issue, we implement the proposed learning algorithm
using action masking. This approach restricts the DRL agent’s actions in specific states,
thus preventing the selection of invalid service plans. Action masking aim to enhance
the efficiency and effectiveness of the agent in selecting suitable service plans, ensuring
optimized performance and load balancing in fog-native computing environments. ***
L’informatique native au brouillard est un paradigme émergent qui facilite le développement
d’applications IoT flexibles et évolutives en utilisant l’architecture de microservices
à la périphérie du réseau. Ce paradigme permet aux utilisateurs IoT de demander et
de consommer des services à proximité, améliorant ainsi les attributs de Qualité de Service
(QoS) tels que la réduction des délais de service. En général, ces services demandés
sont composés de plusieurs instances de microservices interdépendantes, collectivement
appelées un plan de service. Cependant, la sélection du plan de service approprié pour
chaque demande est une tâche difficile dans les environnements de brouillard dynamique,
où les conditions réseau et les demandes de service fluctuent rapidement.
Dans cette étude, nous examinons le problème de la sélection de microservices pour les
applications IoT déployées sur des plateformes de calcul en brouillard et proposons une
solution basée sur l’apprentissage utilisant le deep reinforcement learning (DRL). Nous
avons mis en place la plateforme de fog computing sous forme d’un cluster Kubernetes
multinoeud avec des noeuds périphériques Raspberry Pi et un plan de contrôle central. Les
métriques en temps réel du cluster ont été collectées à l’aide de Grafana et Prometheus, ce
qui nous a permis d’observer l’impact du DRL sur l’équilibrage de charge et l’optimisation
des ressources. Notre approche vise à optimiser les délais des demandes d’application tout
en équilibrant efficacement la charge entre les instances de microservices. En exploitant le
DRL, le système peut s’adapter à la nature dynamique des environnements de brouillard,
apprenant à calculer des plans de service physique optimaux qui répondent aux demandes
et conditions variées.
Pour remédier au problème de dépendance aux plans, nous mettons en oeuvre l’algorithme
d’apprentissage proposé en adoptant le masquage des actions. Cette approche limite les
actions de l’agent d’apprentissage par renforcement profond (DRL) dans des états spécifiques,
empêchant ainsi la sélection de plans de service invalides. Le masquage des actions
vise à améliorer l’efficacité et l’efficience de l’agent dans la sélection de plans de service
appropriés, garantissant ainsi des performances optimisées et un équilibrage de charge
dans des environnements informatiques fog-natifs. | en_US |
dc.language.iso | en | en_US |
dc.subject | MicroService | en_US |
dc.subject | Load Balancing | en_US |
dc.subject | Middle-wares | en_US |
dc.subject | Fog Computing | en_US |
dc.subject | Kubernetes Multi-node Cluster | en_US |
dc.subject | Deep Reinforcement Learning | en_US |
dc.title | MicroService Instances Load Balancing in Fog Computing Using DRL | en_US |
dc.type | Thesis | en_US |
Appears in Collections: | Ingénieur
|