• Accueil
  • Accueil
  • Accueil
  • Accueil

CNRS

Rechercher




Accueil > Productions scientifiques > Thèses SAMOVAR > Thèses 2022

Soutenance de thèse de M. Thomas TOURNAIRE, Apprentissage par renforcement basé sur un modèle pour l’allocation dynamique des ressources dans leS environnements cloud », le lundi 2 mai 2022 à 10h00

L’École doctorale : École Doctorale de l’Institut Polytechnique de Paris

et le Laboratoire de recherche SAMOVAR - Services répartis, Architectures, MOdélisation, Validation, Administration des Réseaux
présentent
l’AVIS DE SOUTENANCE de Monsieur Thomas TOURNAIRE
Autorisé à présenter ses travaux en vue de l’obtention du Doctorat de l’Institut Polytechnique de Paris, préparé à Télécom SudParis en :
Mathématiques et Informatique
« Apprentissage par renforcement basé sur un modèle pour l’allocation dynamique des ressources dans leS environnements cloud »
le LUNDI 2 MAI 2022 à 10h00

à

Salle Paris-Rennes-Nice
Lincs 23 Avenue d’Italie - 75013 PARIS

Membres du jury :

Mme Hind CASTEL-TALEB, Professeure,
Télécom SudParis (SAMOVAR), FRANCE
Directeur de thèse
M. Emmanuel HYON, Maître de conférences,
UPL Paris Nanterre X, FRANCE
Co-encadrant de these
Mme Sara ALOUF, Chargée de recherche,
INRIA NEO, FRANCE
Rapporteur
M. Nicolas GAST, Chargé de recherche,
INRIA LIG Grenoble, FRANCE
Rapporteur
M. Andre-Luc BEYLOT, Professor,
INP ENSEEIHT, FRANCE
Examinateur
M. Tijani CHAHED, Professeur,
Telecom SudParis (SAMOVAR), FRANCE
Examinateur
M. Bruno TUFFIN, Directeur de recherche,
INRIA DIONYSOS, FRANCE
Examinateur
M. Sandrine VATON, Professeur,
IMT Atlantique, FRANCE
Examinateur

présenté par Monsieur Thomas TOURNAIRE
Résumé :

L’émergence de nouvelles technologies nécessite une allocation efficace des ressources pour satisfaire la demande. Cependant, ces nouveaux besoins nécessitent une puissance de calcul élevée impliquant une plus grande consommation d’énergie notamment dans les infrastructures cloud et data centers. Il est donc essentiel de trouver de nouvelles solutions qui peuvent satisfaire ces besoins tout en réduisant la consommation d’énergie des ressources. Dans cette thèse, nous proposons et comparons de nouvelles solutions d’IA (apprentissage par renforcement RL) pour orchestrer les ressources virtuelles dans les environnements de réseaux virtuels de manière à garantir les performances et minimiser les coûts opérationnels. Nous considérons les systèmes de file d’attente comme un modèle pour les infrastructures cloud IaaS et apportons des méthodes d’apprentissage pour allouer efficacement le bon nombre de ressources. Notre objectif est de minimiser une fonction de coût en tenant compte des coûts de performance et opérationnels. Nous utilisons différents types d’algorithmes de RL (du « sans-modèle » au modèle relationnel) pour apprendre la meilleure politique. L’apprentissage par renforcement s’intéresse à la manière dont un agent doit agir dans un environnement pour maximiser une récompense cumulative. Nous développons d’abord un modèle de files d’attente d’un système cloud avec un nœud physique hébergeant plusieurs ressources virtuelles. Dans cette première partie, nous supposons que l’agent connaît le modèle (dynamiques de l’environnement et coût), ce qui lui donne la possibilité d’utiliser des méthodes de programmation dynamique pour le calcul de la politique optimale. Puisque le modèle est connu dans cette partie, nous nous concentrons également sur les propriétés des politiques optimales, qui sont des règles basées sur les seuils et l’hystérésis. Cela nous permet d’intégrer la propriété structurelle des politiques dans les algorithmes MDP. Après avoir fourni un modèle de cloud concret avec des arrivées exponentielles avec des intensités réelles et des données d’énergie pour le fournisseur de cloud, nous comparons dans cette première approche l’efficacité et le temps de calcul des algorithmes MDP par rapport aux heuristiques construites sur les distributions stationnaires de la chaîne de Markov des files d’attente. Dans une deuxième partie, nous considérons que l’agent n’a pas accès au modèle de l’environnement et nous concentrons notre travail sur les techniques de RL. Nous évaluons d’abord des méthodes basées sur un modèle où l’agent peut réutiliser son expérience pour mettre à jour sa fonction de valeur. Nous considérons également des techniques de MDP en ligne où l’agent autonome approxime le modèle pour effectuer une programmation dynamique. Cette partie est évaluée dans un environnement plus large avec deux nœuds physiques en tandem et nous évaluons le temps de convergence et la précision des différentes méthodes, principalement les techniques basées sur un modèle par rapport aux méthodes sans modèle de l’état de l’art. La dernière partie se concentre sur les techniques de RL basées sur des modèles avec une structure relationnelle entre les variables d’état. Comme ces réseaux en tandem ont des propriétés structurelles dues à la forme de l’infrastructure, nous intégrons les approches factorisées et causales aux méthodes de RL pour inclure cette connaissance. Nous fournissons à l’agent une connaissance relationnelle de l’environnement qui lui permet de comprendre comment les variables sont reliées. L’objectif principal est d’accélérer la convergence : d’abord avec une représentation plus compacte avec la factorisation où nous concevons un algorithme en ligne de MDP factorisé que nous comparons avec des algorithmes de RL sans modèle et basés sur un modèle ; ensuite en intégrant le raisonnement causal et contrefactuel qui peut traiter les environnements avec des observations partielles et des facteurs de confusion non observés.

Abstract :

The emergence of new technologies (Internet of Things, smart cities, autonomous vehicles, health, industrial automation, ...) requires efficient resource allocation to satisfy the demand. These new offers are compatible with new 5G network infrastructure since it can provide low latency and reliability. However, these new needs require high computational power to fulfill the demand, implying more energy consumption in particular in cloud infrastructures and more particularly in data centers. Therefore, it is critical to find new solutions that can satisfy these needs still reducing the power usage of resources in cloud environments. In this thesis we propose and compare new AI solutions (Reinforcement Learning) to orchestrate virtual resources in virtual network environments such that performances are guaranteed and operational costs are minimised. We consider queuing systems as a model for clouds IaaS infrastructures and bring learning methodologies to efficiently allocate the right number of resources for the users. Our objective is to minimise a cost function considering performance costs and operational costs. We go through different types of reinforcement learning algorithms (from model-free to relational model-based) to learn the best policy. Reinforcement learning is concerned with how a software agent ought to take actions in an environment to maximise some cumulative reward. We first develop queuing model of a cloud system with one physical node hosting several virtual resources. On this first part we assume the agent perfectly knows the model (dynamics of the environment and the cost function), giving him the opportunity to perform dynamic programming methods for optimal policy computation. Since the model is known in this part, we also concentrate on the properties of the optimal policies, which are threshold-based and hysteresis-based rules. This allows us to integrate the structural property of the policies into MDP algorithms. After providing a concrete cloud model with exponential arrivals with real intensities and energy data for cloud provider, we compare in this first approach efficiency and time computation of MDP algorithms against heuristics built on top of the queuing Markov Chain stationary distributions. In a second part we consider that the agent does not have access to the model of the environment and concentrate our work with reinforcement learning techniques, especially model-based reinforcement learning. We first develop model-based reinforcement learning methods where the agent can re-use its experience replay to update its value function. We also consider MDP online techniques where the autonomous agent approximates environment model to perform dynamic programming. This part is evaluated in a larger network environment with two physical nodes in tandem and we assess convergence time and accuracy of different reinforcement learning methods, mainly model-based techniques versus the state-of-the-art model-free methods (e.g. Q-Learning). The last part focuses on model-based reinforcement learning techniques with relational structure between environment variables. As these tandem networks have structural properties due to their infrastructure shape, we investigate factored and causal approaches built-in reinforcement learning methods to integrate this information. We provide the autonomous agent with a relational knowledge of the environment where it can understand how variables are related to each other. The main goal is to accelerate convergence by : first having a more compact representation with factorisation where we devise a factored MDP online algorithm that we evaluate and compare with model-free and model-based reinforcement learning algorithms ; second integrating causal and counterfactual reasoning that can tackle environments with partial observations and unobserved confounders.