L’Ecole doctorale : Ecole Doctorale de l’Institut Polytechnique de Paris
et le Laboratoire de recherche SAMOVAR – Services rĂ©partis, Architectures, ModĂ©lisation, Validation, Administration des RĂ©seaux
présentent
lâAVIS DE SOUTENANCE de Madame Jialin HAO
AutorisĂ©e Ă prĂ©senter ses travaux en vue de lâobtention du Doctorat de l’Institut Polytechnique de Paris, prĂ©parĂ© Ă TĂ©lĂ©com SudParis en :
Signal, Images, Automatique et robotique
« MACHINE LEARNING FOR ROAD ACTIVE SAFETY IN VEHICULAR NETWORKS »
le LUNDI 26 FĂVRIER 2024 Ă 9h30
Ă
Salle 1C27
19 Place Marguerite Perey 91120 Palaiseau
également en visioconférence
ID de réunion: 950 1225 8278
Code secret: 395800
Membres du jury :
M. Djamal zEGHLACHE, Professeur, TĂ©lĂ©com SudParis, FRANCE – Directeur de these
M. Khaled BOUSSETTA, Professeur, Paris 13, FRANCE – Rapporteur
M. Salah-Eddine EL AYOUBI, Professeur, CentraleSupĂ©lec, FRANCE – Rapporteur
M. Pascal LORENZ, Professeur, UniversitĂ© de Haute Alsace, FRANCE – Examinateur
M. Hadji MAKHLOUF, Chercheur Scientific, Institut de Recherch Technologique SystemX, FRANCE – Examinateur
Mme. Thi-Mai-Trang NGUYEN, Professeur, UniversitĂ© Sorbonne Paris Nord, FRANCE – Examinatrice
Mme. Rola NAJA, HDR et Associate Professor, ECE Paris Lyon – Ecole d’ingĂ©nieurs, FRANCE – Co-encadrant
Invité :
M. Samir TOHME, Professeur, Université de Versailles Saint-Quentin-en-Yvelines, FRANCE
« APPRENTISSAGE POUR LA SURETE DANS LES RESEAUX VEHICULAIRES »
présenté par Madame Jialin HAO
Résumé :
Cette thĂšse porte sur le dĂ©veloppement d’une manĆuvre d’aide au changement de voie (lane Change Assistance, LCA) sĂ»re et efficace dans le contexte des rĂ©seaux de vĂ©hicules assistĂ©s par drones (Drone Assisted Vehicular Network, DAVN). En effet, les changements de voie contribuent de maniĂšre significative aux accidents de la route, nĂ©cessitant des solutions efficaces au sein des rĂ©seaux routiers. Les LCA stratĂ©gies actuelles Ă©tablies sur l’apprentissage par renforcement profond (Deep Reinforcement Learning, DRL) sont limitĂ©es par les informations locales sur les vĂ©hicules, nĂ©gligeant une vue globale, comme des conditions de circulation. Pour rĂ©soudre ce problĂšme, les vĂ©hicules aĂ©riens sans pilote (Unmanned Aerial Vehicles, UAVs), ou drones, prĂ©sentent une extension prometteuse des services de rĂ©seau automobile grĂące Ă leur mobilitĂ©, capacitĂ©s informatiques et liaisons de communication en visibilitĂ© directe (Line-if-Sight, LoS) avec les vĂ©hicules routiers. Dans un premier temps, nous faisons une Ă©tude bibliographique sur LCA au sein du DAVN, mettant en Ă©vidence le potentiel des drones pour amĂ©liorer la sĂ©curitĂ© routiĂšre. Les approches LCA existantes s’appuient principalement sur des informations locales sur les vĂ©hicules et ne prennent pas en compte l’Ă©tat global du trafic. Afin de rĂ©duire cette limitation, nous proposons le GL-DEAR : joint global and local drone-assisted lane change platform based on Deep-Q Network (DQN) with a dynamic reward function, for LCA with drones’ assistance. La plateforme proposĂ©e se compose de trois modules : route Ă risques alĂ©atoires et vĂ©hicules d’urgence ; acquisition et traitement des donnĂ©esâŻ; prise de dĂ©cision de changement de voie en temps rĂ©el. La manĆuvre de changement de voie est basĂ©e sur un Deep Q-Network avec des fonctions de rĂ©compense dynamiques. Plus prĂ©cisĂ©ment, nous adoptons les modĂšles de changement de voie authentiques basĂ©s sur l’ensemble de donnĂ©es NGSIM pour les vĂ©hicules routiers ordinaires afin de recrĂ©er les comportements de changement de voie du monde rĂ©el dans les simulations. Les rĂ©sultats numĂ©riques dĂ©montrent la capacitĂ© de la plateforme Ă rĂ©aliser des trajets sans collision sur des autoroutes Ă risque avec des vĂ©hicules d’urgence. Dans un deuxiĂšme temps, nous identifions un manque de calibrage de la frĂ©quence de mise Ă jour globale des algorithmes d’apprentissage fĂ©dĂ©rĂ© (Federated Learning, FL) et lâabsence dâĂ©valuation approfondie du dĂ©lai de traitement au niveau du drone. Nous proposons donc un cadre d’apprentissage par renforcement fĂ©dĂ©rĂ© (FRL) assistĂ© par drone, DAFL. Ce cadre permet un apprentissage coopĂ©ratif entre les vĂ©hicules de l’ego en appliquant FL. Il comprend un algorithme d’agrĂ©gation de modĂšles global basĂ© sur la rĂ©putation du client et une analyse complĂšte du dĂ©lai de bout en bout (End-to-End, E2E) au niveau du drone. Plus prĂ©cisĂ©ment, la frĂ©quence globale de mise Ă jour est ajustĂ©e dynamiquement en fonction des mesures de sĂ©curitĂ© routiĂšre et de la consommation Ă©nergĂ©tique des drones, ce qui donne des rĂ©sultats efficaces dans les simulations. Dans la troisiĂšme Ă©tape, nous concevons l’algorithme DOP-T pour optimiser les trajectoires des drones dans les rĂ©seaux de vĂ©hicules dynamiques. Cet algorithme vise Ă Ă©quilibrer la consommation Ă©nergĂ©tique des drones et la sĂ©curitĂ© routiĂšre. Nous fournissons un Ă©tat de lâart complet des techniques existantes de planification de trajectoire de drones. Ensuite, sur la base de la modĂ©lisation du dĂ©lai E2E du vĂ©hicule et de la modĂ©lisation de la consommation d’Ă©nergie du drone. Dans la seconde Ă©tape, nous formons un modĂšle d’apprentissage par renforcement hors ligne (Offline-Reinforcement Learning, ORL) pour Ă©viter une formation en ligne consommatrice d’Ă©nergie. Les rĂ©sultats de la simulation dĂ©montrent une rĂ©duction significative de la consommation d’Ă©nergie des drones et du dĂ©lai E2E du vĂ©hicule Ă l’aide du modĂšle entraĂźnĂ©.
Abstract :
This thesis focuses on the development of a safe and efficient LCA maneuver in the context of drone-assisted vehicle networks (DAVN). In fact, lane change maneuvers contribute significantly to road accidents, requiring effective solutions within road networks. Current lane change assistance (LCA) strategies relying solely on deep reinforcement learning (DRL) are limited by local vehicle information, neglecting a global view of traffic conditions. To address this problem, unmanned aerial vehicles (UAVs), or drones, present a promising extension of automotive network services due to their mobility, computing capabilities, and line-of-sight (LoS) communications links with road vehicles. In the first step, we conduct a literature review on LCA within DAVN, highlighting the potential of drones to enhance road safety. Existing LCA approaches predominantly rely on local vehicle information and fail to consider overall traffic states. To address this limitation, we propose the GL-DEAR: joint global and local drone-assisted lane change platform based on Deep-Q Network (DQN) with a dynamic reward function, for LCA with drones’ assistance. The proposed platform consists of three modules: road with random risks and emergency vehicles; data file acquisition and processing; and real-time lane change decision-making. The lane change maneuver is based on a Deep Q-Network with dynamic reward functions. Specifically, we adopt the authentic NGSIM dataset-based lane change models for ordinary road vehicles to recreate real world lane change behaviors in the simulations. Numerical results demonstrate the platform’s ability to achieve collision-free trips on risky highways with emergency vehicles. In the second step, we identify a lack of calibration for the global update frequency in FL algorithms and the absence of thorough drone-level processing delay assessment. To this end, we propose the drone assisted Federated Reinforcement Learning (FRL)-based LCA framework, DAFL. This framework enables cooperative learning between ego vehicles by applying Federated Learning (FL). It includes a client reputation-based global model aggregation algorithm and a comprehensive analysis of End-to-End (E2E) delay at the drone. Specifically, the global update frequency is dynamically adjusted according to road safety measurements and drone energy consumption, yielding efficient results in simulations. In the third step, we devise the DOP-T algorithm for optimizing drone trajectories in dynamic vehicular networks. This algorithm aims to balance drone energy consumption and road safety. We provide a comprehensive state-of-the-art review of the existing drone trajectory planning techniques. Then, based on the vehicle E2E delay modeling and the drone energy consumption modeling in the second step, we train a Offline Reinforcement Learning (ORL) model to avoid power-consuming online training. Simulation results demonstrate a significant reduction in drone energy consumption and vehicle E2E delay using the trained model.