L’Ecole doctorale : MathĂ©matiques Hadamard
et le Laboratoire de recherche SAMOVAR – Services rĂ©partis, Architectures, ModĂ©lisation, Validation, Administration des RĂ©seaux
présentent
l’AVIS DE SOUTENANCE de Monsieur Hugo MARIVAL
AutorisĂ© Ă prĂ©senter ses travaux en vue de l’obtention du Doctorat de l’Institut Polytechnique de Paris, prĂ©parĂ© Ă TĂ©lĂ©com SudParis en :
« Algorithmes de chaĂ®nes de Markov sĂ©quentielles et d’infĂ©rence variationnelle : dĂ©veloppement et analyse pour approcher des distributions complexes. »
le MERCREDI 19 MARS 2025 Ă 14h00
Ă
Amphithéâtre 4
Télécom Paris 19 Place Marguerite Perey 91120 Palaiseau
Membres du jury :
M. Randal DOUC, Professeur, TĂ©lĂ©com SudParis, FRANCE – Directeur de these
M. Victor ELVIRA, Professor, University of Edinburgh, ROYAUME-UNI – Rapporteur
M. Jean-Michel MARIN, Professeur, UniversitĂ© de Montpellier, FRANCE – Rapporteur
M. Christian ROBERT, Professeur, UniversitĂ© Paris-Dauphine, FRANCE – Examinateur
Mme HĂ©lène HALCONRUY, MaĂ®tresse de confĂ©rences, TĂ©lĂ©com SudParis, FRANCE – Examinateur
M. Julien STOEHR, MaĂ®tre de confĂ©rences, UniversitĂ© Paris-Dauphine, FRANCE – Examinateur
« Algorithmes de chaĂ®nes de Markov sĂ©quentielles et d’infĂ©rence variationnelle : dĂ©veloppement et analyse pour approcher des distributions complexes. »
présenté par Monsieur Hugo MARIVAL
Résumé :
Cette thèse s’intĂ©resse Ă la conception et Ă l’analyse d’algorithmes de chaĂ®nes de Markov sĂ©quentielles et d’infĂ©rence variationnelle pour approcher des distributions complexes. La première partie introduit une nouvelle classe de chaĂ®nes de Markov, appelĂ©e Importance Markov chains. Il s’agit d’un mĂ©ta-algorithme, construisant une chaĂ®ne de Markov Ă©tendue, visant une distribution cible sur sa première composante, Ă partir d’une chaĂ®ne de Markov auxiliaire, visant une distribution instrumentale, par rĂ©plication et rejet des points de la chaĂ®ne auxiliaire. Cette chaĂ®ne de Markov Ă©tendue, conserve les propriĂ©tĂ©s de la chaĂ®ne auxiliaire, Ă savoir la loi des grands nombres (LGN), le thĂ©orème central limite (CLT) et l’ergodicitĂ© gĂ©omĂ©trique, sous des conditions faibles et quasiment optimales. La deuxième partie dĂ©veloppe un algorithme sĂ©quentiel de chaĂ®nes de Markov dites projetĂ©es (pMC), obtenues comme la projection d’une chaĂ®ne de Markov sur un sous-espace, permettant d’approcher une distribution cible fixĂ©e (ex. tempering) ou une sĂ©quence de distributions Ă©voluant dans le temps pour des modèles espace-Ă©tat (ex. filtrage particulaire). Similairement aux mĂ©thodes SMC, notre algorithme alterne entre phases de resampling et d’enrichissement-propagation, mais en maintenant des Ă©chantillons pMC Ă chaque Ă©tape. En particulier, nous nous appuyons sur l’Importance Markov chain dĂ©veloppĂ©e dans la première partie pour l’Ă©tape de resampling, et sur des explorations Ă l’aide d’un noyau de Markov pour l’enrichissement-propagation. Sous des hypothèses faibles, nous prouvons que la LGN, le CLT et surtout l’ergodicitĂ© gĂ©omĂ©trique se propagent Ă travers les itĂ©rations, constituant une amĂ©lioration notable par rapport aux erreurs de resampling d’ordre O(1/N) en SMC. Par ailleurs, les propriĂ©tĂ©s atomiques de l’Importance Markov chain permettent de parallĂ©liser notre algorithme sur M nĹ“uds pour estimer des intĂ©grales sous la loi cible, avec une erreur tendant vers 0 quand le nombre de nĹ“uds tend vers l’infini. La dernière partie porte sur l’approximation paramĂ©trique de la cible par des mĂ©thodes d’infĂ©rence variationnelle. Nous analysons notamment un algorithme d’infĂ©rence variationnelle par poids d’importance, cĂ©lèbre pour son utilisation dans le cadre des auto-encodeurs variationnels, et prouvons des propriĂ©tĂ©s thĂ©oriques (consistance, normalitĂ© asymptotique, efficience) jusqu’alors inexistantes dans la littĂ©rature.
Abstract :
This thesis focuses on the design and analysis of sequential Markov chain algorithms and variational inference to approximate complex distributions. The first part introduces a new class of Markov chains, called Importance Markov chains. This is a meta-algorithm that constructs an extended Markov chain, targeting a complex distribution on its first component, starting from an auxiliary Markov chain targeting an instrumental distribution, by replicating and rejecting points from the auxiliary chain. This extended Markov chain retains the properties of the auxiliary chain, namely the law of large numbers (LLN), the central limit theorem (CLT), and geometric ergodicity, under weak and nearly optimal conditions. The second chapter develops a sequential algorithm, based on so-called projected Markov chains (pMC), obtained by projecting a Markov chain onto a subspace. This approach allows the approximation of a fixed target distribution (e.g., tempering) or sequence of distributions evolving over time for state-space models (e.g., particle filtering). Similar to SMC methods, our algorithm alternates between resampling and enrichment-propagation phases but maintains pMC samples at each step. In particular, we rely on the Importance Markov chain developed in the first part for the resampling step and on explorations using a Markov kernel for enrichment-propagation. Under weak assumptions, we prove that LLN, CLT, and especially geometric ergodicity propagate through the iterations, constituting a significant improvement over the typical O(1/N) error rate of resampling procedures in SMC. Furthermore, the atomic properties of the Importance Markov chain allow us to parallelize our algorithm for the empirical estimation of integrals under the target distribution, with an error tending toward 0 as the number of nodes increases. The last part focuses on the parametric approximation of a target distribution using variational inference. More specifically, we analyze a popular variational inference algorithm based on importance weighting, extensively used for variational autoencoders, and prove theoretical properties (consistency, asymptotic normality, efficiency) that were previously unavailable in the literature.