AVIS DE SOUTENANCE de Monsieur Yazid JANATI EL IDRISSI

L’Ecole doctorale : MathĂ©matiques Hadamard

et le Laboratoire de recherche SAMOVAR – Services rĂ©partis, Architectures, ModĂ©lisation, Validation, Administration des RĂ©seaux

présentent

l’AVIS DE SOUTENANCE de Monsieur Yazid JANATI EL IDRISSI

AutorisĂ© Ă  prĂ©senter ses travaux en vue de l’obtention du Doctorat de l’Institut Polytechnique de Paris, prĂ©parĂ© Ă  TĂ©lĂ©com SudParis en :

« MĂ©thodes Monte Carlo pour l’apprentissage automatique: contributions pratiques et thĂ©oriques pour l’Ă©chantillonnage prĂ©ferentiel et les mĂ©thodes sĂ©quentielles »

le JEUDI 28 SEPTEMBRE 2023 Ă  15h00 Ă  la Salle 16-26-209 (Salle Paul LĂ©vy)
Campus Pierre et Marie Curie, 4 place Jussieu 75005 PARIS

Membres du jury :

M. Sylvain LE CORFF, Professeur, Sorbonne UniversitĂ©, FRANCE – Directeur de these
M. Jean-Michel MARIN, Professeur, UniversitĂ© de Montpellier, FRANCE – Rapporteur
M. Anthony LEE, Professeur, University Of Bristol, ROYAUME-UNI – Rapporteur
Mme Marylou GABRIE, MaĂ®tre de confĂ©rences, Ecole polytechnique , FRANCE – Examinateur
M. Jean-Marc BARDET, Professeur, UniversiytĂ© PanthĂ©on Sorbonne (Paris 1), FRANCE – Examinateur
M. Yohan PETETIN, MaĂ®tre de confĂ©rences, TĂ©lĂ©com SudParis, FRANCE – CoDirecteur de these

« MĂ©thodes Monte Carlo pour l’apprentissage automatique: contributions pratiques et thĂ©oriques pour l’Ă©chantillonnage prĂ©ferentiel et les mĂ©thodes sĂ©quentielles »

présenté par Monsieur Yazid JANATI EL IDRISSI

Résumé :

Cette thèse contribue au vaste domaine des mĂ©thodes de Monte Carlo avec de nouveaux algorithmes visant Ă  traiter l’infĂ©rence en grande dimension et la quantification de l’incertitude. Dans une première partie, nous dĂ©veloppons deux nouvelles mĂ©thodes pour l’Ă©chantillonnage d’importance. Le premier algorithme est une nouvelle loi de proposition, basĂ©e sur sur des Ă©tapes d’optimisation et de coĂ»t de calcul faible, pour le calcul des constantes de normalisation. L’algorithme rĂ©sultant est ensuite Ă©tendu en un nouvel algorithme MCMC. Le deuxième algorithme est un nouveau schĂ©ma pour l’apprentissage de propositions d’importance adaptĂ©es aux cibles complexes et multimodales. Dans une deuxième partie, nous nous concentrons sur les mĂ©thodes de Monte Carlo sĂ©quentielles. Nous dĂ©veloppons de nouveaux estimateurs de la variance asymptotique du filtre Ă  particules et fournissons le premier estimateur de la variance asymptotique d’un lisseur Ă  particules. Ensuite, nous proposons une procĂ©dure d’apprentissage des paramètres dans les modèles de Markov cachĂ©s en utilisant un lisseur Ă  particules dont le biais est rĂ©duit par rapport aux mĂ©thodes existantes. Enfin, nous concevons un algorithme de Monte Carlo sĂ©quentiel pour rĂ©soudre des problèmes inverses linĂ©aires bayĂ©siens avec des lois a priori obtenues par modèles gĂ©nĂ©ratifs.


Abstract :

This thesis contributes to the vast domain of Monte Carlo methods with novel algorithms that aim at adressing high dimensional inference and uncertainty quantification. In a first part, we develop two novel methods for Importance Sampling. The first algorithm is a lightweight optimization based proposal for computing normalizing constants and which extends into a novel MCMC algorithm. The second one is a new scheme for learning sharp importance proposals. In a second part, we focus on Sequential Monte Carlo methods. We develop new estimators for the asymptotic variance of the particle filter and provide the first estimator of the asymptotic variance of a particle smoother. Next, we derive a procedure for parameter learning within hidden Markov models using a particle smoother with provably reduced bias. Finally, we devise a Sequential Monte Carlo algorithm for solving Bayesian linear inverse problems with generative model priors.