L’Ecole doctorale : Mathématiques Hadamard
et le Laboratoire de recherche SAMOVAR – Services répartis, Architectures, Modélisation, Validation, Administration des Réseaux
présentent
l’AVIS DE SOUTENANCE de Monsieur Yazid JANATI EL IDRISSI
Autorisé à présenter ses travaux en vue de l’obtention du Doctorat de l’Institut Polytechnique de Paris, préparé à Télécom SudParis en :
« Méthodes Monte Carlo pour l’apprentissage automatique: contributions pratiques et théoriques pour l’échantillonnage préferentiel et les méthodes séquentielles »
le JEUDI 28 SEPTEMBRE 2023 à 15h00 à la Salle 16-26-209 (Salle Paul Lévy)
Campus Pierre et Marie Curie, 4 place Jussieu 75005 PARIS
Membres du jury :
M. Sylvain LE CORFF, Professeur, Sorbonne Université, FRANCE – Directeur de these
M. Jean-Michel MARIN, Professeur, Université de Montpellier, FRANCE – Rapporteur
M. Anthony LEE, Professeur, University Of Bristol, ROYAUME-UNI – Rapporteur
Mme Marylou GABRIE, Maître de conférences, Ecole polytechnique , FRANCE – Examinateur
M. Jean-Marc BARDET, Professeur, Universiyté Panthéon Sorbonne (Paris 1), FRANCE – Examinateur
M. Yohan PETETIN, Maître de conférences, Télécom SudParis, FRANCE – CoDirecteur de these
« Méthodes Monte Carlo pour l’apprentissage automatique: contributions pratiques et théoriques pour l’échantillonnage préferentiel et les méthodes séquentielles »
présenté par Monsieur Yazid JANATI EL IDRISSI
Résumé :
Cette thèse contribue au vaste domaine des méthodes de Monte Carlo avec de nouveaux algorithmes visant à traiter l’inférence en grande dimension et la quantification de l’incertitude. Dans une première partie, nous développons deux nouvelles méthodes pour l’échantillonnage d’importance. Le premier algorithme est une nouvelle loi de proposition, basée sur sur des étapes d’optimisation et de coût de calcul faible, pour le calcul des constantes de normalisation. L’algorithme résultant est ensuite étendu en un nouvel algorithme MCMC. Le deuxième algorithme est un nouveau schéma pour l’apprentissage de propositions d’importance adaptées aux cibles complexes et multimodales. Dans une deuxième partie, nous nous concentrons sur les méthodes de Monte Carlo séquentielles. Nous développons de nouveaux estimateurs de la variance asymptotique du filtre à particules et fournissons le premier estimateur de la variance asymptotique d’un lisseur à particules. Ensuite, nous proposons une procédure d’apprentissage des paramètres dans les modèles de Markov cachés en utilisant un lisseur à particules dont le biais est réduit par rapport aux méthodes existantes. Enfin, nous concevons un algorithme de Monte Carlo séquentiel pour résoudre des problèmes inverses linéaires bayésiens avec des lois a priori obtenues par modèles génératifs.
Abstract :
This thesis contributes to the vast domain of Monte Carlo methods with novel algorithms that aim at adressing high dimensional inference and uncertainty quantification. In a first part, we develop two novel methods for Importance Sampling. The first algorithm is a lightweight optimization based proposal for computing normalizing constants and which extends into a novel MCMC algorithm. The second one is a new scheme for learning sharp importance proposals. In a second part, we focus on Sequential Monte Carlo methods. We develop new estimators for the asymptotic variance of the particle filter and provide the first estimator of the asymptotic variance of a particle smoother. Next, we derive a procedure for parameter learning within hidden Markov models using a particle smoother with provably reduced bias. Finally, we devise a Sequential Monte Carlo algorithm for solving Bayesian linear inverse problems with generative model priors.