L’Ecole doctorale : MathĂ©matiques Hadamard
et le Laboratoire de recherche SAMOVAR – Services rĂ©partis, Architectures, ModĂ©lisation, Validation, Administration des RĂ©seaux
présentent
lâAVIS DE SOUTENANCE de Monsieur Elouan ARGOUARC’H
AutorisĂ© Ă prĂ©senter ses travaux en vue de lâobtention du Doctorat de l’Institut Polytechnique de Paris, prĂ©parĂ© Ă TĂ©lĂ©com SudParis en :
« Contributions Ă lâapprentissage statistique de lois a posteriori pour lâinfĂ©rence bayĂ©sienne sans vraisemblance »
le MERCREDI 11 DĂ©CEMBRE 2024 Ă 14h00
à Amphithéùtre de DIGITEO
CEA Paris Saclay BĂątiment DIGITEO 565 91191 Gif-Sur-Yvette
Membres du jury :
M. François DESBOUVRIES, Professeur, TĂ©lĂ©com SudParis, FRANCE – Directeur de these
M. Guillaume CHARPIAT, ChargĂ© de recherche, INRIA Saclay, FRANCE – Examinateur
M. Mathilde MOUGEOT, Professeure, ENSIIE, FRANCE – Examinateur
M. Erwan LE PENNEC, Professeur, Ecole Polytechnique, FRANCE – Examinateur
M. Jean-Yves TOURNERET, Professeur, INP-ENSEEIHT Toulouse, FRANCE – Rapporteur
M. François SEPTIER, Professeur, Universite Bretagne Sud, FRANCE – Rapporteur
Invités :
M. KAWASKI Eiji, Ingénieur-Chercheur, CEA, FRANCE
M. BARAT Eric, Ingénieur-Chercheur, CEA, FRANCE
« Contributions Ă lâapprentissage statistique de lois a posteriori pour lâinfĂ©rence bayĂ©sienne sans vraisemblance »
prĂ©sentĂ© par Monsieur Elouan ARGOUARC’H
Résumé :
L’infĂ©rence bayĂ©sienne a posteriori est utilisĂ©e dans de nombreuses applications scientifiques et constitue une mĂ©thodologie rĂ©pandue pour la prise de dĂ©cision en situation d’incertitude. Elle permet aux praticiens de confronter les observations du monde rĂ©el Ă des modĂšles d’observation pertinents, et d’infĂ©rer en retour la distribution d’une variable explicative. Dans de nombreux domaines et applications pratiques, nous considĂ©rons des modĂšles d’observation complexes pour leur pertinence scientifique, mais au prix de densitĂ©s de probabilitĂ© incalculables. En consĂ©quence, Ă la fois la vraisemblance et la distribution a posteriori sont indisponibles, rendant l’infĂ©rence BayĂ©sienne Ă l’aide des mĂ©thodes de Monte Carlo habituelles irrĂ©alisable. Dans ce travail nous supposons que le modĂšle d’observation nous gĂ©nĂšre un jeu de donnĂ©es, et le contexte de cette thĂšse est de coupler les mĂ©thodes BayĂ©sienne Ă lâapprentissage statistique afin de pallier cette limitation et permettre lâinfĂ©rence a posteriori dans le cadre likelihood-free. Ce problĂšme, formulĂ© comme lâapprentissage d’une distribution de probabilitĂ©, inclut les tĂąches habituelles de classification et de rĂ©gression, mais il peut Ă©galement ĂȘtre une alternative aux mĂ©thodes âApproximate Bayesian Computationâ dans le contexte de l’infĂ©rence basĂ©e sur la simulation, oĂč le modĂšle d’observation est un modĂšle de simulation avec une densitĂ© implicite. L’objectif de cette thĂšse est de proposer des contributions mĂ©thodologiques pour l’apprentissage BayĂ©sien a posteriori. Plus prĂ©cisĂ©ment, notre objectif principal est de comparer diffĂ©rentes mĂ©thodes d’apprentissage dans le cadre de l’Ă©chantillonnage Monte Carlo et de la quantification dâincertitude. Nous considĂ©rons d’abord l’approximation a posteriori basĂ©e sur le âlikelihood-to-evidence-ratioâ, qui a l’avantage principal de transformer un problĂšme d’apprentissage de densitĂ© conditionnelle en un problĂšme de classification. Dans le contexte de l’Ă©chantillonnage Monte Carlo, nous proposons une mĂ©thodologie pour Ă©chantillonner la distribution rĂ©sultante dâune telle approximation. Nous tirons parti de la structure sous-jacente du modĂšle, compatible avec les algorithmes d’Ă©chantillonnage usuels basĂ©s sur un quotient de densitĂ©s, pour obtenir des procĂ©dures d’Ă©chantillonnage simples, sans hyperparamĂštre et ne nĂ©cessitant dâĂ©valuer aucune densitĂ©. Nous nous tournons ensuite vers le problĂšme de la quantification de l’incertitude Ă©pistĂ©mique. D’une part, les modĂšles normalisĂ©s, tels que la construction discriminante, sont faciles Ă appliquer dans le contexte de la quantification de l’incertitude bayĂ©sienne. D’autre part, bien que les modĂšles non normalisĂ©s, comme le likelihood-to-evidence-ratio, ne soient pas facilement applicables dans les problĂšmes de quantification dâincertitude Ă©pistĂ©mique, une construction non normalisĂ©e spĂ©cifique, que nous appelons gĂ©nĂ©rative, est effectivement compatible avec la quantification de l’incertitude bayĂ©sienne via la distribution prĂ©dictive a posteriori. Dans ce contexte, nous expliquons comment rĂ©aliser cette quantification de l’incertitude dans les deux techniques de modĂ©lisation, gĂ©nĂ©rative et discriminante, puis nous proposons une comparaison des deux constructions dans le cadre de l’apprentissage bayĂ©sien. Enfin nous abordons le problĂšme de la modĂ©lisation paramĂ©trique avec densitĂ© tractable, qui est effectivement un prĂ©requis pour la quantification de l’incertitude Ă©pistĂ©mique dans les mĂ©thodes gĂ©nĂ©rative et discriminante. Nous proposons une nouvelle construction d’un modĂšle paramĂ©trique, qui est une double extension des modĂšles de mĂ©lange et des flots normalisants. Ce modĂšle peut ĂȘtre appliquĂ© Ă de nombreux types de problĂšmes statistiques, tels que l’infĂ©rence variationnelle, l’estimation de densitĂ© et de densitĂ© conditionnelle, car il bĂ©nĂ©ficie d’une Ă©valuation rapide et exacte de la fonction de densitĂ©, d’un schĂ©ma d’Ă©chantillonnage simple, et d’une approche de reparamĂ©trisation des gradients.
Abstract :
Bayesian posterior inference is used in many scientific applications and is a prevalent methodology for decision-making under uncertainty. It enables practitioners to confront real-world observations with relevant observation models, and in turn, infer the distribution over an explanatory variable. In many fields and practical applications, we consider ever more intricate observation models for their otherwise scientific relevance, but at the cost of intractable probability density functions. As a result, both the likelihood and the posterior are unavailable, making posterior inference using the usual Monte Carlo methods unfeasible. In this thesis, we suppose that the observation model provides a recorded dataset, and our aim is to bring together Bayesian inference and statistical learning methods to perform posterior inference in a likelihood-free setting. This problem, formulated as learning an approximation of a posterior distribution, includes the usual statistical learning tasks of regression and classification modeling, but it can also be an alternative to Approximate Bayesian Computation methods in the context of simulation-based inference, where the observation model is instead a simulation model with implicit density. The aim of this thesis is to propose methodological contributions for Bayesian posterior learning. More precisely, our main goal is to compare different learning methods under the scope of Monte Carlo sampling and uncertainty quantification. We first consider the posterior approximation based on the likelihood-to-evidence ratio, which has the main advantage that it turns a problem of conditional density learning into a problem of binary classification. In the context of Monte Carlo sampling, we propose a methodology for sampling from such a posterior approximation. We leverage the structure of the underlying model, which is conveniently compatible with the usual ratio-based sampling algorithms, to obtain straightforward, parameter-free, and density-free sampling procedures. We then turn to the problem of uncertainty quantification. On the one hand, normalized models such as the discriminative construction are easy to apply in the context of Bayesian uncertainty quantification. On the other hand, while unnormalized models, such as the likelihood-to-evidence-ratio, are not easily applied in uncertainty-aware learning tasks, a specific unnormalized construction, which we refer to as generative, is indeed compatible with Bayesian uncertainty quantification via the posterior predictive distribution. In this context, we explain how to carry out uncertainty quantification in both modeling techniques, and we then propose a comparison of the two constructions under the scope of Bayesian learning. We finally turn to the problem of parametric modeling with tractable density, which is indeed a requirement for epistemic uncertainty quantification in generative and discriminative modeling methods. We propose a new construction of a parametric model, which is an extension of both mixture models and normalizing flows. This model can be applied to many different types of statistical problems, such as variational inference, density estimation, and conditional density estimation, as it benefits from rapid and exact density evaluation, a straightforward sampling scheme, and a gradient reparameterization approach.