Avis de soutenance de Monsieur Yohan PETETIN
autorisĂ© Ă prĂ©senter ses travaux en vue de l’obtention de son Habilitation Ă Diriger des Recherches sur le sujet :
«Generative models for time series data»
le jeudi 2 février 2023
Ă 13h30
La soutenance sera retransmise par visio-conférence zoom, accessible via le lien suivant:
Membres du Jury :
Douc, Randal, Professeur, Télécom SudParis, Rapporteur Interne
Godsill, Simon, Professeur, Université de Cambridge, Rapporteur
Djuric, Petar, Professeur, Université de Stony Brook, Rapporteur
Arnaud Guillin, Professeur Ă l’UniversitĂ© de Clermont-Ferrand, Laboratoire de Mathematiques Blaise Pascal, Examinateur
François Septier, Professeur, Université de Bretagne Sud, Examinateur
Florence Forbes, Directrice de Recherche, Inria Grenoble RhĂ´ne Alpes, Examinatrice
Gersende Fort, Directrice de Recherche au CNRS Ă l’institut mathĂ©matique de Toulouse, Examinatrice
RĂ©sumĂ© : Mes recherches rĂ©centes ont Ă©tĂ© consacrĂ©es aux modèles gĂ©nĂ©ratifs pour les sĂ©ries temporelles. A travers cet exposĂ©, j’adresserai une comparaison de modèles gĂ©nĂ©ratifs basĂ©s sur les modèles de Markov cachĂ©s et les architectures neuronales rĂ©currentes. Je prĂ©senterai ensuite des outils d’infĂ©rence variationnelle bayĂ©sienne dans le but de construire et d’estimer les paramètres de modèles probabilistes issues d’une fertilisation croisĂ©e entre les modèles de Markov cachĂ©s et les rĂ©seaux de neurones profonds. Enfin, l’approximation du calcul des lois de probabilitĂ©s Ă postĂ©riori Ă partir de la conception de mĂ©thodes de Monte Carlo sĂ©quentielles sera discutĂ©e.
Abstract : My main reasearch has been devoted to generative models for time series data. In this presentation, I will discuss and compare generative models based on hidden Markov models and recurrent neural networks architectures. I will next present inference tools based on the variational Bayesian inference framework to build and estimate the parameters of probalistic models resulting from a cross-fertilization between hidden Markov models and deep neural networks. Finally, the approximation of posterior distributions through sequential Monte Carlo methods in such models will be discussed.