You are currently viewing Séminaire Armedia présenté par Maxime Robin le 24 mai 2018 à 15h en H218

Séminaire Armedia présenté par Maxime Robin le 24 mai 2018 à 15h en H218

L’équipe ARMEDIA organise un séminaire ouvert à tout le laboratoire sur le thème assistance à domicile pour les personnes âgées.

Date : jeudi 24 mai de 15h à 16h

Lieux :
– Evry salle H218
– Palaiseau NanoInnov, salle Visio

Sujet :
Analyse de l’environnement sonore pour le maintien à domicile et la reconnaissance d’activités de la vie courante, des personnes âgées

Par :
Maxime Robin – synthèse des travaux (thèse soutenue le 17 avril 2018) en collaboration avec UTC (D. Istrate), KRG (V. Kraus) et TSP (J. Boudy)

Résumé:
L’âge moyen de la population française et européenne augmente, cette constatation apporte de nouveaux enjeux techniques et sociétaux. Les personnes âgées étant les personnes les plus fragiles et les plus vulnérables, notamment du point de vue des accidents domestiques et en particulier des chutes. C’est pourquoi de nombreux projets d’aide au personnes âgées techniques, universitaires et commerciaux ont vu le jour ces dernières années.
Ce travail de thèse a été effectuée sous convention Cifre, conjointement entre l’entreprise KRG Corporate et le laboratoire BMBI (Biomécanique et Bioingénierie) de l’UTC (Université de technologie de Compiègne). Il a pour objet de proposer un capteur de reconnaissance de sons et des activités de la vie courante, dans le but d’étoffer et d’améliorer le système de télé-assistance déjà commercialisé par la société. Plusieurs méthodes de reconnaissance de parole ou de reconnaissance du locuteur on déjà été éprouvées dans le domaine de la reconnaissance de sons, entre autres les techniques : GMM (Modèle de mélange gaussien – Gaussian Mixture Model), SVM-GSL (Machine à vecteurs de support, GMM-super-vecteur à noyau linéaire – Support vector machine GMM Supervector Linear kernel) et HMM (Modèle de markov caché – Hidden Markov Model). De la même manière, nous nous sommes proposés d’utiliser les i-vecteurs pour la reconnaissance de sons. Les i-vecteurs sont utilisés notamment en reconnaissance de locuteur, et ont révolutionné ce domaine récemment. Puis nous avons élargi notre spectre, et utilisé l’apprentissage profond (Deep Learning) qui donne actuellement de très bon résultats en classification tous domaines confondus. Nous les avons tout d’abord utilisé en renfort des i-vecteurs, puis nous les avons utilisé comme système de classification exclusif.
Les méthodes précédemment évoquées ont également été testées en conditions bruités puis réelles. Ces différentes expérimentations nous ont permis d’obtenir des taux de reconnaissance très satisfaisants, les réseaux de neurones en renfort des i-vecteurs et les réseaux de neurones seuls étant les systèmes ayant la meilleure précision, avec une amélioration très significative par rapport aux différents systèmes issus de la reconnaissance de parole et de locuteur.