L’équipe ARMEDIA organise un séminaire le vendredi 6 juillet à 10h ouvert à tous.
Il pourra être suivi sur le site de TSP dans la salle A003 ou H218 (choix à confirmer) et sur le site de Saclay dans la salle de visioconférence de NanoInnov .
L’intervenant est le Pr. Faouzi Ghorbel (ENSI Tunis) et son exposé porte sur :
L’apprentissage Machine non linéaire : Algorithmes non linéaires et données issues d’espaces non convexes
Mots clés : Variété Riemannienne, Groupes de Lie, Classification, optimisation, invariant, Statistique intrinsèque et extrinsèque
Résumé:
Classiquement les algorithmes de classification sont appelés non linéaires quand les domaines relatifs aux différentes classes sont en général des parties de l’espace des observations séparées par des hyper surfaces non linéaires. Toutefois, les données à classer peuvent appartenir à des espaces non vectoriels (non linéaires et même non convexes) Il est souvent utile de connaître leurs domaines de variations. Souvent, elles peuvent appartenir à des variétés différentielles de type Riemmanniennes ou à des groupes de Lie. La géométrie des , actuellement en vogue dans le domaine de la vision par ordinateur, est un des exemples des plus illustratifs Ainsi, nous essayerons de montrer ici sur des exemples concrets en reconnaissance de formes comment cette nouvelle génération d’algorithmes d’apprentissage tenant compte de la nature des supports des données est en train de révolutionner le domaine de la vision. D’autre part et à partir de quelques exemples prêtés au domaine de l’apprentissage machine, nous tenterons de montrer comment les méthodes d’optimisation s’améliorent au sens précision et cela en considérant que les données proviennent d’espace de type variétés.
Enfin, l’approche des invariants en analyse de formes, peut être perçue comme celle des statistiques extrinsèques alors que celle basée sur les espaces de Kendall compte dans la catégorie des statistiques intrinsèques. Nous les comparons dans les contextes de classification de formes (Euclidienne-contours plans, Affine-contours et enfin Euclidien-surfaces courbées.
English summary ————————-
Nonlinear Machine Learning Algorithms and Data from Non-convex Spaces
Key words: Riemannian Manifolds, Lie groups, Classification, optimization, invariant, intrinsic and extrinsic statistics
Abstract:
Classically, classification algorithms are called nonlinear when the domains relating to the different classes are generally parts of the space of observations separated by nonlinear hyper-surfaces. However, the data to be classified can belong to non-vector spaces (non-linear and even non-convex). It is often useful to know their domains of variation. Often, they can belong to Riemannian type differential manifolds or to Lie groups. The geometry of, currently popular in the field of computer vision, is one of the most illustrative examples. Thus, we will try to show here on concrete examples in pattern recognition how this new generation of learning algorithms taking into account the nature of data carriers is revolutionizing the field of vision. On the other hand and from some examples in the field of machine learning, we will try to show how the optimization methods improve in the precision sense when considering that the data come from manifolds type space. Finally, the approach of invariants in Shape analysis, can be seen as that of extrinsic statistics while the one based on Kendall spaces counts in the category of intrinsic statistics. We compare them in the context of shape classification: Euclidean-planar contours, Affine-contours and finally Euclidean-curved surfaces.