Institut des Systèmes Intelligents
et de Robotique

Partenariats

UPMC

CNRS

INSERM

Tremplin CARNOT Interfaces

Labex SMART

Rechercher

Titre : Analyse de signaux sociaux pour la modélisation de l’interaction face à face

 

Mots clés : Apprentissage automatique, classification semi-supervisée, co-apprentissage, fusion de données, signaux émotionnels, motherese, films familiaux, interaction affective.

 


Cette soutenance aura lieu :

 

13 décembre 2010 à 14h00
UPMC -- Campus Jussieu, 4 Place Jussieu - 75005 Paris
Salle 304, 3ème étage, Tour 65-66 (accès 65)

 

Jury :

 

Rapporteurs:

Alessandro Vinciarelli, Senior Researcher, IDIAP Research Institute--University of Glasgow

Laurent Besacier, Professeur, LIG-LAB -- UJF Grenoble

 

Examinateurs :

 

Jean-Claude Martin, Professeur, LIMSI -- Université Paris 11

Maurice Milgram, Professeur Emérite, ISIR -- UPMC Paris

 

Directeur de thèse :

 

Jean-Luc Zarader, Professeur, ISIR -- UPMC Paris

 

Encadrant :

 

Mohamed Chetouani, Maître de Conférences, ISIR -- UPMC Paris

 

Invité :

David Cohen, Professeur, ISIR -- UPMC Paris

 

Resumé :

Cette thèse se situe à la frontière des domaines de la reconnaissance de signaux émotionnels et de l'analyse de l'interaction sociale. Dans un premier temps, nous avons étudié une émotion non prototypique, appelée motherese, qui joue un rôle important dans l'interaction parent-enfant. Afin d'étudier cette émotion, nous avons développé un système de détection automatique des émotions basé d'abord sur l'apprentissage supervisé. Ensuite pour pallier au manque de données étiquetées, nous avons développé une approche semi-supervisée permettant une meilleure qualité de classification avec un coût inférieur. Cette approche permet de combiner des exemples étiquetés et non étiquetés pour l'apprentissage. Le système proposé est une extension de l'algorithme de co-apprentissage. Cette approche est dite multi-vue car elle consiste à combiner différentes vues (descripteur+classifieur) afin d'obtenir une prédiction unique par exemple de test.

Au-delà de la reconnaissance de signaux émotionnels, il s'agit de structurer et d'interpréter les différents signaux de communication dans un contexte d'interaction face à face. Nous avons proposé un modèle computationnel de l'interaction parent-enfant. Il consiste à modéliser les réponses des enfants par rapport aux stimulations des parents. Nous avons proposé ainsi des analyses quantitative et statistique afin d'étudier l'interdépendance des signaux d'interaction et les comportements humains, en particulier le rôle de motherese pour l'engagement de l'interaction parent-enfant. Enfin, dans le but d’identifier les groupes de comportements les plus pertinents, nous avons développé une technique de regroupement automatique de signaux qui permet d’extraire les différents patterns interactifs. Cette extraction de comportements interactifs permet de discriminer différents groupes: enfants avec développement typique, autistique et avec retard mental.