Institut des Systèmes Intelligents
et de Robotique

Partenariats

UPMC

CNRS

INSERM

Tremplin CARNOT Interfaces

Labex SMART

Rechercher

Profil

khamassi Mehdi
Titre : Chargé de Recherche
Adresse : 4 place Jussieu, CC 173, 75252 Paris cedex 05
Téléphone : +33 (0) 1 44 27 28 85
Email : khamassi(at)isir.upmc.fr
Equipe : AMAC (AMAC)

Brève biographie

Après un diplôme d'ingénieur à l'ENSIIE (anciennement sous la tutelle du CNAM) à Evry, j'ai effectué un DEA de Sciences Cognitives puis une thèse entre l'Université Pierre et Marie Curie et le Collège de France dirigée par Agnès Guillot et Sidney I. Wiener sur l'apprentissage en situation de navigation chez les animaux et les robots. J'ai pendant ma thèse développé les techniques suivantes : modélisation computationnelle, expérimentation robotique, enregistrements électrophysiologiques chez le rat en comportement, analyses de données comportementales et neurophysiologiques. En 2008, j'ai effectué un court séjour au Japon dans le laboratoire de Kenji Doya à Okinawa Institute of Science and Technology. Puis j'ai effectué un post-doctorat à l'INSERM à Lyon, où mes travaux se situaient à l'interface entre l'équipe de neurophysiologie d'Emmanuel Procyk, et l'équipe de modélisation et robotique de Peter F. Dominey. Depuis 2010, je suis chargé de recherches au CNRS, affecté à l'Institut des Systèmes Intelligents et de Robotique (ISIR UMR 7222) au sein de l'Université Pierre et Marie Curie, Paris 6. J'ai obtenu mon Habilitation à Diriger des Recherches (HDR) en Biologie à l'UPMC le 6 mai 2014. J'ai été chercheur invité au Center for Mind/Brain Sciences de l'Université de Trento, Italie en 2014-2015, où je collaborais principalement avec Giorgio Coricelli. Depuis janvier 2016, je suis chercheur invité au Robotics Laboratory de Polytechnique Athènes, Grèce, où je collabore principalement avec Costas Tzafestas. Depuis mars 2017, je suis également chercheur invité au Department of Experimental Psychology, Université d'Oxford, où je collabore principalement avec Matthew Rushworth, Jérôme Sallet, Chris Summerfield et Mark Walton.

Télécharger mon CV complet (en anglais) ou mon CV court (en anglais).

 

Activités de Recherche

Mes recherches se situent à l'interface entre Neurosciences et Robotique, se focalisant sur : les capacités d'apprentissage et de prise de décision chez les animaux ; les mécanismes cérébraux associés dans le cortex préfrontal, l'hippocampe et les ganglions de la base ; leurs applications à l'apprentissage chez les robots autonomes. J'étudie en particulier comment le cerveau coordonne différents systèmes parallèles d'apprentissage, le réseau hippocampo-préfrontal détectant les différents états du monde (e.g. nouveauté vs familiarité ; contexte A vs contexte B) et les changements de performance de l'agent (e.g. progrès, stagnation, déclin) pour choisir de manière adaptative : le système approprié à chaque situation (e.g. apprendre un graphe cognitif de l'environnement ou non) et l'état correspondant d'apprentissage (e.g. exploration vs exploitation). Ces nouveaux modèles computationnels sont ensuite testés sur des plateformes robotiques intéragissant avec le monde réel, avec l'objectif dual de contribuer à améliorer la flexibilité comportementale chez les robots et de contribuer aux Neurosciences en testant la robustesse de différentes hypothèses biologiques.

 

 

Sélection de publications

Neurosciences
  • Khamassi, M., Quilodran, R., Enel, P., Dominey, P.F. and Procyk, E. (2015). Behavioral regulation and the modulation of information coding in the lateral prefrontal and cingulate cortex. Cerebral Cortex, 25(9):3197-218.
  • Palminteri, S., Khamassi, M., Joffily, M. and Coricelli, G. (2015). Contextual modulation of value signals in reward and punishment learning. Nature Communications, 6:8096.
  • Lesaint, F., Sigaud, O., Flagel, S.B., Robinson, T.E. and Khamassi, M. (2014). Modelling individual differences observed in Pavlovian autoshaping in rats using a dual learning systems approach and factored representations. PLoS Computational Biology, 10(2): e1003466.
  • Khamassi, M., Enel, P., Dominey P.F. and Procyk, E. (2013). Medial prefrontal cortex and the adaptive regulation of reinforcement learning parameters. Progress in Brain Research, 202:441-64.
  • Khamassi, M. and Humphries, M. D. (2012). Integrating cortico-limbic-basal ganglia architectures for learning model-based and model-free navigation strategies. Frontiers in Behavioral Neuroscience, 6:79.
  • Humphries, M.D., Khamassi, M. and Gurney, K.N. (2012). Dopaminergic control of the exploration-exploitation trade-off via the basal ganglia. Frontiers in Neuroscience, 6:9.
  • Benchenane, K., Peyrache, A., Khamassi, M., Tierney, P.L., Gioanni, Y., Battaglia, F.P. and Wiener, S.I. (2010). Coherent theta oscillations and reorganization of spike timing in the hippocampal-prefrontal network upon learning. Neuron, 66(6):912-36.
  • Peyrache, A., Khamassi, M., Benchenane, K., Wiener, S.I. and Battaglia, F.P. (2009). Replay of rule-learning related neural patterns in the prefrontal cortex during sleep. Nature Neuroscience, 12(7):919-26.
  • Khamassi, M., Mulder, A.B., Tabuchi, E., Douchamps, V. and Wiener S.I. (2008). Anticipatory reward signals in ventral striatal neurons of behaving rats. European Journal of Neuroscience, 28(9):1849-66
Robotique
  • Khamassi, M., Velentzas, G., Tsitsimis, T. and Tzafestas, C. (2017). Active exploration and parameterized reinforcement learning applied to a simulated human-robot interaction task. IEEE Robotic Computing, pp. 28-35, Taipei, Taiwan.
  • Khamassi, M., Girard, B., Clodic, A., Devin, S., Renaudo, E., Pacherie, E., Alami, R. and Chatila, R. (2016). Integration of Action, Joint Action and Learning in Robot Cognitive Architectures. Intellectica, 2016(65):169-203.
  • Caluwaerts, K., Staffa, M., N'Guyen, S., Grand, C., Dollé, L., Favre-Félix, A., Girard, B. and Khamassi, M. (2012). A biologically inspired meta-control navigation system for the Psikharpax rat robot. Bioinspiration & Biomimetics, 7(2):025009.
  • Khamassi, M., Lallée, S., Enel, P., Procyk, E. and Dominey P.F. (2011). Robot cognitive control with a neurophysiologically inspired reinforcement learning model. Frontiers in Neurorobotics, 5:1.
  • Khamassi, M., Lachèze, L., Girard, B., Berthoz, A. and Guillot, A. (2005). Actor-Critic Models of Reinforcement Learning in the Basal Ganglia: From Natural to Artificial Rats. Adaptive Behavior, 13(2):131-148
  • Meyer, J.-A., Guillot, A., Girard, B. Khamassi, M., Pirim, P. and Berthoz, A. (2004). The Psikharpax Project: Towards Building an Artificial Rat. Robotics and Autonomous Systems, 50(4):211-223.