Institut des Systèmes Intelligents
et de Robotique

Partenariats

UPMC

CNRS

INSERM

Rechercher

Profil

khamassi Mehdi
Titre : Chercheur
Adresse : 4 place Jussieu, CC 173, 75252 Paris cedex 05
Téléphone : +33 (0) 1 44 27 28 85
Email : khamassi(at)isir.upmc.fr
Equipe : AMAC (AMAC)

Brève biographie

Après un diplôme d'ingénieur à l'ENSIIE (anciennement sous la tutelle du CNAM) à Evry, j'ai effectué un DEA de Sciences Cognitives puis une thèse entre l'Université Pierre et Marie Curie et le Collège de France dirigée par Agnès Guillot et Sidney I. Wiener sur l'apprentissage en situation de navigation chez les animaux et les robots. En 2008, j'ai effectué un séjour au Japon dans le laboratoire de Kenji Doya à Okinawa Institute of Science and Technology. Puis j'ai effectué un post-doctorat à l'INSERM à Lyon, où mes travaux étaient à l'interface entre l'équipe de neurophysiologie d'Emmanuel Procyk, et l'équipe de modélisation et robotique de Peter F. Dominey. Depuis 2010, je suis chargé de recherches au CNRS, affecté à l'Institut des Systèmes Intelligents et de Robotique (ISIR UMR 7222) au sein de l'Université Pierre et Marie Curie, Paris 6. J'ai obtenu mon Habilitation à Diriger des Recherches (HDR) en Biologie à l'UPMC le 6 mai 2014.

Télécharger mon CV complet (en anglais).

 

Activités de Recherche

Mes recherches se situent à l'interface entre Neurosciences et Robotique, se focalisant sur : les capacités d'apprentissage et de prise de décision chez les animaux ; les mécanismes cérébraux associés dans le cortex préfrontal, l'hippocampe et les ganglions de la base ; leurs applications à l'apprentissage chez les robots autonomes. J'étudie en particulier comment le cerveau coordonne différents systèmes parallèles d'apprentissage, le réseau hippocampo-préfrontal détectant les différents états du monde (e.g. nouveauté vs familiarité ; contexte A vs contexte B) et les changements de performance de l'agent (e.g. progrès, stagnation, déclin) pour choisir de manière adaptative : le système approprié à chaque situation (e.g. apprendre un graphe cognitif de l'environnement ou non) et l'état correspondant d'apprentissage (e.g. exploration vs exploitation). Ces nouveaux modèles computationnels sont ensuite testés sur des plateformes robotiques intéragissant avec le monde réel, avec l'objectif dual de contribuer à améliorer la flexibilité comportementale chez les robots et de contribuer aux Neurosciences en testant la robustesse de différentes hypothèses biologiques.

 

 

Sélection de publications

  • Palminteri, S., Khamassi, M., Joffily, M. and Coricelli, G. (2015). Contextual modulation of value signals in reward and punishment learning. Nature Communications, 6:8096.
  • Khamassi, M., Quilodran, R., Enel, P., Dominey, P.F. and Procyk, E. (2015). Behavioral regulation and the modulation of information coding in the lateral prefrontal and cingulate cortex. Cerebral Cortex, 25(9):3197-218.
  • Lesaint, F., Sigaud, O., Flagel, S.B., Robinson, T.E. and Khamassi, M. (2014). Modelling individual differences observed in Pavlovian autoshaping in rats using a dual learning systems approach and factored representations. PLoS Computational Biology, 10(2): e1003466.
  • Khamassi, M., Enel, P., Dominey P.F. and Procyk, E. (2013). Medial prefrontal cortex and the adaptive regulation of reinforcement learning parameters. Progress in Brain Research, 202:441-64.
  • Khamassi, M. and Humphries, M. D. (2012). Integrating cortico-limbic-basal ganglia architectures for learning model-based and model-free navigation strategies. Frontiers in Behavioral Neuroscience, 6:79.
  • Bellot, J., Sigaud, O. and Khamassi, M. (2012). Which Temporal Difference Learning algorithm best reproduces dopamine activity in a multi-choice task? SAB 2012 Conference. BEST PAPER AWARD.
  • Caluwaerts, K., Staffa, M., N'Guyen, S., Grand, C., Dollé, L., Favre-Félix, A., Girard, B. and Khamassi, M. (2012). A biologically inspired meta-control navigation system for the Psikharpax rat robot. Bioinspiration & Biomimetics, 7(2):025009.
  • Humphries, M.D., Khamassi, M. and Gurney, K.N. (2012). Dopaminergic control of the exploration-exploitation trade-off via the basal ganglia. Frontiers in Neuroscience, 6:9.
  • Khamassi, M., Lallée, S., Enel, P., Procyk, E. and Dominey P.F. (2011). Robot cognitive control with a neurophysiologically inspired reinforcement learning model. Frontiers in Neurorobotics, 5:1.
  • Benchenane, K., Peyrache, A., Khamassi, M., Tierney, P.L., Gioanni, Y., Battaglia, F.P. and Wiener, S.I. (2010). Coherent theta oscillations and reorganization of spike timing in the hippocampal-prefrontal network upon learning. Neuron, 66(6):912-36.
  • Peyrache, A., Khamassi, M., Benchenane, K., Wiener, S.I. and Battaglia, F.P. (2009). Replay of rule-learning related neural patterns in the prefrontal cortex during sleep. Nature Neuroscience, 12(7):919-26.
  • Khamassi, M., Mulder, A.B., Tabuchi, E., Douchamps, V. and Wiener S.I. (2008). Anticipatory reward signals in ventral striatal neurons of behaving rats. European Journal of Neuroscience, 28(9):1849-66.
  • Khamassi, M., Lachèze, L., Girard, B., Berthoz, A. and Guillot, A. (2005). Actor-Critic Models of Reinforcement Learning in the Basal Ganglia: From Natural to Artificial Rats. Adaptive Behavior, 13(2):131-148.