Institut des Systèmes Intelligents
et de Robotique

Partenariats

Sorbonne Universite

CNRS

INSERM

Tremplin CARNOT Interfaces

Labex SMART

Rechercher

Enseignements

khamassi Mehdi
Titre : Chargé de Recherche
Adresse : 4 place Jussieu, CC 173, 75252 Paris cedex 05
Téléphone : +33 (0) 1 44 27 28 85
Email : khamassi(at)isir.upmc.fr
Equipe : AMAC (AMAC)

 

 

 

 

Enseignements (en cours)

 

2015- Ecole Normale Supérieure Ulm, Paris, CogMaster
Coordinateurs du cours : Mehdi Khamassi et Benoît Girard
"Modélisation robotique en Sciences Cognitives" (cliquer sur le lien pour accéder au contenu du cours)
2015- Université d'Orsay - Paris 11, Master 2 Information, Apprentissage, Cognition
Coordinateur du cours : Michèle Sebag
"Modèles d'apprentissage par renforcement et leurs applications en Robotique et en Neurosciences"
2014- Université Pierre et Marie Curie, Paris 6, Licence (toutes disciplines)
Coordinateurs du cours : Frédéric Decremps et Mehdi Khamassi
"Démarche scientifique, sciences en société et esprit critique" (cliquer sur le lien pour accéder au contenu du cours)
2014- Ecole Normale Supérieure Ulm / PSL Labex, Paris, Master 2 d'Ingénierie Cognitive
Coordinateurs du cours : Emmanuel Dupoux et Srdjan Ostojic
"Apprentissage par renforcement: modèles computationnels et analyses basées modèles de données électrophysiologiques"
2013- Ecole Polytechnique, Palaiseau, Séminaires Cerveau et Cognition
Coordinateurs du cours : Yves Frégnac et Cyril Monier
"Modèles d'apprentissage par renforcement et leurs applications en Robotique et en Neurosciences"
2013- Université Claude Bernard, Lyon 1, Licence (toutes disciplines)
Coordinateur du cours de Zététique : Denis Machon et Maïlys Faraut
"Education à l'image et esprit critique face à la publicité"
2012- Ecole Normale Supérieure Ulm, Paris, Master 1 de Neurosciences
Coordinateurs du cours : Clément Léna et Daniela Popa
"Apprentissage par renforcement: modèles computationnels et analyses basées modèles de données électrophysiologiques"
2012- Polytech Paris UPMC, 5ème année d'école d'ingénieurs
Coordinateur du cours de Robotique : Jean-Baptiste Mouret
"Apprentissage par renforcement et prise de décision neuro-inspirée"
2011- Université Pierre et Marie Curie, Paris 6, Master 2 International de Systèmes Mécatroniques pour la Réhabilitation (Robotique)
Coordinateur du cours : Véronique Perdereau
"Sélection de l'action et apprentissage bio-inspirés"
2010- Université Claude Bernard, Lyon 1, Master 2 de Neurosciences Intégratives
Coordinateurs du cours : Céline Amiez et Jean-Claude Dreher
"Prise de décision et apprentissage par renforcement: éléments de modélisation computationnelle"
2008- Université Pierre et Marie Curie, Paris 6, Master 2 d'Intelligence Artificielle et Décision (Informatique) puis Master 2 ANDROIDE
Coordinateurs du cours : Stéphane Doncieux puis Nicolas Bredèche
"Apprentissage par renforcement neuro-inspiré"

 

Enseignements (passés)

 

2013 Harvard Summer Class in Trento, Italie
Coordinateur du cours : Giorgio Coricelli
"Apprentissage par renforcement: modèles computationnels et analyses basées modèles de données électrophysiologiques"
2013 Univ. Pierre & Marie Curie – Paris 6, Master 2 Integrative Neuroscience
Coordinateur du cours : Laure Rondi-Reig
"Modèles computationnels pour les systèmes de mémoire en jeu dans la navigation"
2012 Telluride Neuromorphic Engineering Summerschool, USA
Organisateurs de l'école d'été : Ralph Etienne-Cummings, Timothy Horiuchi et Tobi Delbruck
"Apprentissage par renforcement: modèles computationnels et analyses basées modèles de données électrophysiologiques"

 

Cours à télécharger

Université Pierre et Marie Curie 2015, Cours sur les modèles d'apprentissage par renforcement, leurs liens avec la neurobiologie, et leurs applications à la robotique autonome :

  1. Model-free (MF) Reinforcement Learning (RL)
    1. Temporal-Difference Learning
    2. Links with Neurobiological and Psychological data
    3. Applications of RL to the Neuroscience of decision-making
    4. Continuous state-space Reinforcement Learning in Robotics
    5. Limitations of MF RL in Neuroscience and Robotics
  2. Model-based (MB) Reinforcement Learning (RL)
    1. Formalism (e.g. dyna-Q, dynamic programming)
    2. Off-line processing and the hippocampus
    3. Meta-Learning for the coordination of MF and MB RL
    4. Meta-Learning for the dynamic regulation of RL parameters
    5. Applications to Robotics and feedback to Neuroscience

Cliquer ici pour télécharger le support du cours