Ce projet vise le développement d’un manipulateur souple pour la cueillette. La cueillette de fruit ou de légume nécessite une préhension compliante et dextre pour garantir l’intégrité de l’objet ainsi qu’une structure porteuse souple pour pouvoir naviguer entre les branches sans les abimer. L’objectif est de développer un robot trompe continu, sans articulation et actionné par des moteurs déportés et des câbles, à l’image des tendons dans une main humaine. Le projet se décline en 3 principales problématiques bien connues dans le domaine de la robotique, à savoir la conception, la modélisation et la commande. Ces 3 aspects sont en réalité très imbriqués pour ce genre de systèmes complexes. Une bonne conception avec une bonne intégration des actionneurs et des capteurs facilite énormément la commande par le biais d’une modélisation adéquate qui répond à la fois à un certain réalisme et une efficacité de calcul.

Le contexte
Dans un contexte de lutte contre le réchauffement climatique et de convergence technologique inédite (numérique, intelligence artificielle, etc.), l’agriculture doit se réinventer pour produire mieux, dans le respect de l’environnement et de la santé humaine. La robotique agricole est l’un des leviers de cette transformation. Elle constitue une solution prometteuse pour répondre aux enjeux environnementaux et sanitaires, qui sont posés actuellement en France et ailleurs dans tous les pays développés. L’urgence climatique imposera une réduction de plus en plus forte de l’utilisation des intrants (produits phytosanitaires, eau, etc.) et des énergies fossiles. Par ailleurs, la filière agricole souffre d’un manque d’attractivité et d’une image négative chez beaucoup de jeunes (ruralité, tâches répétitives, épuisement, difficultés économiques, isolement, etc.). La numérisation et la robotisation permettront la valorisation de ce métier et déchargera l’agriculteur des tâches répétitives et fatigantes telles que le désherbage, le portage, la cueillette et l’entretien régulier des cultures.
Les objectifs
L’objectif scientifique majeur est de pouvoir répondre aux trois problématiques que sont la conception, la modélisation et la commande, dans une approche simultanée et intégrée, parfois dite de co-design (hardware et software).
Le robot visé s’apparente à une trompe, d’environ un mètre et capable d’atteindre plusieurs configurations stables d’une façon continu. Il est constitué d’un matériau souple, sans articulation, et actionnée par des câbles. Une solution à 3 segments et 6 câbles est aujourd’hui testée pour la saisie d’objet en environnement peu contraint. Dans un second temps, augmenter le nombre de segment et de câbles accroitra la redondance cinématique de la trompe, ce qui permettra d’optimiser la prise et/ou d’éviter d’éventuels obstacles dans l’environnement.

Un corps déformable a par définition un nombre infini de paramètres. Cela constitue une première difficulté dans la caractérisation mathématique de ce genre de système. La commande de ce type de modèle peut être résolue par une approche de commande optimale qui consiste à minimiser un critère coût sous contraintes. Celles-ci représentent les conditions géométriques et élasto-mécaniques du système. La difficulté scientifique serait d’incorporer un modèle de déformation non linéaire en grand déplacement avec une gestion des contacts unilatéraux (robot-objet et auto-collision robot-robot). Plusieurs voies sont en cours d’étude : 1) Utilisation du logiciel SOFA, 2) Réduction de modèle POD, 3) Modèle de Cosserat et MPC.
La commande nécessiterait tout de même de développer des modules d’estimation tels que :
- l’estimation de l’état du robot,
- la perception de l’environnement, identification et localisation de l’objet,
- et la localisation des contacts robot-objet.
Les résultats
Les résultats attendus pour le projet consiste à avoir :
- Un prototype fonctionnel à 6 moteurs commandés en couple ;
- Une commande de la configuration de la trompe ;
- Une prise stable d’un objet axisymétrique ;
- Une mise en place de capteurs extéroceptifs pour l’estimation temps réel de la configuration de la trompe.
Partenariats et collaborations
Les membres du réseau Roboterrium – Equipex Tirrex sont partenaires du projet.
Projet Learn2Grasp : Learning Human-like Interactive Grasping based on Visual and Haptic Feedback
Le projet Learn2Grasp a pour but de développer des stratégies interactives de saisie d’objets dans des environnements encombrés en utilisant un bras robotique et une main dextre très sensible. Les stratégies de saisie seront apprises à l’aide de méthodes d’apprentissage par renforcement profond dans une simulation et sur robot réel, en utilisant des informations provenant de caméras RGB-D et des capteurs tactiles. La saisie est une tâche difficile pour l’apprentissage car il s’agit d’un problème à récompenses rares. Pour résoudre ce problème, deux approches seront combinées : une initialisation à partir de démonstrations par un humain avec une interface de téléopération immersive et une exploration des comportements améliorée par des algorithmes de qualité-diversité.

Le contexte
Les approches existantes de la manipulation fondées sur la théorie du contrôle sont efficaces mais requièrent habituellement un modèle précis des objets à saisir et de leur environnement. Inversement, les méthodes reposant sur l’apprentissage peuvent être entraînées de bout en bout sans un modèle élaboré de l’environnement, mais elles sont souvent inefficaces sur les problèmes d’exploration difficile, et demandent des gros volumes de données d’entraînement. Une troisième possibilité est d’apprendre à partir de démonstrations humaines, mais la généralisation au-delà des conditions des démonstrations est difficile.
Le partenariat franco-allemand Learn2Grasp, fait intervenir deux partenaires complémentaires pour résoudre ce problème. L’Université de Bonn a une expérience reconnue en perception visuelle, modélisation de scène et apprentissage par démonstration, et Sorbonne Université a une expertise en apprentissage d’actions et stratégies d’exploration efficace dans des contextes de récompense rare. Les deux partenaires utiliseront des plateforme robotiques modernes intégrant des mains dotées de capacités tactiles avancées.
Les objectifs
Les objectifs scientifiques du projet sont les suivants :
- Coupler les méthodes de modélisation et d’analyse de scènes développées par Bonn et les techniques de génération de politiques diverses de Sorbonne Université, de façon à développer une méthode de génération de mouvements de saisie robuste, efficace, et économe en données et en calcul.
- Intégrer la modalité tactile avec les méthodes de perception basée sur la vision de façon a apprendre des politiques en boucle fermée plus flexibles et robustes.
- Permettre un apprentissage sur des données hybrides, exploitant au mieux des données issues de simulations, de démonstrations humaines (par une interface de téléopération) et d’expériences sur système réel.
Ces tâches sont structurées en 4 unités de travail :
- WP1 : Modélisation et prédiction de scène structurée et multimodale (Leader : Université de Bonn),
- WP2 : Apprentissage de la saisie interactive (Leader : Sorbonne Université),
- WP3 : Intégration technique (Leader : University of Bonn),
- WP4 : Management et collaboration scientifique (Leader : Sorbonne Université).

Les résultats
Le projet aura pour issue la réalisation d’un système intégré faisant appel aux technologies de perception visuelle et tactile développées pour construire des représentations de la scène, et utilisant de ces représentations pour apprendre efficacement, avec un volume de données non-simulées réduit, des politiques en boucle ouverte et en boucle fermée diverses permettant une saisie robuste en environnement encombré. Ce système devra être évalué sur environnement simulé et réel.
Un autre objectif du projet Learn2Grasp est de renforcer les liens et la collaboration scientifique entre l’équipe AIS de Bonn et l’ISIR à Sorbonne Université, de façon à développer un pôle d’expertise compétent sur tous les aspects de l’apprentissage pour la manipulation d’objets, allant de la perception et la création de représentations jusqu’à la génération d’actions.
Partenariats et collaborations
Le projet Learn2Grasp (réf. ANR-21-FAI1-0004) est une collaboration de recherche entre :
- l’équipe AIS de l’Université de Bonn,
- et l’ISIR de Sorbonne Université.
Cette collaboration est menée dans le cadre de l’appel à projets bilatéral franco-allemand en intelligence artificielle (MESRI-BMBF) 2021. Sa réalisation s’échelonne sur 4 ans, de 2021 à 2025.
Il est coordonné à Sorbonne Université par Alex Coninx, maître de conférences dans l’équipe AMAC de l’ISIR, et à l’université de Bonn par Prof. Dr. Sven Behnke, responsable de l’équipe AIS (Autonomous Intelligent Systems).
Projet CORSMAL: Collaborative Object Recognition, Shared Manipulation And Learning
Dans les robots collaboratifs et d’assistance, la transmission d’objets est une capacité fondamentale et essentielle. Bien que cette capacité puisse sembler simple, puisque les humains effectuent le transfert d’objets sans problème, il est très difficile de le reproduire chez les robots. Le problème du transfert d’objets a été étudié dans le passé et reste un domaine de recherche actif. Il englobe de nombreux sous-problèmes tels que l’étude de l’intention humaine, l’extraction des caractéristiques de l’objet, l’accessibilité, la synthèse de la manipulation et bien d’autres encore.
CORSMAL propose de développer et de valider un nouveau cadre pour la reconnaissance et la manipulation d’objets en collaboration avec des humains, capable d’imiter la capacité humaine d’apprentissage et d’adaptation à travers un ensemble de manipulateurs, de tâches, de configurations de détection et d’environnements différents. Le projet explore la fusion de plusieurs modalités de détection (le toucher, le son et la vision à la première ou à la troisième personne) pour estimer les propriétés physiques des objets de manière précise et robuste dans des environnements bruyants et potentiellement ambigus. L’objectif principal est de définir des architectures d’apprentissage pour les données sensorielles multimodales et pour les données agrégées provenant de différents environnements. L’objectif est d’améliorer continuellement l’adaptabilité et la robustesse des modèles appris, et de généraliser les capacités à travers les tâches et les sites. La robustesse du cadre proposé sera évaluée à l’aide de prototypes mis en œuvre dans différents environnements. Il est important de noter qu’au cours du projet, nous organiserons deux défis communautaires pour favoriser le partage des données et soutenir la reproductibilité des expériences dans des sites supplémentaires.
Le contexte
La coopération avec les humains est un défi important pour la robotique, car les robots seront amenés à travailler conjointement avec les humains. CORSMAL considère un scénario de coopération typique dans lequel un humain et un robot se transmettent un objet inconnu et partiellement occulté, comme par exemple un verre ou une tasse partiellement remplie de liquide, ce qui rend extrêmement difficile la détermination des affordances et des points de prise appropriés. La caractérisation des objets partiellement observables est en effet l’un des problèmes les plus critiques pour instancier des actions robotiques appropriées.

Bien que la mécatronique des manipulateurs robotiques ait atteint un niveau de sophistication considérable, la manipulation d’objets aux propriétés physiques inconnues dans des scènes du monde réel reste extrêmement difficile. Cela est principalement dû à l’absence de modèles appropriés et d’une quantité suffisante de données pour l’apprentissage de ces modèles. Les progrès sont également entravés par l’absence d’une masse critique de chercheuses et chercheurs abordant et évaluant la même tâche à l’aide d’un ensemble de données commun.
Pour résoudre ce problème, CORSMAL construira, grâce à l’inclusion de priorités physiques et de connaissances du domaine, des modèles d’apprentissage qui fonctionnent avec moins de données. En outre, CORSMAL mettra les données d’entraînement et les modèles à la disposition des autres chercheuses et chercheurs et, pour faciliter le partage des données et l’implication de la communauté des scientifiques, organisera deux défis lors de conférences internationales. Ces défis et l’évaluation associée illustreront l’interaction humain-robot typique qui a lieu lorsque le robot est chargé de manipuler des objets arbitraires manipulés quotidiennement par les humains.

Les objectifs
Les questions scientifiques spécifiques que CORSMAL abordera sont :
- Peut-on imiter la capacité humaine d’apprendre à partir de quelques exemples et d’adapter rapidement la manipulation en fusionnant de multiples indices ?
- Pouvons-nous reproduire la capacité humaine à prédire les affordances et les forces applicables appropriées pour le transfert d’objets inconnus à partir d’indices partiels ?
- Pouvons-nous apprendre efficacement les compromis entre les modèles spécifiques au manipulateur et les modèles généralisés par le partage des données pour une reconnaissance et une manipulation précise et robuste des objets ?
Pour répondre à ces questions, CORSMAL étudiera, concevra et validera de nouveaux modèles et technologies d’apprentissage pour combler l’écart entre la perception et la manipulation d’objets inconnus par le biais de la détection multimodale, de l’apprentissage automatique et de l’adaptation de modèles. Le projet vise à créer un système artificiel capable d’apprendre des primitives de mouvement adaptées à l’interaction physique humain-robot. Le système doit améliorer sa compréhension de l’environnement en utilisant les modèles appris et les observations d’un humain pour façonner les affordances du robot dans la manipulation d’objets.
Dans ce projet, l’équipe de l’ISIR se concentrera sur le problème de la préhension. En effet, un robot n’est toujours pas capable de saisir un objet aux propriétés inconnues, en mouvement et partiellement caché, comme il l’est lorsqu’il est tenu dans une main humaine.
Les résultats
Les humains peuvent sentir, peser et saisir divers objets, et en déduire simultanément leurs propriétés matérielles tout en appliquant la bonne quantité de force. Nous voulons reproduire cela avec notre système robotique. Pour ce faire, nous avons besoin d’obtenir des informations sur l’interaction entre notre robot et l’objet à saisir.
Notre approche combinera les deux méthodes existantes pour résoudre le problème de la préhension : la méthode analytique et la méthode basée sur les données (illustrée dans la figure ci-dessous).

La main du robot sera préformée en fonction de la forme primitive de l’objet, en s’inspirant des approches basées sur les données qui étudient la façon dont les humains effectuent des saisies, ce qui permet de réduire l’espace de recherche pour les saisies appropriées. Nous initierons ensuite la fermeture de la main jusqu’à ce qu’un maximum de contacts soit établi avec l’objet. Sur la base des emplacements des points de contact et des positions des articulations, nous obtiendrons les emplacements de contact dans l’espace 3D, ainsi que la somme des forces appliquées à l’objet. Nous rechercherons les forces appliquées pour obtenir une fermeture de force par une combinaison de points de contact. Lorsque la fermeture de force n’est pas atteinte, une approche analytique aidera à trouver le point de contact où placer/replacer un doigt.
Notre approche sera testée et validée avec la main Wonik Allegro Hand with 16 DOF équipée de 368 capteurs tactiles de Xela electronics répartis sur les phalanges de la main, sa paume et le bout de ses doigts.

Partenaires et collaborations
Ce travail est soutenu par le projet européen CORSMAL dans le cadre de programme CHIST-ERA, sujet d’appel : Object recognition and manipulation by robots: Data sharing and experiment reproducibility (ORMR) et a reçu des financements du Engineering and Physical Sciences Research Council (EPSRC-UK), de l’Agence Nationale de la Recherche (ANR), et du Fonds National Suisse de la Recherche Scientifique.

Les partenaires du projet sont :
– Queen Mary University of London – Royaume-Uni, (coordinateur du projet),
– ISIR de Sorbonne Université – France,
– École Polytechnique Fédérale de Lausanne (EPFL) – Suisse.
En savoir plus sur CORSMAL : corsmal.eecs.qmul.ac.uk
Projet SOFTMANBOT : Technologie robotique avancée pour la manipulation de matériaux mous dans les secteurs de la fabrication
SOFTMANBOT est un projet axé sur l’utilisateur industriel final, qui fournira un système robotique innovant et global pour la manipulation de matériaux souples et déformables, dans le cadre de processus de production à forte intensité de main-d’œuvre.
Le système robotique sera composé de trois éléments principaux :
- un système de perception robotique générique (perception du produit et de l’opérateur humain),
- une plateforme de contrôle et de planification multi-capteurs (algorithmes de contrôle avancés pour l’asservissement de la forme et du contact, généralisation des tâches basée sur l’IA),
- et des pinces agiles intelligentes (conception mécanique intelligente qui incarnera les compétences de préhension/manipulation et intégrera des capteurs – principalement tactiles – pour identifier précisément l’état de contact entre le produit et le préhenseur) capables de manipuler des composants souples avec des niveaux élevés de robustesse et de flexibilité.

Le contexte
Les robots sont employés depuis longtemps dans des applications de l’industrie automobile, depuis leur introduction dans ce secteur au milieu du siècle dernier. Depuis, les solutions robotiques ont été adoptées par de nombreux secteurs et pour des applications diverses comme dans les domaines de l’aéronautique, l’électronique, l’électroménager, l’industrie alimentaire, l’emballage, les machines textiles, etc. Toutefois, l’adoption de solutions robotiques dans les processus industriels reste faible dans un nombre important de secteurs qui pourraient être la cible idéale de ce type de solutions en raison de la nature de leur travail (tâches répétitives, dangereuses, etc.). Ce fait limite le niveau d’automatisation dans ces industries et restreint le potentiel de croissance de ces entreprises, en particulier dans des secteurs déterminés tels que les industries du textile, de la chaussure ou du jouet, qui doivent réduire leurs coûts de production et augmenter leur productivité en raison de la concurrence acharnée à laquelle ils sont confrontés avec des produits provenant d’autres marchés internationaux tels que l’Asie (Chine, Bangladesh, Inde, etc.).
Les objectifs
L’objectif général du projet est de développer et de démontrer une approche innovante et universelle de la manipulation robotique de matériaux flexibles et déformables, basée sur l’intégration de technologies de fabrication avancées pour l’automatisation de tâches basées sur le contact, soutenue par un système de perception robotique intelligent, une plateforme de planification et de contrôle multi-capteurs et le déploiement de préhenseurs intelligents et à dextérité universelle capables de manipuler des composants souples avec des niveaux élevés de robustesse et de flexibilité.
Afin de réaliser l’objectif du projet, le projet SOFTMANBOT se déroulera sur 42 mois avec un plan de travail divisé en 9 Work Packages.

Les résultats
Les résultats attendus sont les suivants :
- Une architecture modulaire et inter-opérable intégrant les différents systèmes et composants matériels et logiciels de la solution robotique SOFTMANBOT ;
- Une plateforme de perception robotique pour la configuration et le suivi en temps réel de la déformation et de l’état de contact de produits flexibles complexes intégrant des stratégies d’apprentissage ;
- Un système de planification et de contrôle multi-capteurs qui, en prenant comme entrées le modèle du produit et le modèle des interactions homme-robot, implémentera les compétences du robot pour gérer la déformation et le contact du produit, établira une séquence d’actions pour réaliser les tâches, définira les sorties requises pour interagir avec l’homme et enfin paramètrera de manière générique les tâches à réaliser ;
- Des préhenseurs intelligents, adroits et peu coûteux pour la manipulation d’objets déformables, intégrant des capteurs (tactiles, de force, de proximité, de vision…) et une structure mécanique intelligente (incarnation des capacités de préhension/manipulation) capables d’exécuter des tâches de manipulation difficiles avec des niveaux élevés de précision, de tolérance aux pannes, de robustesse et de flexibilité dans des environnements difficiles et changeants ;
- Intégration des composants et modules technologiques développés pour la conception de solutions rentables et adaptatives pour des applications industrielles ;
- Validation des résultats du projet de manière rentable dans des conditions industrielles réelles par le biais de 4 démonstrations pilotes dans quatre usines européennes (secteurs du jouet, du textile, de la chaussure et du pneumatique) ;
- Une évaluation environnementale (LCA), économique et sociale de l’ensemble de la solution SOFTMANBOT, y compris une évaluation de l’acceptation par les utilisateurs ;
- Des plans de diffusion, d’exploitation et de communication coordonnés afin de maximiser l’impact technique, social et économique du projet au sein des clusters de démonstration et à travers l’Europe.
Partenariats et collaborations
Ce projet a été financé par le programme de recherche et d’innovation Horizon 2020 de l’Union européenne « Transforming European Industry », sous la convention de subvention nº 869855.

Le consortium est composé de la manière suivante :
- Sigma Clermont, Université Clermont Auvergne – France,
- AIJU Institut Technologique – Espagne,
- INESCOP, Centre de technologie et d’innovation – Espagne,
- Industria Auxiliar Juema – Espagne,
- Sorbonne Université – France,
- Decathlon Produzione Italia – Italie,
- STAM Mastering Excellence – Italie,
- IIT, Institut Italien de Technologie – Italie,
- Zimmer Group – Allemagne,
- PTH URBAN – Espagne,
- Michelin – France.
En savoir plus sur SOFTMANBOT: http://softmanbot.eu/
Projet INDEX: Robot In-hand Dexterous manipulation by extracting data from human manipulation of objects to improve robotic autonomy and dexterity
Le projet InDex vise à comprendre comment les humains manipulent des objets avec leurs mains et reproduire les mouvements observés avec des mains artificielles dextres, en fusionnant les concepts d’apprentissage par renforcement et par transfert pour généraliser les capacités de manipulation pour de multiples objets et tâches. De plus, une abstraction et une représentation des connaissances antérieures seront fondamentales pour la reproductibilité des compétences acquises sur différents matériels. L’apprentissage utilisera des informations provenant de plusieurs modalités qui seront collectées, annotées et assemblées dans un grand ensemble de données. Les données et nos méthodes seront partagées avec la communauté de recherche au sens large afin de permettre des tests par rapport à des points de référence et la reproduction des résultats.


Le contexte
L’être humain excelle lorsqu’il s’agit de manipuler des objets du quotidien, d’apprendre de nouvelles compétences et de s’adapter à des environnements différents ou complexes. Il s’agit de compétences fondamentales pour notre survie et d’une caractéristique essentielle de notre monde d’artefacts et de dispositifs fabriqués par l’homme. Notre capacité à utiliser nos mains est le résultat d’une vie d’apprentissage, à la fois en observant d’autres humains compétents et en découvrant par nous-mêmes comment manipuler des objets. Malheureusement, les mains robotisées d’aujourd’hui sont encore incapables d’atteindre un tel niveau de dextérité par rapport aux humains et les systèmes ne sont pas non plus entièrement capables de comprendre leur propre potentiel.
Les objectifs
Pour que les robots puissent véritablement fonctionner dans un monde humain et répondre aux attentes en tant qu’assistants intelligents, ils doivent être capables de manipuler une grande variété d’objets inconnus en maîtrisant leurs capacités de force, de souplesse et de subtilité. Pour atteindre une telle dextérité avec des mains robotiques, une aptitude cognitive est nécessaire pour faire face aux incertitudes du monde réel et pour généraliser les compétences acquises précédemment à de nouveaux objets et tâches. En outre, nous affirmons que la complexité de la programmation doit être fortement réduite et que l’autonomie des robots doit devenir beaucoup plus naturelle.
Les objectifs principaux sont :
- la construction d’une architecture de perception artificielle multimodale qui extrait des données de manipulation d’objets par des humains,
- la création d’un ensemble de données multimodales de tâches de manipulation avec la main telles que la préhension, la réorientation et le repositionnement fin,
- le développement d’un système avancé de modélisation et de reconnaissance d’objets, comprenant la caractérisation des affordances et des propriétés de préhension des objets, afin de capturer à la fois les informations explicites et les utilisations implicites possibles des objets,
- l’apprentissage autonome et l’imitation précise des stratégies humaines dans les tâches de manipulation,
- et la construction d’un lien entre l’observation et l’exécution, permettant un déploiement indépendant de l’architecture du robot.
Les objectifs de l’équipe de l’ISIR sont de concevoir :
- un planificateur en temps réel pour la saisie et la manipulation robotique,
- une commande de rétroaction optimale pour déterminer les états intermédiaires qui donnent les meilleures performances possibles pour la transition d’un état initial à l’état désiré suivant,
- des contrôleurs multimodaux de bas niveau qui permettent à la main artificielle de manipuler l’objet ciblé en tenant compte du fait que le système robotique a besoin de sources d’information diverses et variées pendant la séquence d’action, ce qui donne lieu à une structure de commande complexe,
- le réglage de la saisie, la tenue d’un objet dans une main exige que les doigts maintiennent fermement l’objet sans aucun glissement et résistent aux perturbations externes liées ; en d’autres termes, la prise doit être stable.
Les résultats
La manipulation robotique de la main est basée sur une combinaison de mouvements primitifs humains. Les mouvements primitifs ont été extraits et testés pour être efficaces dans la reconstitution des trajectoires. Le planificateur de trajectoire en temps réel est en cours de conception et combine les mouvements primitifs sous les contraintes de la manipulation robotique à la main pour générer les trajectoires.
Partenariats et collaborations
Ce travail est soutenu par le projet européen InDex dans le cadre du programme CHIST-ERA, sujet d’appel « Object recognition and manipulation by robots: Data sharing and experiment reproducibility (ORMR) ». Le projet a reçu un financement du Ministère italien de l’éducation et de la recherche (MIUR), du Fonds scientifique autrichien (FWF) sous la convention de subvention n° I3969-N30, de l’Engineering and Physical Sciences Research Council (EPSRC-UK) sous la référence EP/S032355/1 et de l’Agence Nationale de la Recherche (ANR) sous la convention de subvention n° ANR-18-CHR3-0004.

Les partenaires du projets sont :
- Université Aston – Royaume-Uni (coordinateur),
- Université Technique de Vienne – Autriche,
- Université de Tartu – Estonie,
- Sorbonne Université – France,
- Université of Gênes – Italie.