Offres d’emploi
Post-doctorat « Développement d’un modèle numérique patient-spécifique pour la chirurgie cardiaque »
Contexte :
Le travail de post-doc s’inscrit dans le cadre d’un projet RHU-ICELAND qui regroupe plusieurs partenaires académiques, hospitaliers et un industriel. L’objectif du projet est de développer une nouvelle solution d’annuloplastie de la valve mitrale par voie transfémorale intégrant une échographie intra-cardiaque. Une telle solution permettra d’intervenir à cœur battant, sans circulation extracorporelle, fournissant ainsi, en première phase, une solution de réparation de la valve mitrale pour les patients considérés à haut risque qui ne sont pas éligibles à la chirurgie ouverte, et plus loin pour la plupart des patients nécessitant une réparation de la valve mitrale.
L’annuloplastie directe consiste à fixer un anneau ou une bande directement sur l’anneau mitral à l’aide d’ancres sous guidage direct écho-cardiographique et fluoroscopique. L’avantage de cette technique est qu’elle contraint la forme de l’anneau mitral, reproduisant ainsi au plus près l’annuloplastie mitrale chirurgicale. Le projet RHU-ICELAND porte sur deux phases essentielles : le développement d’un modèle numérique de l’anatomie et du système robotique permettant la dépose des agrafes sur la valve mitrale, et ensuite la conception et l’évaluation du système robotique validé au préalable en numérique.
Objectifs scientifiques :
Dans un premier temps, le ou la post-doc recruté(e) se penchera sur la modélisation numérique de la partie anatomique (veines, cœur, valve mitrale…). Un premier travail a été réalisé sur la conception du modèle numérique du cœur et de la valve mitrale avec des cycles d’ouverture et de fermeture. L’objectif est de venir enrichir ce modèle pour le rendre le plus réaliste possible. Le modèle sera utilisé à la fois pour la formation des cliniciens, le planning préopératoire de l’intervention mais aussi à valider les modèles géométriques, cinématiques et dynamiques du système robotique (cathéter actif) lors de sa navigation entre le point d’entrée (veine fémorale) jusqu’à son arrivée sur site (face à la valve mitrale). L’autre objectif à moyen et long terme est d’avoir un modèle numérique réaliste et surtout patient spécifique, c’est à dire construire le modèle numérique basé sur les images pre-opératoire du patient.
Le ou la candidat(e) recruté(e) prendra place dans le contexte d’une collaboration étroite avec les équipes académiques et cliniques impliquées dans le projet notamment au moment d’intégrer les travaux dans le démonstrateur final. Le ou la post-doc bénéficiera d’un environnement de recherche stimulant et d’un accès à des données cliniques des partenaires cliniques et industriels du projet. Il ou elle participera à la gestion du projet (participation aux réunions, prise de décisions, rédaction de rapports…).
Structure d’accueil :
Le ou la candidat(e) recruté(e) intégrera l’Institut des Systèmes Intelligents et de Robotique (ISIR) de Sorbonne Université et du CNRS (Paris). L’ISIR est organisé en plusieurs équipes pluridisciplinaires dont RPI-Bio. Parmi les activités de recherche abordées par les chercheuses et les chercheurs, la microrobotique, les drones, la robotique chirurgicale, les prothèses bioniques, les robots sociaux, et toutes sortes de systèmes intelligents et interactifs, physiques, virtuels ou de réalité mixte, l’intelligence artificielle… Leurs applications adressent des enjeux sociétaux majeurs : santé, industrie du futur, transports, et service à la personne.
L’équipe RPI-Bio (robotique, perception et interaction pour le biomédical), dans laquelle le ou la post- doc recruté(e) sera rattaché(e), mène des recherches en robotique pour la santé sur le thème des systèmes interactifs pour l’aide au geste expert (chirurgie), de perception (visuel et haptique), d’interfaces humain-machine, de télémédecine et de microrobotique. RPI-Bio récemment labellisée Inserm possède notamment une longue expérience en développement de solutions robotiques avancées pour la médecine interventionnelle (orthopédie, neurochirurgie, chirurgie ORL, interventions endovasculaires…).
Profil recherché :
– Robotique, mécatronique, simulation et/ou modélisation numérique
– Compétences avancées en programmation (C++, Matlab, Python)
– La maîtrise d’une librairie de simulation numérique de robots souples (e.g., SOFA) sera un plus
– Enthousiasme pour la recherche interdisciplinaire et esprit de collaboration
Informations générales :
– Encadrants : Lingxiao Xun ; Brahim Tamadazte
– Date de début de contrat : dès que possible
– Durée du contrat : 12 mois renouvelable pour 12 mois supplémentaires
– Salaire : en fonction de l’expérience
– Laboratoire d’accueil : ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris
Personne à contacter :
Envoyer, un seul fichier pdf rassemblant : un CV, une lettre de motivation et les articles scientifiques que vous jugez utiles au dossier à lingxiao.xun@sorbonne-universite.fr et brahim.tamadazte@cnrs.fr. Merci de mettre en objet du mail « post-doc rhu ».
Intitulé du poste : Post-doc « Haptique et interactions humain-machine multisensorielles »
Contexte :
Ce post-doc s’inscrit dans le cadre du projet ANR NeuroHCI. L’objectif global de NeuroHCI est d’améliorer la prise de décision humaine dans les mondes physique et numérique dans des contextes en interaction. Il existe différents scénarios dans lesquels un humain prend une décision avec un système interactif. La décision peut concerner un choix complexe du monde réel assisté par un ordinateur (par exemple, un traitement médical), le choix d’une méthode pour réaliser une tâche numérique (par exemple, retoucher une photo avec l’outil préféré), ou la manière dont nous décidons de la meilleure façon. pour effectuer une interaction haptique.
Missions :
L’approche scientifique envisagée reposera sur l’optimisation du retour haptique fourni à l’utilisateur en ce qui concerne la vision et l’audition en tirant parti de modèles informatiques d’intégration multisensorielle. Ainsi, les activités scientifiques du projet s’articuleront autour des questions suivantes:
– Comment s’assurer que les incohérences entre ce que l’utilisateur voit et ce qu’il ressent ne brisent pas l’illusion et comment atténuer leurs effets sur l’expérience utilisateur ?
– Comment les incohérences visuo-haptiques influencent les stratégies des utilisateurs (par exemple, avec quels objets ils décideront d’interagir) et la prise de décision de haut niveau
Profil recherché :
Le candidat idéal doit être titulaire d’un doctorat et d’une solide expérience en interaction homme-machine et/ou en sciences cognitives.
Compétences requises :
– Expérience en haptique désirée ;
– Solides compétences en Python, Matlab ou équivalent ;
– Bonne connaissance de la conception expérimentale, de la psychophysique et des statistiques ;
– Excellent dossier de publication ;
– Volonté de travailler dans une équipe multidisciplinaire ;
– Bonnes compétences en communication;
Information générale :
– Date de début de contrat : au plus tard le 01/06/2024
– Durée du contrat : 24 mois
– Quotité de travail : 100%
– Expérience souhaitée : Débutant à 4 ans
– Niveau d’études souhaité : Doctorat
– Laboratoire d’accueil : ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
Personne à contacter :
– David Gueorguiev ; david.gueorguiev(at)sorbonne-universite.fr
– Envoyer votre candidature par mail, avec [nom de l’offre] en objet, un CV et une lettre de motivation.
Post-doc : « Apprentissage en robotique, avec application à la saisie d’objets »
Contexte :
Dans le cadre du projet FET Proactive DREAM (http://dream.isir.upmc.fr/), une approche de la robotique adaptative basée sur l’apprentissage ouvert a été définie. L’objectif principal est de permettre à un robot d’apprendre sans nécessiter une préparation minutieuse par un expert. Cette approche soulève de nombreux défis, notamment l’apprentissage avec des récompenses rares, l’apprentissage de représentations (pour les états et les actions), l’apprentissage et l’exploitation de modèles, le transfert d’apprentissage, le méta apprentissage et la généralisation. Ces sujets sont considérés en simulation, mais aussi sur des plateformes robotiques réelles, notamment dans le contexte de la saisie d’objets.
Missions :
Ce poste vise à contribuer à ces sujets dans le cadre de plusieurs projets européens, en particulier SoftManBot, Corsmal, INDEX et Learn2Grasp. S’appuyant sur les travaux antérieurs de l’équipe de recherche, les approches proposées devront être facilement adaptables à différentes plateformes robotiques et seront donc appliquées à différents robots (bras Panda de Franka-Emika, Baxter, PR2 ou TIAGO, par exemple).
Profil recherché :
Les candidats à ce poste doivent être titulaires d’un doctorat en apprentissage machine ou dans un domaine connexe dans lequel des applications robotiques (simulées ou réelles) ont été considérées.
Compétences requises :
Une excellente formation est attendue en apprentissage machine ainsi qu’une expérience en robotique. D’excellentes compétences en programmation en Python sont attendues.
Plus d’informations :
- Type de poste : Chercheuse / Chercheur post-doctoral
- Durée du contrat : 24 mois
- Niveau d’études souhaité : Doctorat
- Montant rémunération : Rémunération en fonction de l’expérience
- Laboratoire d’accueil : ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
Personne à contacter :
- Stéphane Doncieux
- stephane.doncieux(at)sorbonne-universite.fr
- Envoyer votre candidature par mail, avec [nom de l’offre] en objet, un CV et une lettre de motivation.
Offres de doctorat, postdoctorat ou d’ingénieur·e de recherche pour le groupe HCI Sorbonne (Human Computer Interaction)
Contexte :
Nous avons plusieurs postes pour un postdoctorat ou en tant qu’ingénieur·e de recherche dans le groupe HCI Sorbonne (https://hci.isir.upmc.fr) à Sorbonne Université, Paris, France.
Missions :
Nous cherchons des personnes curieuses qui souhaitent réaliser des projets de recherche à l’intersection de l’IHM et neuroscience avec (au choix) la RV, l’haptique, la robotique ou l’IA. Des sujets possibles sont :
- Nouvelles techniques d’interaction en RV,
- RV et Haptique pour le jeux et/ou l’apprentissage,
- Modèles computationnels pour l’apprentissage, la prise de décision et la performance humaine,
- Systèmes de recommandation s’appuyant sur l’IA.
Exemples de travaux récents dans ces domaines :
- CoVR (UIST21): https://dl.acm.org/doi/10.1145/3379337.3415891
- AI-based Recommendation systems (CSCW 21): https://dl.acm.org/doi/abs/10.1145/3476068?sid=SCITRUS
- Adapting UIs with Reinforcement Learning (CHI 21): https://dl.acm.org/doi/abs/10.1145/3411764.3445497
- Mixed Control of Robotic systems (CHI 20): https://dl.acm.org/doi/10.1145/3313831.3376795
Profil recherché :
Pour un post-doctorat, un doctorat en IHM ou un domaine en lien avec l’IHM est nécessaire.
Compétences requises :
- Compétences solides en programmation et analyse strong programming and analytical skills,
- Solide expérience dans au moins un de ces domaines : IHM, RV, Haptique, Robotique, IA.
Plus d’informations :
- Type de poste : Postdoctorat ou Ingénieure de Recherche
- Date de début de contrat : dès que possible
- Durée du contrat : 1 à 2ans
- Niveau d’études souhaité : Master 2 (pour ingénieur), doctorat (pour post-doc)
- Laboratoire d’accueil : ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
Personnes à contacter :
- Gilles Bailly et Sinan Haliyo
- Email : gilles.bailly(at)sorbonne-universite.fr ; sinan.haliyo(at)sorbonne-universite.fr
- Candidature : Envoyer votre candidature par mail, avec un CV et une lettre de motivation.
- Date limite de dépôt de la candidature : Aucune
Offres de thèse
Sujet de thèse : Segmentation et recalage de nuages de points 3D pour la chirurgie orthopédique
Contexte :
Cette proposition de thèse s’inscrit dans l’un des axes de recherche de l’équipe RPI-Bio de l’ISIR qui a pour objectif de répondre à l’impératif du geste extrême et maîtrisé sur le vivant (caractérisation, diagnostic, chirurgie, etc.). L’équipe tire parti d’un rapprochement fondamental entre robotique médicale, microrobotique, perception et IA pour développer des approches globales et multidisciplinaires. Parmi les travaux menés dans l’équipe, une plateforme de réalité augmentée pour la chirurgie du genou (projet ANR MARSurg) est en cours de réalisation. Elle s’appuie sur les apports de la vision par ordinateur et de l’apprentissage machine pour s’affranchir des limites des procédures chirurgicales actuelles. En orthopédie, le positionnement 3D de la prothèse du genou, des structures anatomiques, des outils… doit être estimé avec la plus grande précision pour garantir une valeur ajoutée clinique à cette nouvelle plateforme. La pratique actuelle est dominée par l’utilisation d’instruments métalliques, dits ancillaires, spécifiques à l’implant. Elle est donc invasive et sa précision peut être améliorée.
De plus en plus souvent, la procédure chirurgicale est planifiée dans les détails en amont, grâce à l’utilisation d’imagerie préopératoire, puis transposée durant l’intervention sur le patient, ce qui demande un recalage précis entre la modélisation préopératoire et le genou du patient. Ces approches ont permis d’améliorer la procédure du placement des prothèses en orthopédie, mais présentent encore plusieurs problèmes, notamment celui de la précision du recalage, du temps de préparation préopératoire et de réalisation per-opératoire.
Objectifs scientifiques de la thèse :
Dans le cas de la localisation précise du genou, l’objectif est d’identifier les pixels de chaque partie du genou afin de venir recaler un modèle 3D de celui-ci. Pour cette chirurgie orthopédique, la ou le doctorant recruté aura pour mission scientifique de développer des méthodes reposant sur l’’apprentissage profond pour localiser et estimer la pose des structures anatomiques et des instruments de chirurgie. Dans un premier temps, une segmentation sémantique permettra de localiser les objets d’intérêt dans l’image. L’utilisation conjointe d’informations de texture (RGB) et de profondeur, via l’emploi de caméras RGB-D, devra permettre d’améliorer la précision et la robustesse de la segmentation. Les algorithmes développés devront répondre à deux défis majeurs : d’une part, l’utilisation conjointe d’informations spatiales haute résolution et contextuelles pour obtenir des solutions sémantiquement cohérentes, et d’autre part, la fusion des images RGB et de profondeur, qui ont des contenus très différents. Les nuages de points associés aux différentes régions issues de la segmentation seront recalés avec ceux d’un modèle 3D préopératoire (e.g., CT scan ou IRM), voire d’un modèle générique (e.g., CAO) grâce à un vecteur de caractéristiques associé à chaque point et appris pour répondre au mieux à l’estimation de la transformation rigide entre les deux nuages. Ainsi, si la segmentation et le recalage précis d’images RGB-D sont des défis à part entière, un troisième défi réside dans la fusion de ces deux tâches : dans quelle mesure le modèle 3D et son recalage ne pourrait pas aider la segmentation et vice versa ? Une solution globale, fusionnant ces aspects dans un seul apprentissage pourrait alors être envisagée.
Profil et compétences :
Diplôme de Master en informatique ou en mathématiques appliquées, diplôme d’ingénieurs. Compétences et expérience en machine learning. Bonnes compétences techniques en programmation et familier des bibliothèques d’apprentissage machine.
Modalités de candidature et date limite :
Envoyer votre dossier de candidature (CV, lettre de motivation, relevés de notes de M1 et M2 ou équivalent), en un seul fichier PDF, aux adresses mails susmentionnées avant le 25 septembre 2024.
Supervision : Catherine ACHARD, Professeure Sorbonne Université, catherine.achard@sorbonne-université.fr et Brahim TAMADAZTE, Directeur de Recherche du CNRS, brahim.tamadazte@cnrs.fr
Financement : Allocation de Recherche de l’école doctorale SMAER de Sorbonne Université. Le financement est attribué en fonction du profil et du parcours du candidat qui sera amené à présenter son dossier de candidature devant un jury de sélection.
Structure d’accueil : L’Institut des Systèmes Intelligents et de Robotique (ISIR).
Thesis title: “Foundation Models for Physics-Aware Deep Learning”
Context:
Physics-aware deep learning is an emerging research field aiming at investigating the potential of AI methods to advance scientific research for the modeling of complex natural phenomena. This is a fast-growing research topic with the potential to boost scientific progress and to change the way we develop research in a whole range of scientific domains. An area where this idea raises high hopes is the modeling of complex dynamics characterizing natural phenomena occurring in domains as diverse as climate science, earth science, biology, fluid dynamics. A diversity of approaches is being developed including data-driven techniques, methods that leverage first principles (physics) prior knowledge coupled with machine learning, neural solvers that directly solve differential equations. Despite significant advances, this remains an emerging topic that raises several open problems in machine learning and application domains. Among all the exploratory research directions, the idea of developing foundation models for learning from multiple physics is emerging as one of the fundamental challenges in this field. This PhD proposal is aimed at exploring different aspects of this new challenging topic.
Research Directions:
Foundation models have become prominent in domains like natural language processing (GPT, Llama, Mistral, etc) or vision (CLIP, DALL-E, Flamingo, etc). Trained with large quantities of data using self-supervision, they may be used or adapted for downstream tasks through pre-training from large amounts of training data. Initial attempts at replicating this framework in scientific domains is currently being investigated in fields as diverse as protein (Jumper et al. 2021), molecule (Zhou 2023), weather forecasting (Pathak 2022, Nguyen 2023, Kochkov 2024). Is the paradigm of foundation models adaptable to more general physics modeling such as the complex behavior of dynamical systems? Large initiatives are emerging on this fundamental topic (https://iaifi.org/generative-ai-workshop). Some preliminary attempts are currently being developed (McCabe 2023, Subramanian 2023, Hao 2024). They suggest that learning from multiple steady-state or time dependent partial differential equations (PDEs) could enhance the prediction performance on individual equations. This high stake, high gain setting might be the next big move in the domain of data-driven PDE modeling. The objective of the PhD is to explore different directions pertaining to the topic of foundation models for physics, focused on the modeling of dynamical systems.
– Solving parametric PDEs:
A first step is to consider solving parametric partial differential equations (PDEs), i.e. PDEs from one family with varying parameters including initial and boundary conditions, forcing functions, or coefficients. It is possible that different parameters values, give rise to very different dynamics. Current neural solvers operate either on fixed conditions or on a small range of parameters with training performed on a sample of the parameters. A first direction will be to analyze the potential of representative NN solvers to interpolate and extrapolate out of distribution to a large range of conditions when learning parametric solutions. A key issue is then the development of training techniques allowing for fast adaptation on new dynamics. We will investigate methods inspired from meta-learning for adaptive strategies (Yin 2021, Kirchmeyer 2022).
– Tackling multiple physics:
The foundation approach is particularly interesting in the case of scarce data, provided physics primitive could be learned from related but different PDE dynamics that are available in large quantities and then transferred to the case of interest. Learning from multiple PDEs raises algorithmic challenges since they operate on domains with different space and time resolutions, shapes and number of channels. We will consider an Encode-Process-Decode framework so that the commonalities between the dynamics are encoded and modeled in a shared latent space and the encoding-decoding process allows to project from and to the observation space for each PDE. As for the temporal variability of the observations, one will consider models that can operate on irregular series in the spirit of (Yin2023). This framework will be evaluated with selected backbones.
– Generalization and few shot capabilities:
Generalization to new dynamics is the core problem motivating the development of foundation models in science. This is a key issue for the adoption of data-driven methods in physics and more generally in any context were the data is scarce. We will consider the general framework of few shot learning aiming at fine tuning pre-trained models for downstream tasks. In this context the objective will be to develop frameworks for the fast adaptation of foundation models to target tasks. Different strategies will be analyzed and developed including parameters sampling, meta-learning for adaptation (Yin 2023) and strategies inspired from the developments in semantics and language applications like in-context learning (Chen 2024).
Position and Working Environment:
The PhD studentship is a three years position starting in October/November 2024. It does not include teaching obligation, but it is possible to engage if desired. The PhD candidate will work at Sorbonne Université (S.U.), Pierre et Marie Campus in the center of Paris. He/She will integrate while benefiting the MLIA team (Machine Learning and Deep Learning for Information Access) at ISIR (Institut des Systèmes Intelligents et de Robotique). MLIA is collaborating with fellow scientists from other disciplines such as climate or fluid mechanics. The PhD candidate will be encouraged to get involved in such collaborations.
Required Profile:
Master degree in computer science or applied mathematics, Engineering school. Background and experience in machine learning. Good technical skills in programming.
General information:
– Supervisor: Patrick Gallinari, patrick.gallinari@sorbonne-universite.fr
– Collaboration for the thesis: Cerfacs Toulouse, Institut d’Alembert, Sorbonne Université, CNAM Paris
– Host laboratory: ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
– Start date: October/November 2024
– Note: The research topic is open and depending on the candidate profile could be oriented more on the theory or on the application side
– Keywords: deep learning, physics-aware deep learning, fluid dynamics, AI4Science
Contact person:
– Patrick Gallinari
– Email: patrick.gallinari@sorbonne-universite.fr
– Please send a cv, motivation letter, grades obtained in master, recommendation letters when possible to patrick.gallinari@sorbonne-universite.fr
– Application deadline: 15/12/2024
Offres de stage
Internship topic: Design and Development of a User-aware VLM-Based Framework for Social Human-Computer Interactions
Context:
User-aware Vision-Language Models (User-VLMs) are revolutionizing human- computer interaction systems by enabling responsive, human-like interactions tailored to the user’s needs. These models rely on demographic and visual cues (e.g. age, gender, and facial expressions) to generate personalized responses, making them invaluable for healthcare, education, and customer service applications. However, incorporating personalized responses introduces significant privacy challenges, as these systems often require sensitive user data for effective operation. Given the in- creasing societal emphasis on ethical AI development and compliance with regulations like GDPR and the proposed AI Act, there is a critical need to design frameworks that safeguard user privacy while maintaining the performance and personalization of VLMs. This internship addresses this challenge by exploring privacy-preserving techniques for developing VLM-based systems capable of providing personalized, secure, and ethically compliant interactions.
Objective:
The primary aim of this internship is to design and develop a privacy-preserving VLM- based framework that generates personalized responses based on visual and facial demographic characteristics while ensuring user data protection. Specific objectives include:
– Research and Design: Investigate state-of-the-art privacy-preserving mecha- nisms, including alignment, federated learning, differential privacy, and adver- sarial training, in the context of personalized VLMs.
– Framework Development: Build a modular VLM-based framework for demographic-aware personalization that ensures privacy and ethical compliance.
– Evaluation and Benchmarking: Test and benchmark the framework on rele- vant datasets to evaluate privacy-utility trade-offs in generating personalized responses.
– Prototype Deployment: Implement a proof-of-concept prototype for a human- computer interaction application (e.g., virtual healthcare assistant or smart tutoring system).
Profile:
Level: Master 2 / Engineer School
Skills:
– Strong background in Python and Machine Learning
– Strong Knowledge of Vision-Language Models and computer vision (e.g. image processing, facial analysis)
– Familiarity with privacy-preserving AI techniques
– Interest in Human-Computer Interaction and Ethical AI development
– Fluent in English
Duration: 5-6 months
Host laboratory: ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
Contact: Hamed Rahimi ; hamed.rahimi@sorbonne-universite.fr
Sujet du stage : Un système robotique de distribution de nourriture pour des aquariums en rack
Contexte :
La plateforme Animalerie et ingénierie des modèles aquatique assure l’hébergement de plusieurs espèces aquatiques (http://www.ibps.upmc.fr/fr/plateformes/plateforme-aquatique). Elle est considérée comme une des plus grandes de France.
Actuellement, nous élevons plus de 10 000 poissons zèbre adultes répartis dans 1500 aquariums. Leur alimentation est assurée manuellement à l’aide d’un distributeur semi-automatique (photo ci- contre) qui délivre la nourriture en quantités précises grâce à des vibrations. Cette technologie a été brevetée avec le soutien de la Satt Lutech et a fait l’objet d’un transfert de technologie à l’entreprise Planktovie (1).
Bien que l’utilisation de cette technologie garantisse une précision du nourrissage des animaux, elle présente toutefois des contraintes pour les zootechniciens. D’une part, elle demeure une tâche manuelle et, d’autre part, elle nécessite un investissement en temps significatif.
Objectifs :
L’objectif principal du projet est d’automatiser le processus de nourrissage des poissons en intégrant un réservoir de nourriture pour chaque aquarium. Chaque réservoir sera contrôlé à distance par un système basé sur Raspberry Pi/Arduino (2). Les utilisateurs, grâce à un logiciel dédié, auront la possibilité de programmer la fréquence, l’heure et la quantité de nourriture à distribuer pour chaque aquarium.
Dans le cadre de ce projet, nous prévoyons de développer un prototype capable de contrôler une installation comprenant 50 aquariums (photo ci-contre). L’objectif final est de mettre en place un système qui, outre l’automatisation du processus de nourrissage, optimise également les conditions de croissance des poissons.
Déroulement :
Création d’un dispositif composé de trois éléments distincts :
- Une composante mécanique spécifique à chaque aquarium, où la nourriture, présentée sous forme de granulés, sera stockée dans un tube dédié.
- Une composante électronique, comprenant un vibreur fixé à chaque tube de stockage de nourriture.
- Une composante électronique incluant une Raspberry Pi 3, des microcontrôleurs Arduino Megas, et une carte d’interface de relais pour la gestion du courant.
Adaptation d’un logiciel préexistant pour contrôler l’électronique.
Compétences requises :
- Élaboration et programmation de systèmes exploitant des microcontrôleurs
- Utilisation d’une imprimante 3D
- Programmation en langage Python
Informations complémentaires :
- Encadrant·e·s : Sinan Haliyo (ISIR) / Abdelkrim Mannioui (Animalerie Aquatique)
- Date de début du stage : Février – Mars 2025
- Durée du stage : 4 à 6 mois
- Niveau d’études souhaité : M1, M2 ou équivalent
- Laboratoire d’accueil : ISIR (Institut des Systèmes Intelligents et de Robotique) | Animalerie Aquatique du Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
Personne à contacter :
- Sinan Haliyo
- Tel:+33144276384
- Email : <sinan.haliyo@sorbonne-universite.fr>
- Envoyer votre candidature par mail, avec [sujet du stage] en objet, un CV et une lettre de motivation.
Internship topic: Learning communication in action models for human- robot collaboration
Context:
When humans demonstrate tasks, they integrate instrumental actions (manipulating objects) with ostensive communicative cues (e.g., eye gaze, pauses, and exaggeration). These belief-directed actions are intentional, aimed at conveying information beyond the immediate task. This concept, termed communication in action, has been widely studied in Cognitive Science as a key mechanism for establishing shared understanding between actors and observers [Ho-2022].
In robotics, communication in action (Figure 1) is mirrored by the challenge of generating legible robot motion [Dragan-2013,Wallkötter-2022]. Legible motions combine instrumental actions (achieving goals) with belief- directed cues to make the robot’s intent clear to human observers. This often involves exaggerated movements or gaze cues, enabling humans to infer the robot’s goal accurately [Wallkötter-2021]. Computational approaches in Human-Robot Interaction (HRI) typically rely on mathematical models of human expectations to design such motions. However, most current approaches assume a literal interpretation of human and robot actors, leading to limitations in understanding and responding to each other’s actions and intentions. These limitations highlight the need for forward and inverse models capable of encoding and decoding both instrumental and belief- directed intentions, enabling mutual comprehension in human-robot collaborations.
OSTENSIVE is a recent ANR project starting in 2025, coordinated by ISIR and involving CNRS LAAS and INRIA LARSEN. This project aims to advance HRI by developing human-centric interaction systems that integrate instrumental and belief-directed dimensions by exploiting recent machine learning approaches. A PhD project is planned to be proposed as a follow-up to the internship.
Objectives:
This internship focuses on the development of machine learning models that enable robots to act based on double goals: achieving tasks (instrumental actions) and communicating intent (belief-directed actions). For this purpose, we will exploit behavior cloning approaches based on variational auto-encoders and/or diffusion policies [Lee-2024; Liang-2024; Caselles-2022].
The specific objectives are:
– Develop forward and inverse models to encode and decode instrumental and belief-directed actions.
– Design machine learning algorithms to integrate these dimensions into robot behavior.
– Test these models in tasks where robots are instructed through combined instrumental and belief-based goals.
Profile:
– Level: Master 2 / Engineer school
– Skills: Python, Machine Learning, Robotics, and Cognitive Science
– Duration: 5-6 months
Contact:
– Mohamed Chetouani
– ISIR – CNRS UMR7222 Sorbonne Université
– mohamed.chetouani@sorbonne-universite.fr
Internship topic: Multimodal and Privacy-Preserving Machine Learning for Human-Behavior Analysis
Context:
Understanding human behavior is critical for developing intuitive, personalized AI systems, particularly in healthcare [Driss-2020]. However, analyzing human behavior involves sensitive data (e.g., audio, video, wearable sensors) that pose privacy challenges, especially in mental healthcare applications like stress detection and mood recognition [Aigrain-2018]. Current machine learning approaches often rely on centralized data collection, leading to limited applicability across tasks and raising ethical concerns [Guerra-Manzanares-2023]. Privacy regulations such as GDPR and the proposed AI Act emphasize the need for transparent, privacy-compliant solutions. This calls for innovative methods that balance privacy protection with the utility of predictive models while supporting diverse tasks through transferable multimodal representations [Zhao-2020].
Objectives:
This internship focuses on advancing privacy-preserving multimodal machine learning for human behavior analysis. The research will explore methods such as adversarial training, deep auto-encoders, and multimodal foundation models, aiming to achieve robust privacy-utility trade-offs and ethical AI deployment in healthcare [Guerra-Manzanares-2023]. A possible research direction will consider the generation of synthetic data using machine learning.
The specific objectives include:
– Develop generative AI models to learn intrinsic multimodal representations of human behavior while preserving privacy.
– Generate synthetic, privacy-compliant data that maintains utility for predictive tasks.
– Evaluate models on publicly available datasets (e.g., audio, video, and physiological data) for tasks like mental state detection and diagnosis.
This thesis is conducted within a collaborative effort between ISIR (SU) and TICLab (International University of Rabat, IUR, Morocco), which is a strategic partner of Sorbonne University.
Profile:
– Level: Master 2 / Engineer school
– Skills: Python, Machine Learning, Robotics, and Cognitive Science
– Duration: 5-6 months
Contact:
– Mohamed Chetouani
– ISIR – CNRS UMR7222 Sorbonne Université
– mohamed.chetouani@sorbonne-universite.fr
Sujet de stage : Ingénierie pour la technologie d’assistance des Déficients Visuels
Présentation :
L’équipe A-Eye qui a participé à la compétition cybathlon avec le dispositif ci-joint souhaite aller de l’avant et travailler à une solution plus open-source (plus disponible aux personnes) et plus compact du dispositif.
Ainsi il y a deux pistes qui sont à explorer pour améliorer le dispositif. Dans un premier temps, nous souhaiterions développer une solution de guidage qui se positionnerait au niveau des épaules plutôt qu’une solution de guidage qui se trouve attaché à un harnais qui a des éléments tout autour du corps comme on peut le voir sur la photo.
Le candidat aura donc la mission de développer une solution mécatronique pour faire un retour en effort intégré à une sorte de collier rigide qui pourrait se positionner au niveau du cou. Ce retour sensoriel consistera à faire un léger étirement de la peau au niveau du cou. Le système construit devra prévoir l’espace pour intégrer un ordinateur, une caméra 3d, des batteries et le retour au niveau de la peau. L’ordinateur et la caméra sont ceux déjà utilisés et fonctionnels. Ce projet devra fonctionner avec ROS2 pour permettre de l’interfacer avec les solutions logicielles déjà développées au labo.
Il s’agit donc d’un stage pour réaliser un prototype de retour sensoriel qui intègre de manière plus compacte les éléments du dispositif actuel (Ordi, Batterie, Camera3D). Le système devra pouvoir s’interfacer avec les logiciels existants et donc il y aura besoin de développer la couche driver du dispositif jusqu’au nœud ros2 pour être interfacé avec nos codes.
Compétences :
– Python,C++
– CAO (Solidworks, fusion 360)
– Systèmes embarqués (Raspberry pi, Linux) – Prototypage électronique (arduino…)
– ROS2 serait aussi un plus
Informations complémentaires :
– Encadrant·e·s : Ludovic Saint-Bauzel
– Date de début du stage : Février 2025
– Durée du stage : 6 mois
– Laboratoire d’accueil : ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
Personne à contacter :
– Ludovic Saint-Bauzel
– Email : saintbauzel@isir.upmc.fr
– Envoyer votre candidature par mail, avec [sujet du stage] en objet, un CV et une lettre de motivation.
Sujet de stage : Minimizing expected cumulative cost of actions during interaction by solving the 20 questions game
Résumé :
Le jeu des 20 questions est un jeu de devinettes dans lequel la personne qui pose les questions à 20 questions pour déterminer l’objet auquel pense le répondant. D’autre part, de nombreuses formes d’interaction consistent à transmettre l’objectif d’un utilisateur à l’ordinateur, par exemple localiser le bon fichier ou sélectionner une commande. Il existe un lien entre les actions qu’un utilisateur exécute pour signifier son objectif à l’ordinateur, et le jeu des 20 questions. Dans ce stage, nous essayons de renforcer ce lien, avec la promesse que nous pourrons ensuite exploiter des algorithmes connus pour améliorer l’interaction.
Objectifs du stage :
Le jeu des 20 questions comporte de nombreuses variantes, selon les restrictions aux questions potentielles qui peuvent être posées (toute question est-elle recevable ? On considère par exemple les questions de comparaison, qui divisent l’ensemble ordonné en deux, ou les questions de taille restreinte. Un autre cas important est si l’on considère que la personne qui répond peut faire des erreurs ou mentir. Nous disposons de résultats préliminaires qui établissent l’équivalence entre l’équilibrage des poids dans les arbres alphabétiques pour les questions de comparaison et une technique d’interaction connue sous le nom de Bayesian Information Gain (BIG) lorsque l’utilisateur ne fait pas d’erreurs.
Les tâches du stagiaire seront les suivantes :
– sur la base d’un examen des interactions existantes, dresser la liste de tous les types de questions possibles (comparaison, intervalle, arbitraire, etc.), et de déterminer la stratégie de questionnement optimale dans l’état de l’art.
– adapter les algorithmes existants pour minimiser soit le nombre attendu d’actions, soit le coût cumulé attendu des actions.
– établir un lien avec BIG chaque fois que possible
– prendre en compte le cas où l’utilisateur fait des erreurs, ce qui inclut le travail sur la modélisation de l’utilisateur
– mettre en œuvre un démonstrateur pour un type de question, par exemple des questions de comparaison
– mener une expérience contrôlée pour montrer que l’objectif (minimiser les actions, minimiser le temps d’interaction) a bien été atteint.
En fonction du profil du candidat, le travail peut être plus axé sur l’aspect théorique ou sur la réalisation d’expériences.
Profil recherché :
Nous recherchons un stagiaire de M2 en informatique ou dans un domaine connexe, intéressé par le travail sur des sujets appliqués et théoriques car ce stage requiert les deux. La connaissance du codage de source/canal et de l’informatique théorique sera un avantage, de même qu’un intérêt pour la modélisation informatique du comportement humain.
Ce sujet pourrait être approfondi dans le cadre d’un doctorat, pour lequel nous avons déjà obtenu un financement.
Informations complémentaires :
– Encadrant·e·s : Julien Gori
– Date de début du stage : Janvier -Mars 2025
– Durée du stage : 5-6 mois
– Niveau d’études souhaité : Master 2
– Laboratoire d’accueil : ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
Personne à contacter :
– Julien Gori
– Email : gori@isir.upmc.fr
– Envoyer votre candidature par mail, avec [sujet du stage] en objet, un CV et une lettre de motivation.
Sujet de stage : TargetFinder – Developing an External Access System for Widget Information in Graphical User Interfaces
Résumé :
Dans la plupart des applications graphiques, les utilisateurs interagissent avec divers éléments, comme des boutons, des menus et des barres de titre, appelés widgets. Les informations sur ces widgets (telles que leur taille, leur emplacement et leurs étiquettes) ne sont généralement accessibles qu’au sein de l’application elle-même. L’objectif de ce stage est de développer des méthodes permettant d’accéder à ces informations depuis l’extérieur de l’application, pour permettre des nouvelles utilisations, comme l’analyse de l’interface utilisateur et l’amélioration de l’accessibilité.
Objectifs du stage :
Ce projet s’inscrit dans le cadre d’une collaboration entre Sorbonne Université et l’Université de Lille. Au cours de ce stage, l’étudiant travaillera à la conception d’un système capable de recueillir des informations sur les widgets d’interfaces utilisateurs graphiques (GUI). L’étudiant s’appuiera sur un démonstrateur existant qui permet d’identifier l’emplacement et la taille d’une cible unique. Le démonstrateur s’appuie sur un réseau de détection d’objets pré-entraîné YOLOv8. Le premier objectif de ce projet est d’améliorer le démonstrateur pour qu’il puisse identifier plusieurs emplacements et tailles de cibles en même temps, ainsi que de déterminer leurs label. Pour ce faire, le stagiaire appliquera des techniques existantes de traitement d’images pour pré- étiqueter un ensemble de données existant qui, après vérification, sera utilisé pour ré-entraîner le réseau existant. Le deuxième objectif de ce projet est de mettre en œuvre une technique d’interaction existante qui exploite les informations sur la cible, par exemple le pointage sémantique ou le bubble cursor, afin de montrer les possibilités offertes par ce projet.
Profil recherché :
Nous recherchons une personne ayant une formation en informatique, avec des compétences en apprentissage automatique / vision par ordinateur / traitement d’images. La connaissance de Python est requise, la connaissance de C++ n’est pas nécessaire mais est appréciée.
Informations complémentaires :
– Encadrant·e·s : Julien Gori
– Date de début du stage : Janvier – Mars 2025
– Durée du stage : 5-6 mois
– Niveau d’études souhaité : Master 2
– Laboratoire d’accueil : ISIR (Institut des Systèmes Intelligents et de Robotique), Campus Pierre et Marie Curie, 4 place Jussieu, 75005 Paris.
Personne à contacter :
– Julien Gori
– Email : gori@isir.upmc.fr
– Envoyer votre candidature par mail, avec [sujet du stage] en objet, un CV et une lettre de motivation.