Source de l’article : Sorbonne Université
À l’occasion des élections européennes, François Yvon, directeur de recherche à l’ISIR, nous présente le projet “Communs Démocratiques”. Porté par la plateforme Make.org, Sciences Po, Sorbonne Université et le CNRS, ce projet innovant, annoncé lors du salon Vivatech, vise à exploiter le potentiel de l’IA générative pour renforcer les processus démocratiques, dans un monde confronté à une crise de confiance institutionnelle sans précédent et à une guerre informationnelle croissante.
Entretien avec François Yvon.
Expliquez-nous ce qu’est le projet “Communs Démocratiques”, ses objectifs, ses enjeux.
François Yvon : Le projet “Communs Démocratiques” est né de la nécessité de renforcer la démocratie à l’ère numérique, particulièrement face aux défis posés par l’information et la désinformation en ligne. Il s’agit d’une initiative de recherche multidisciplinaire visant à développer des solutions d’IA générative open-source dans le contexte des débats participatifs en ligne.
La plateforme Make.org, qui anime ce type de débats, a souhaité réfléchir, avec Science Po, le CNRS et Sorbonne Université, aux diverses utilisations de l’IA dans le cadre d’interventions qui doivent être effectuées de manière semi-automatique en raison de l’ampleur des contributions et des participants : la traduction de contributions à des débats multilingues, la création de résumés ou encore la modération pour détecter les contenus inappropriés.
Quels sont les enjeux liés à l’utilisation de l’IA dans ces débats ?
F. Y. : La question est de savoir si les outils d’IA peuvent biaiser la participation, par exemple en traduisant ou résumant incorrectement des contributions. Il est crucial de définir ce que l’on attend de ces systèmes et d’identifier, mesurer et corriger les biais. Doivent-ils reproduire toutes les opinions à égalité ou en fonction de leur importance ? Quelles règles de modération doivent-ils suivre ? L’IA doit-elle être rapporter seulement le sens d’une proposition ou également l’émotion et l’engagement de l’utilisateur ? etc.
Ce sujet n’est pas nouveau. Les débats et interventions sur les réseaux sociaux sont régulés par des algorithmes. Et depuis 20 ans, la recherche essaie de trouver la meilleure manière d’utiliser des traitements automatiques tout en garantissant qu’ils ne nuisent pas à la démocratie.
En quoi est-il important d’avoir une approche multidisciplinaire pour évaluer et contrer les biais potentiels des modèles de langage ?
F. Y. : Le programme “Communs Démocratiques” va réunir plus de 50 chercheurs et ingénieurs. Cette démarche multidisciplinaire inédite associe une expertise avancée en data science à une connaissance pointue des sciences humaines et sociales. Les laboratoires Cevipof et Medialab de Sciences Po vont contribuer à définir ce que serait un comportement équitable et acceptable de l’IA en tant que modérateur ou rapporteur de débats, tandis qu’à Sorbonne Université nous allons nous concentrer sur la compréhension et l’amélioration des algorithmes utilisés par les grands modèles de langues. Nous travaillerons sur 3 grands usages des algorithmes : la modération et la synthèse des débats ; l’assistance aux utilisateurs pour formuler et exprimer leurs opinions de manière appropriée ; la traduction multilingue.
Porté par la plateforme Make.org, le programme est également adossé à cinq partenaires de référence de l’IA éthique : Hugging Face, Aspen Institute, Mozilla.ai, Project Liberty Institute et le Genci. Les partenaires industriels nous permettrons de tester nos modèles dans des environnements réels et de mener des expériences de sciences sociales à grande échelle, avec des participants recrutés sur la plateforme prêts à participer à des tests. Cette collaboration est essentielle pour comparer l’efficacité des modèles et assurer qu’ils répondent aux besoins des utilisateurs.
Pourquoi développer des solutions open source ?
F. Y. : Soutenu par le programme Communs Numériques de France 2030 et Bpifrance, le projet est financé pour une durée de deux ans et pose la question de ce que l’on met au service de la communauté. Trois thèses seront financées sur les sujets de la modération, de l’assistance à l’expression des opinions, et de la traduction multilingue. Outre les modèles qui seront disponibles en open source, ce sont surtout les principes qui les sous-tendent qu’il est important de partager, de diffuser et de faire reconnaître pour garantir une utilisation éthique et transparente des technologies développées.
Dans quels autres cadres les résultats de ce projet pourront-ils être réutilisés ?
F. Y. : Les résultats de ce projet peuvent être appliqués dans de nombreux autres cadres. Par exemple, ils pourraient être utilisés pour faciliter les interactions entre les citoyens et leurs représentants politiques, comme dans des consultations publiques ou des débats sur des projets de loi. Les technologies développées peuvent également être adaptées pour d’autres plateformes de participation citoyenne, permettant aux internautes de poser des questions non seulement à des personnes mais aussi à des corpus juridiques ou législatifs. De plus, les principes et modèles élaborés pourront servir de base pour d’autres initiatives visant à réguler l’IA dans divers contextes sociaux et politiques, garantissant ainsi leur éthique et leur transparence.
Contact scientifique à l’ISIR : François Yvon, directeur de recherche CNRS
Publié le 5 juin 2024