Façonner une IA grâce aux sciences sociales pour lutter contre la désinformation
De plus en plus de contenus sur internet pourraient être générés par des intelligences artificielles (IA) avec pour conséquence l’augmentation du risque de désinformation, déjà très présent sur les réseaux sociaux. Le projet interdisciplinaire AI4TRUST1 étudie précisément la construction des réseaux sociaux et leurs interactions sociales pour développer un outil à base d’IA capable de détecter efficacement et rapidement la diffusion de fausses informations sur internet.
- 1Ce projet est financé par l’Union Européenne. Coordonné par la Fondazione Bruno Kessler, il implique un consortium de partenaires issus de onze pays, dont le CNRS pour la France.
Intelligences artificielles (IA) capables de générer des deepfakes, « fermes à clics » dans des pays pauvres, intérêts économiques à la manipulation… Les sources de désinformation se multiplient sur internet, et peu de solutions existent pour y faire face. Le projet AI4TRUST cherche à répondre à ce besoin en étudiant les contextes favorables à la diffusion de fausses informations, en déterminant comment elles se répandent sur internet, et dans quelles proportions. Ce projet, soutenu à hauteur de six millions d’euros par Horizon Europe, a pour but de créer des outils éthiques et innovants pour lutter contre la désinformation.
AI4TRUST a pour objectif de développer une plateforme comportant de multiples outils d’IA capables d’aider décideurs publics et fact-checkers à vérifier la fiabilité et l’origine de certaines informations. À l’heure actuelle, certains outils d’IA sont utilisés pour identifier des contenus problématiques, mais leur apport reste limité. « Il y a un réel besoin de simplifier le travail de vérification de l’information, pointe Paola Tubaro, directrice de recherche CNRS au Centre de recherche en économie et statistique (CREST2 ), impliquée dans le projet. Pour y parvenir, il faut comprendre les mécanismes sociaux à l’œuvre dans la désinformation. »
Cette compréhension permettra de construire des IA qui exploiteront ces schémas comportementaux et relationnels propices à la diffusion de désinformation sous de multiples formes. C’est en cela que les sciences sociales sont nécessaires pour dépasser la simple détection de mots-clés problématiques et identifier les groupes « à risque », c’est-à-dire qui favorisent la diffusion de désinformation.
Le projet s’intéresse à tout un ensemble de services en ligne : TikTok, Telegram et Reddit vont être étudiés en plus des réseaux sociaux « traditionnels » tels qu’X (anciennement Twitter) et Facebook. « L’un des aspects complexes du projet réside dans la négociation avec les plateformes pour l’accès à leurs données, explique la chercheuse. Ces données sont très importantes pour développer un outil réagissant en temps réel, pas uniquement en rétroprédiction. »
L’implication de chercheurs du CREST dans AI4TRUST provient d’interactions avec la Fondazione Bruno Kessler au cours de congrès internationaux. « Ce projet est très interdisciplinaire, et suite à nos échanges lors de congrès, le porteur a souhaité impliquer des chercheurs en « Sociologie des réseaux », ma discipline » développe Paola Tubaro. « Ce champ de recherche est très important pour l’Union Européenne, qui soutient deux autres programmes de recherche de grande envergure sur ce sujet : vera.ai, et TITAN. »
Des IA versatiles pour analyser de multiples réseaux et paramètres
Chaque application est organisée différemment. Par exemple, Telegram s’appuie sur des groupes d’utilisateurs, là où Reddit regroupe des communautés beaucoup plus larges. La transformation de Twitter en X a apporté d’autres difficultés, en réduisant notamment l’accès à ses données. « À mon sens, cette contrainte est aussi une opportunité, développe Paola Tubaro. Cela force les sciences sociales à étudier des plateformes autres qu’X, et par là-même, à élargir notre compréhension des interactions en ligne dans leur globalité. Notre outil pourra également mieux s’adapter à un nouveau réseau social s’il a été pensé pour de multiples plateformes. »
Actuellement, les scientifiques décortiquent le fonctionnement des interactions sociales dans ces plateformes, comment des sous-groupes s’y forment, et globalement comment le « réseau » des utilisateurs s’organise. En effet, l’information y circule différemment selon la densité des réseaux, ou bien avec peu ou beaucoup d’interactions entre leurs différents sous-groupes. « Nous essayons également de caractériser les profils de « superspreaders », des personnes qui diffusent massivement l’information. Ce concept est emprunté à l’étude épidémiologique de la diffusion de certains pathogènes » détaille la chercheuse.
L’aspect social de ce projet, véritable défi scientifique, est l’étape clé pour le développement de ces IA. Celles-ci pourront détecter très en amont des diffusions d’informations erronées, potentiellement problématiques, ou des structures sociales très propices à la diffusion de ces informations. À terme, ces travaux permettront de bien mieux comprendre les fonctionnements des réseaux sociaux, et il en résultera une plateforme d’IA qui facilitera grandement les efforts des fact-checkers.
Plus d’informations sur le projet ici
- 2CREST – CNRS/École polytechnique/ENSAE