Aller au contenu principal

Contre les rumeurs et les fake news

La désinformation est un problème massif dans le monde des actualités. Deux nouveaux projets ont pour but de neutraliser les fake news à l’aide de l’IA. 

Lisa Priller-Gebhardt , 26.04.2023
Le danger des fake news – l’IA peut aider.
Le danger des fake news – l’IA peut aider. © AdobeStock / Rawpixel Ltd.

Le nombre de fake news a aussi fortement augmenté à cause de la guerre en Ukraine, de la pandémie de coronavirus et de la crise climatique. Toutefois, cela ne désigne pas les mauvaises informations comme on en trouve par milliards sur les plateformes des réseaux sociaux comme Facebook et Twitter, mais les fausses déclarations diffusées de manière consciente. À savoir donc les images, textes, vidéos qui sont diffusés via des bots ou de faux comptes et dont il est difficile de vérifier la véracité. Derrière ce cache un objectif conscient : attiser la peur et nuire à la cohésion sociale. 

Cependant, l’intelligence artificielle (IA) permet non seulement de diffuser de telles désinformations, mais aussi de les démasquer. Pour ce faire, en Allemagne, le Centre de recherche sur l’informatique (FZI) a notamment lancé le projet DeFaktS avec le ministère fédéral de l’Éducation et de la Recherche. DeFaktS est l’acronyme allemand pour « Remédier aux campagnes de désinformation en divulguant les facteurs et éléments stylistiques ». 

DeFaktS – l’IA avertit contre la désinformation 

Dans le cadre du programme, l’IA est entraînée de telle sorte qu’elle détecte la désinformation dans des services de réseaux sociaux et des groupes de messagerie suspects et émet un avertissement. Pour ce faire, les chercheur·se·s ont créé de nombreux ensembles de données issues de la communication sur Twitter et Telegram. Ainsi, l’intelligence artificielle peut reconnaître les éléments stylistiques typiques des fake news, comme la polarisation émotionnelle. 

Dans une prochaine étape, l’IA entraînée sera utilisée pour ce que l’on appelle une XAI (Explainable Artificial Intelligence). Selon le FZI, cette intelligence artificielle explicable n’a pas seulement pour but d’indiquer qu’il s’agit potentiellement de contenus scabreux. Elle doit aussi permettre de comprendre les motifs qui l’ont poussée à déclencher cet avertissement. Cependant, pour l’équipe de recherche, il n’est pas question de filtrer ou censurer les contenus. Les utilisatrices et utilisateurs doivent examiner les informations d’un œil critique de manière autonome. « Cet aspect était très important pour nous, dans le sens de l’éducation numérique de la société», explique Jonas Fegert, expert au FZI. 

noFake – la coopération de l’humaine et de l’IA 

Le centre de recherche Correctiv souhaite aussi offrir aux personnes un outil qui les aide à reconnaître les fausses informations. Il développe le projet « noFake » avec l’Université de la Ruhr à Bochum et l’IUT de Dortmund. La coopération entre l’intelligence humaine et artificielle doit faciliter la différenciation entre les faits et les fausses informations. Pour cela, les scientifiques créent des systèmes d’assistance à base d’IA qui détecte non seulement les fausses informations potentielles, mais aident aussi à effectuer des analyses de textes et d’images. Les citoyennes et citoyens engagé·e·s peuvent alors vérifier de leur propre chef les informations à titres de Crowdworker sur la plateforme « Correktiv.Faktenforum ». Pour ce faire, une formation leur est d’abord proposée. « Nous construisons ainsi une communauté de vérification des faits qui associe engagement et standards professionnels», explique David Schraven, éditeur de Correctiv. 

© www.deutschland.de/fr