European Commission logo
français français
CORDIS - Résultats de la recherche de l’UE
CORDIS

Article Category

Article available in the following languages:

Démêler le vrai du faux

Un nouveau livre blanc offre un aperçu des technologies de l’IA et de leur rôle dans la diffusion de la désinformation, en apportant un éclairage sur les défis et les opportunités à venir.

Économie numérique icon Économie numérique
Société icon Société

Grâce à leur capacité croissante à générer des images, du texte et du son de haute qualité, les modèles d’IA générative tels que DALL-E et ChatGPT transforment rapidement de nombreuses industries dans le monde entier. Cette transformation a toutefois un coût. À mesure que la technologie de l’IA générative devient de plus en plus fluide et abordable, son utilisation abusive pour des campagnes de désinformation à grande échelle augmente, perturbant ainsi la capacité des plateformes et des vérificateurs de faits à s’attaquer à cette désinformation et rendant très difficile la distinction entre le vrai et le faux. Un nouveau livre blanc s’intéresse au lien entre l’IA générative et la désinformation. Fruit d’une collaboration entre les projets vera.ai TITAN, AI4Media et AI4TRUST, financés par l’UE, il traite des dernières avancées, des défis et des opportunités dans ce domaine essentiel. «Dans notre nouveau monde dynamique de l’IA et de la désinformation, ce livre blanc sert de pierre angulaire, apportant un éclairage sur l’interaction complexe entre les progrès technologiques, les considérations éthiques et les impératifs réglementaires», fait remarquer l’auteur Francesco Saverio Nucci de l’Engineering Ingegneria Informatica, en Italie, coordinateur du projet TITAN, dans un article publié sur le site web du projet. Ce document examine les capacités de l’IA de pointe à générer de la désinformation et met en évidence les défis éthiques et juridiques qui se posent, ainsi que les possibilités d’innovation. L’un des principaux thèmes abordés est l’évolution de l’IA générative, avec un accent particulier mis sur les différents types de désinformation générée synthétiquement, leur prévalence et leur impact sur les élections. «La menace que représente l’IA générative pour les processus démocratiques et l’intégrité des élections n’est malheureusement plus hypothétique [...] et ne peut être considérée comme un discours alarmiste», peut-on lire dans le rapport. Les campagnes de désinformation facilitées par les contenus générés par l’IA finissent par «miner la confiance des citoyens dans les dirigeants politiques, les élections, les médias et les gouvernements démocratiques».

Les défis

Le document s’intéresse aux différents défis posés par la détection et le démenti de la désinformation, ainsi qu’aux progrès récents réalisés dans ce domaine. Il présente également une sélection d’outils alimentés par l’IA qui peuvent aider les professionnels des médias à vérifier le contenu et à contrer les risques liés à la désinformation. En outre, il décrit les services basés sur l’IA que TITAN est en train de développer pour stimuler l’esprit critique des citoyens, en leur apprenant, entre autres, à faire attention aux contenus présentés sous forme de «piège à clics» et à vérifier les auteurs et les sources des contenus en ligne. Les auteurs analysent ensuite les questions éthiques et juridiques liées à l’utilisation des technologies de l’IA pour diffuser de fausses informations. Il s’agit notamment des défis liés à la qualité des données, des problèmes de droits d’auteur et du «déséquilibre de pouvoir visible entre les créateurs de contenu, les universitaires et les citoyens, d’une part, et les grandes entreprises technologiques (par exemple OpenAI, Microsoft, Google et Meta) qui développent et vendent des modèles d’IA générative, d’autre part». L’accent est mis sur la nécessité de disposer de cadres réglementaires solides. L’un des principaux défis à relever est le fait que les modèles linguistiques de pointe ne sont pas conçus pour dire la vérité, mais sont formés pour générer des déclarations plausibles sur la base de modèles statistiques, ce qui les rend susceptibles de générer de la mésinformation. Parmi les autres défis à relever, citons la nécessité de surmonter la confiance mal fondée des citoyens dans l’IA, de concevoir de nouveaux outils capables de détecter les contenus générés par l’IA et de trouver les fonds de recherche nécessaires pour y parvenir. Toutefois, il existe également des possibilités d’innovation, selon le rapport. Il s’agit notamment de développer des modèles de détection de pointe et d’améliorer les stratégies de lutte contre la désinformation basées sur l’IA. Ce livre blanc, préparé avec le soutien des projets vera.ai (vera.ai: VERification Assisted by Artificial Intelligence), TITAN (AI for Citizen Intelligent Coaching against Disinformation), AI4Media (A European Excellence Centre for Media, Society and Democracy), et AI4TRUST (AI-based-technologies for trustworthy solutions against disinformation), pourrait contribuer à orienter les recherches futures et la formulation des politiques dans ce domaine essentiel. Pour plus d’informations, veuillez consulter: site web du projet vera.ai site web du projet TITAN site web du projet AI4Media site web du projet AI4TRUST

Mots‑clés

vera.ai, TITAN, AI4Media, AI4TRUST, désinformation, IA, IA générative

Articles connexes