Skip to main content
Aller à la page d’accueil de la Commission européenne (s’ouvre dans une nouvelle fenêtre)
français fr
CORDIS - Résultats de la recherche de l’UE
CORDIS
vera.ai: VERification Assisted by Artificial Intelligence

Article Category

Article available in the following languages:

Renforcer la résilience sociétale grâce à des outils d’IA fiables

Des outils d’intelligence artificielle efficaces et performants ont été développés pour aider à contrer à une désinformation en ligne de plus en plus sophistiquée.

À l’ère de l’intelligence artificielle (IA) et des hypertrucage, vérifier la fiabilité d’une information est devenu un exercice à la fois complexe et incertain. La désinformation est par ailleurs souvent multimodale et diffusée sur plusieurs plateformes, combinant texte, images, vidéo et audio d’une manière que les outils de vérification peinent encore à analyser de manière exhaustive. «Si que les fausses informations se propagent rapidement, une analyse approfondie demande du temps et de l’expertise», explique Akis Papadopoulos, coordinateur du projet vera.ai(s’ouvre dans une nouvelle fenêtre), de l’Institut des technologies de l’information(s’ouvre dans une nouvelle fenêtre) en Grèce. «Les solutions à la fois accessibles et robustes restent limitées.»

Des méthodes d’IA avancées pour analyser les contenus

Pour répondre à l’impact croissant des campagnes de désinformation sur la confiance du public et la résilience des sociétés, le projet vera.ai a développé des méthodes d’IA avancées pour l’analyse, l’enrichissement des contenus et la recherche d’éléments probants. Il a également conçu des outils d’IA pour détecter les hypertrucages et d’autres formes de contenus manipulés, ainsi que pour suivre et mesurer l’impact des récits et des campagnes de désinformation. «Nous voulions aussi développer un assistant intelligent de vérification, fondé sur des technologies de chatbot, afin de soutenir les professionnels des médias», précise Akis Papadopoulos. Pour atteindre ces objectifs, vera.ai a réuni un consortium pluridisciplinaire couvrant les sciences sociales et de la communication, l’apprentissage automatique, le traitement du langage naturel et l’analyse avancée des médias. «Cette diversité de compétences nous a permis d’aborder la désinformation à la fois sous un angle technologique et sociétal», ajoute Akis Papadopoulos. Une fois développés, les prototypes du projet ont été testés en conditions réelles à partir de cas concrets fournis par les partenaires médias du projet. «La co-création avec les journalistes a permis d’améliorer sensiblement l’utilisabilité, la transparence et la pertinence des outils», souligne Akis Papadopoulos. «Une approche intégrant des vérification des faits dans la boucle a permis de recueillir en continu des retours d’experts, garantissant la robustesse scientifique, la facilité d’usage et l’impact opérationnel.»

Supervision humaine pour assurer la facilité d’utilisation

Le projet a contribué à faire progresser une IA explicable et fiable, tout en mettant en évidence le rôle essentiel de la supervision humaine pour garantir la facilité d’utilisation. «Dans l’ensemble, vera.ai a produit à la fois des outils concrets et des avancées méthodologiques qui renforceront la capacité de l’Europe à détecter, analyser et contrer des campagnes de désinformation et de manipulation coordonnées, pilotées par l’IA», observe Akis Papadopoulos. Plus concrètement, les résultats du projet ont été rendus accessibles au public(s’ouvre dans une nouvelle fenêtre). Il s’agit notamment d’outils mis à jour pour les professionnels des médias, tels que le plugin de vérification (Fake News Debunker), Truly Media et la Database of Known Fakes (la Base de données des faux connus). Plusieurs publications(s’ouvre dans une nouvelle fenêtre) scientifiques à fort impact, des dépôts en source libre(s’ouvre dans une nouvelle fenêtre) et des jeux de données(s’ouvre dans une nouvelle fenêtre) ont également été publiés.

Renforcer l’intégrité de l’information

Après l’achèvement du projet, les partenaires de vera.ai ont continué à soutenir et à améliorer les outils et les technologies développés. «La désinformation en ligne évolue constamment, avec l’apparition de nouvelles techniques, tactiques et menaces», confie Akis Papadopoulos. «Cela impose de développer en continu de nouvelles méthodes de détection et d’analyse.» Ce travail est d’autant plus crucial que les campagnes de désinformation coordonnées peuvent fortement fragiliser le débat public, fausser les processus électoraux et éroder la confiance dans les institutions et les médias. «En situation de crise, comme lors de conflits ou de catastrophes naturelles, des informations non vérifiées peuvent amplifier la panique et avoir des conséquences concrètes», ajoute Akis Papadopoulos. «Pour les journalistes, l’incapacité à évaluer rapidement et de manière fiable les contenus met en péril la crédibilité éditoriale.» Akis Papadopoulos et ses collègues sont convaincus que le travail accompli dans le cadre du projet vera.ai contribuera à long terme à renforcer l’intégrité de l’information. «L’impact le plus fort est attendu dans le journalisme et la vérification des faits», conclut-il. «L’analyse de contenu assistée par l’IA, la détection des médias synthétiques et le suivi des comportements inauthentiques coordonnés contribueront à améliorer la rapidité, la précision et la crédibilité.» D’autres domaines présentent également un fort potentiel d’application, notamment les institutions publiques, la gouvernance des plateformes et la conformité réglementaire, en particulier dans le cadre de dispositifs comme le règlement sur les services numériques(s’ouvre dans une nouvelle fenêtre).

Mon livret 0 0