Skip to main content

FAke News discovery and propagation from big Data ANalysis and artificial intelliGence Operations

Article Category

Article available in the folowing languages:

Un verificador de datos impulsado por inteligencia artificial ayuda a la lucha contra las noticias falsas en los medios de comunicación

En los últimos años, ha aumentado la preocupación por cómo afectan las noticias falsas a nuestros procesos democráticos, la cohesión social y la estabilidad económica. Un proyecto pionero financiado con fondos europeos ha mostrado cómo la inteligencia artificial (IA) puede ayudar a los profesionales de los medios de comunicación a identificar dicha información errónea.

Economía digital

El proyecto financiado con fondos europeos FANDANGO, que se puso en marcha en enero de 2018, ha vivido de primera mano la proliferación y evolución de la desinformación en los medios de comunicación. Las últimas elecciones en los Estados Unidos, las repercusiones del referéndum sobre el «Brexit» y, por supuesto, la pandemia de COVID-19 han subrayado el desafío que suponen las noticias falsas para nuestra comprensión de sucesos complejos. Tal y como explica el coordinador del proyecto FANDANGO, Francesco Saverio Nucci, director de investigación de aplicaciones en Engineering R&D Labs (Italia): «Definir la desinformación en los medios de comunicación es increíblemente complejo en sí mismo. Incluso el significado del término noticia falsa ha cambiado, ya que se ha adoptado para fines más políticos». Otro desafío es que la interpretación de una persona de lo que es desinformación en los medios de comunicación no tiene por qué coincidir con la de otra persona y, si ya es difícil para los humanos acordar una referencia para identificar la desinformación en los medios de comunicación, aplicar algoritmos de IA para identificar noticias falsas, obviamente, no constituye una tarea fácil.

Abordar la desinformación en los medios de comunicación

No obstante, este era el objetivo principal del proyecto FANDANGO. «Nuestro objetivo era intentar probar y validar varias herramientas de IA que pudieran utilizarse para identificar la desinformación», añade Nucci. Algunas de las cuestiones examinadas incluyeron el cambio climático, las políticas europeas y la inmigración. Primero, el equipo del proyecto aplicó herramientas de aprendizaje automático para identificar imágenes falsas y los llamados vídeos ultrafalsos (vídeos que han sido manipulados). También se aplicaron la IA y el procesamiento del lenguaje natural a los textos, para ayudar a identificar si había algo sospechoso. «Realizamos varios hallazgos —comenta Nucci—. Primero, descubrimos que no es posible eliminar la parte humana en este contexto. La IA puede proporcionar apoyo, pero tiene que haber un profesional de los medios de comunicación al final de la línea. La IA es útil, pero no puede solucionar por completo el problema de las noticias falsas», En segundo lugar, el equipo descubrió que no basta con que el «software» se limite a decir al periodista que se sospecha que algo es falso. El periodista quiere saber por qué se sospecha de una imagen o un texto. El equipo del proyecto también aplicó herramientas de aprendizaje automático para comprender mejor cómo se difunde la información errónea por las redes. Nucci cree que otro elemento importante del proyecto ha sido la estrecha colaboración entre los investigadores especializados en tecnología y aquellos especializados en ciencias sociales. «Tengo técnicos en mi equipo que ahora son expertos en alfabetización mediática —señala—. Por otro lado, hemos visto la importancia de que los periodistas empiecen a comprender cómo puede la IA ayudar a solucionar el desafío de la desinformación».

Desarrollar la alfabetización mediática

A partir de esta investigación, se ha desarrollado una plataforma modular con herramientas de aprendizaje automático, que incluyen procesamiento del lenguaje para la investigación de datos y texto para las fuentes. Aunque el trabajo está aún en las fases iniciales, Nucci prevé que esta plataforma pueda desarrollarse más y, en última instancia, venderse a las empresas de medios de comunicación. «Para mejorar estas herramientas, necesitamos más datos —añade—. Cuantos más datos tengamos, mejor funcionarán los algoritmos». El proyecto también ha destacado la necesidad de formar a profesionales de los medios de comunicación en alfabetización mediática y en cómo manejar mejor los datos. La malinterpretación de las estadísticas relacionadas con el porcentaje de pacientes de COVID-19 que han sido vacunados, por ejemplo, ha ayudado a alimentar el escepticismo respecto a las vacunas. Nucci afirma: «Además de mejorar el aprendizaje automático, seguiremos estudiando otros muchos aspectos de la investigación. Estos incluyen la alfabetización mediática y cómo se difunden las noticias falsas por las redes sociales».

Palabras clave

FANDANGO, medios de comunicación, desinformación, política, IA, algoritmo, periodistas, información errónea

Descubra otros artículos del mismo campo de aplicación