Aumentar la resiliencia de la sociedad con herramientas de inteligencia artificial fiables
En una era de inteligencia artificial y ultrafalsificaciones, verificar si la información es fidedigna o no puede ser una tarea ardua y difícil. La desinformación también suele ser multimodal y multiplataforma, combinando texto, imágenes, vídeo y audio de formas que las herramientas de verificación no pueden analizar exhaustivamente. «Mientras que la información falsa se difunde rápidamente, un análisis exhaustivo requiere tiempo y experiencia», explica el coordinador del proyecto vera.ai(se abrirá en una nueva ventana), Akis Papadopoulos, del Instituto de Tecnologías de la Información(se abrirá en una nueva ventana) de Grecia. «Las soluciones accesibles y sólidas siguen siendo limitadas».
Métodos avanzados de inteligencia artificial para el análisis de contenidos
Para hacer frente al grave impacto que las campañas de desinformación pueden tener en la confianza pública y la resiliencia de la sociedad, el proyecto vera.ai se propuso desarrollar métodos avanzados de inteligencia artificial para el análisis de contenidos, la mejora y la recuperación de pruebas. También se crearon herramientas de inteligencia artificial para detectar ultrafalsificaciones y otras formas de contenido manipulado, así como para rastrear y medir el impacto de las narrativas y campañas de desinformación. «También queríamos crear un asistente de verificación inteligente basado en tecnologías de chatbot para ayudar a los profesionales de los medios de comunicación», señala Papadopoulos. Para alcanzar estos objetivos, vera.ai reunió a un grupo multidisciplinar de expertos en ciencias sociales y de la comunicación, aprendizaje automático, procesamiento del lenguaje natural y análisis forense de los medios de comunicación. «Esta amplitud de conocimientos nos permitió abordar la desinformación desde las perspectivas tecnológica y social», afirma Papadopoulos. Una vez desarrollados, los prototipos del proyecto se validaron mediante pruebas reales en casos reales facilitados por los medios de comunicación asociados al proyecto. «La creación conjunta con periodistas ayudó a mejorar significativamente la usabilidad, la transparencia y la relevancia en el mundo real», añade Papadopoulos. «Una metodología que incorporaba la participación de verificadores de datos permitió obtener comentarios continuos de los expertos, lo que garantizó la solidez científica, la facilidad de uso y el impacto práctico».
Supervisión humana para garantizar la usabilidad
El proyecto ha contribuido al avance de una inteligencia artificial explicable y fiable y ha subrayado la importancia de la supervisión humana para garantizar la usabilidad. «En general, vera.ai ha producido herramientas prácticas y conocimientos metodológicos que reforzarán la capacidad de Europa para detectar, analizar y responder a las campañas de desinformación y manipulación coordinada impulsadas por la inteligencia artificial», señala Papadopoulos. Más concretamente, los resultados del proyecto se han puesto a disposición del público(se abrirá en una nueva ventana). Entre ellas figuran herramientas actualizadas para profesionales de los medios de comunicación, como el plugin de verificación (Fake News Debunker), Truly Media y Database of Known Fakes. También se han publicado varios artículos científicos de gran impacto: publicaciones(se abrirá en una nueva ventana), repositorios de código abierto(se abrirá en una nueva ventana) y conjuntos de datos(se abrirá en una nueva ventana).
Reforzar la integridad de la información
Tras la finalización del proyecto, los socios de vera.ai han seguido apoyando y mejorando las herramientas y tecnologías suministradas. «La desinformación en línea evoluciona constantemente, con la aparición constante de nuevas técnicas, tácticas y amenazas», señala Papadopoulos. «Para ello es necesario desarrollar nuevos métodos de detección y análisis». Esta labor es fundamental, dado que las campañas coordinadas de desinformación tienen el poder de socavar significativamente el debate público, distorsionar los procesos electorales y erosionar la confianza en las instituciones y los medios de comunicación. «En situaciones de crisis, como conflictos o catástrofes naturales, la información no verificada corre el riesgo de amplificar el pánico y causar daños en el mundo real», añade Papadopoulos. «Para los periodistas, la incapacidad de evaluar de forma fiable y rápida los contenidos amenaza la credibilidad y la reputación editorial». Papadopoulos y sus colegas confían en que el trabajo realizado a través del proyecto vera.ai contribuya a largo plazo a reforzar la integridad de la información. «El mayor impacto se espera en el periodismo y la verificación de hechos», afirma. «El análisis de contenidos asistido por inteligencia artificial, la detección de medios sintéticos y la supervisión coordinada de comportamientos no auténticos ayudarán a mejorar la velocidad, la precisión y la credibilidad». Otros ámbitos en los que este trabajo tiene un importante potencial de aplicación son las instituciones públicas, la gobernanza de las plataformas y el cumplimiento de la normativa, sobre todo a la luz de marcos como el Reglamento de Servicios Digitales(se abrirá en una nueva ventana).