Skip to main content

Computational Propaganda: Investigating the Impact of Algorithms and Bots on Political Discourse in Europe

Article Category

Article available in the folowing languages:

Los ejércitos secretos de robots luchan para socavar la democracia

Los gobiernos y los grupos de interés especial utilizan redes de cuentas automatizadas en las redes sociales para sembrar discrepancias, divulgar desinformación y quebrantar a sus oponentes.

Sociedad

El proyecto COMPROP, financiado con fondos europeos, se propuso investigar las redes de las cuentas automatizadas de redes sociales y su papel en la conformación de la opinión pública. Aunque en un principio se centraron en Twitter, el equipo del Programa sobre Democracia y Tecnología de la Universidad de Oxford descubrió propaganda computacional —algoritmos al servicio de una agenda política— en Facebook, Instagram, Telegram, YouTube e, incluso, la aplicación de citas Tinder. «Durante el proyecto, no esperábamos que el problema fuera tan grande», destaca el investigador principal Philip Howard. «Podemos ver cómo algunos gobiernos, grupos de presión, la extrema derecha y los supremacistas blancos los utilizan para manipular democracias».

Bajo la influencia

Normalmente el objetivo es divulgar desinformación. «Cuando el vuelo 17 de Malaysia Airlines fue derribado en Ucrania, se publicaron muchas historias absurdas sobre lo que sucedió: que los defensores de la democracia lo derribaron, que lo hizo el ejército de los Estados Unidos o que un tanque desaparecido de la Segunda Guerra Mundial salió del bosque y lo derribó», añade Howard. Al exponer muchas historias conflictivas, los regímenes autoritarios evitan que los ciudadanos sepan a qué narrativa reaccionar. Finalmente, se desveló esta estrategia, que pretende socavar movimientos sociales y desestabilizar países extranjeros. «A veces las campañas tratan sobre personas o crisis específicas, pero normalmente el objetivo es socavar la confianza en los tribunales, la policía, el periodismo, la ciencia o el gobierno en general», explica Howard. El público objetivo de dichos bots quizás representa solo entre el 10 y el 20 % de la población, habitualmente adultos descontentos y de tendencia conservadora que están activos políticamente. En un país muy polarizado, influir en el 10 % de los electores puede tener una repercusión importante. Howard añade que esas campañas son especialmente malas para el papel de la mujer y las minorías en la vida pública: «Es mucho más fácil sacar de la vida pública a una mujer que a un hombre».

Propaganda sobre la pandemia

El proyecto COMPROP se centró fundamentalmente en la desinformación sobre la COVID-19 que, según destaca Howard, proviene de tres fuentes: los medios de comunicación rusos, los medios de comunicación chinos y el expresidente de los Estados Unidos Donald Trump. Aunque la desinformación de Trump estaba relacionada con la política interior de los Estados Unidos, tanto Rusia como China impulsaron tres temas generales dirigidos al público extranjero. «El primero era que la democracia no puede ayudarnos, ya que los líderes elegidos son demasiado débiles para tomar decisiones», añade Howard. «El segundo mensaje era que los científicos chinos o rusos obtendrían antes la vacuna y, el tercero, que China o Rusia lideraban las labores de asistencia humanitaria». Howard afirma que se necesitan más acciones para contener esas redes de propaganda. «Hemos superado la etapa de autorregulación por parte de la industria. Si las empresas tecnológicas dieran un paso adelante y los gobiernos impusieran multas a los políticos que encargan dichos programas, ese conjunto de iniciativas supondría un gran avance». Sin embargo, incluso identificar qué cuentas en las redes sociales están automatizadas ha resultado difícil. «Un desarrollador de bots en Alemania dijo que su equipo leería nuestros artículos sobre la metodología y adaptaría sus algoritmos justo por debajo de nuestro límite de detección», afirma Howard. «Estábamos en una especie de diálogo con esos programadores». Howard y su equipo ahora se centran en cómo la tecnología del aprendizaje automático potenciará una nueva generación de propaganda computacional. «Si alguien puede tomar los datos conductuales y el flujo de noticias de tu red social y elaborar mensajes políticos ante los que reaccionarías, lo harán», concluye. «Esa es la nueva gran amenaza».

Palabras clave

COMPROP, computacional, propaganda, bot, redes sociales, político, COVID-19, algoritmo, aprendizaje automático, Rusia, China, Trump

Descubra otros artículos del mismo campo de aplicación