Un centro de la OTAN detecta que robots rusos cambiaron sus temáticas pro Kremlin a independentistas
El Centro de Excelencia de Comunicaciones Estratégicas de la OTAN (STRATCOM) detectó que, a partir de un determinado momento, robots informatizados que difundían en Internet narrativas prorrusas comenzaron a tuitear sobre Cataluña, según ha explicado este jueves su director, Janis Sarts, en una comparecencia en la Comisión Mixta Congreso-Senado de Seguridad Nacional.
Sarts ha puntualizado que el centro no ha monitorizado la situación de España, entre otras cosas porque no tienen capacidad para hacer un seguimiento de lo que se publica en castellano, y que tampoco el Gobierno español se lo pidió. Sin embargo, detectaron esta situación a raíz de una investigación para rastrear robots que tuiteasen mensajes con las palabras «OTAN» y «Lituania», «Letonia» y «Estonia».
Esa búsqueda se hizo en mensajes escritos en inglés y en ruso durante tres meses de verano y se llegó a la conclusión de que un 85% de los contenidos en ruso procedía de robots, igual que un 50% de los contenidos en inglés.
En declaraciones a los periodistas, Sarts ha admitido que algunos de los actores clave en el caso de Cataluña, como Julian Assange, Edward Snowden o la televisión rusa RT han estado también presentes en otras «campañas rusas», como fue el caso de Estados Unidos, pero ha dejado claro que no hay pruebas de la responsabilidad: «Si todo eso es ruso no lo sé y no sé tampoco quién lo ha autorizado».
Este experto ha señalado que sí se ha podido trazar la responsabilidad del Gobierno ruso en algunos casos de desinformación, por ejemplo en Ucrania o en el caso de la información falsa sobre la violación de una niña por refugiados en Alemania. «En otros casos no hay evidencias públicas que lleven al Gobierno, los datos muestran vínculos con territorios rusos, pero nada más allá de eso», ha añadido.
Preguntado si el patrón de estas historias se repitió en el caso catalán, ha respondido que es fácil comprobar cómo enmarcaron los medios rusos esas historias, incluidas las emisoras de televisión que están bajo control directo o indirecto del Kremlin.
En su comparecencia en la Comisión, ha advertido de que hasta un 80% o un 90% de las cuentas que operan en medios sociales son robots, programas usados para promover historias y darles credibilidad, y ha alertado del efecto combinado de tres tecnologías: la inteligencia artificial, el big data que permite conocer las preferencias de una persona y la realidad aumentada, que puede incluso llegar a presentar a una persona haciendo o diciendo algo.
El director de STRATCOM ha invitado a España a unirse a este centro, en el que actualmente participan 12 países, para colaborar en la lucha contra la desinformación. No obstante, ha dejado claro que no se trata de un centro operativo y que no hacen monitoreo, sino labores de investigación y capacitación.
Normas electorales para redes sociales
Sart ha explicado que buena parte de estas acciones lo que pretenden no es tanto conseguir un resultado concreto sino sembrar división y minar la confianza, y ha admitido que con frecuencia «los gobiernos no tienen credibilidad para desmontar estos ataques», sino que es preferible que lo hagan otras personas u organizaciones con credibilidad. Además, ha señalado que en ocasiones esos ataques funcionan a falta de una «narrativa nacional», como sucedió en los países bálticos.
Según ha explicado, con frecuencia las noticias falsas que se comparten son altamente emocionales y se difunden además en momentos candentes como unas elecciones. Proteger las elecciones, ha apuntado, suele ser lo que más preocupa a los gobiernos, y para eso ha planteado la posibilidad de estudiar que la normativa electoral que se aplica a los medios de comunicación afecte también a las redes sociales.