HomeDesinformaciónNoticias principales

Rusia manipula la inteligencia artificial: un nuevo frente en la guerra de información del Kremlin

El Kremlin ya no solo inunda Internet con noticias falsas. Las fábricas rusas de desinformación han comenzado a “enseñar” a la inteligencia artificial sus narrativas. Según el informe EUvsDisinfo, millones de textos creados por portales prorrusos desembocan en bases de datos de modelos de lenguaje como ChatGPT, lo que influye en las respuestas generadas por la IA.

Zapad 2025: Rusia utiliza el miedo como maniobra
El lenguaje como herramienta de guerra propagandística
Sabotaje y desinformación. Rusia ataca a Polonia

En la era digital, la desinformación ya no es solo un problema de las redes sociales. Hoy en día se ha convertido en una herramienta de pleno derecho de la guerra de información, en la que Rusia tiene una gran experiencia desde hace mucho tiempo. Sin embargo, la aparición de la inteligencia artificial (IA) ha abierto al Kremlin posibilidades completamente nuevas para influir en la forma en que las personas – y las máquinas – perciben la realidad. Podemos leer sobre ello en el artículo Large language models: the new battlefield of Russian information warfare (Grandes modelos de lenguaje: el nuevo campo de batalla de la guerra informativa rusa), publicado en el portal EUvsDisinfo.

Desde la Guerra Fría, las campañas rusas de manipulación e interferencia de la información (denominadas FIMI, por sus siglas en inglés: Foreign Information Manipulation and Interference) se han mantenido prácticamente sin cambios. Su objetivo ha sido socavar la confianza en las instituciones democráticas y sembrar el caos. Ahora, sin embargo, Rusia ha dado un paso más: en lugar de limitarse a influir en los destinatarios, ha comenzado a “entrenar” deliberadamente a la inteligencia artificial para que replique las narrativas rusas.

«LLM grooming»: la nueva técnica del Kremlin

Los expertos denominan este proceso “LLM grooming” (de Large Language Models, grandes modelos de lenguaje). Consiste en introducir masivamente en Internet millones de textos y artículos de baja calidad, que posteriormente son utilizados por herramientas basadas en IA, como ChatGPT, para generar respuestas. Como resultado, las narrativas falsas rusas comienzan a “filtrarse” en contenidos que los usuarios consideran neutrales y objetivos.

La agencia gubernamental francesa Viginum reveló ya en 2024 una operación con el nombre en clave “Portal Kombat”, también conocida como “Red de la Verdad”. Se trata de un amplio sistema de sitios web en varios idiomas que publican materiales manipulados procedentes de los medios de comunicación estatales rusos y de influencers progubernamentales.

Los objetivos no son solo Ucrania, Polonia y Alemania, sino también Francia, Estados Unidos, Gran Bretaña y algunos países africanos. El gran número de publicaciones hace que la inteligencia artificial comience a tenerlas en cuenta de forma natural en sus respuestas.

Según ha establecido el equipo de verificación de datos de NewsGuard, la cadena Pravda difundió, entre otras cosas, información falsa de que el presidente ucraniano Volodímir Zelensky había prohibido la plataforma Truth Social de Donald Trump.

De los diez chatbots probados, hasta seis repitieron esta falsedad, precisamente porque sus modelos habían sido “alimentados” por fuentes rusas. El porcentaje de contenido erróneo o manipulador en las respuestas de la IA aumentó del 18 % en 2024 al 35 % en 2025.

La propaganda que enseña a las máquinas

El fenómeno del LLM grooming significa que la desinformación ha dejado de ser solo un problema del receptor para convertirse en un problema del sistema. El Kremlin introduce deliberadamente datos falsos en el ecosistema informativo global con el fin de “convencer” a largo plazo a los algoritmos de que la narrativa rusa es la verdad.

Como destaca el informe de Halyna Padalko, de Digital Policy Hub, Rusia no solo difunde mentiras, sino que las normaliza, haciendo que con el tiempo se conviertan en parte del discurso «neutral».

Incluso plataformas fiables, como Wikipedia, han citado sin saberlo fuentes relacionadas con la red rusa “Pravda”. Esto significa que la desinformación está empezando a filtrarse también en un espacio que hasta ahora se consideraba relativamente inmune a la manipulación.

Una nueva amenaza para la credibilidad de la información

La inteligencia artificial está sustituyendo cada vez más a los motores de búsqueda, periodistas y expertos. Muchos usuarios prefieren preguntar a ChatGPT antes que analizar las fuentes por sí mismos. Por eso, influir en los contenidos que llegan a los modelos de lenguaje se está convirtiendo en una de las herramientas de propaganda más peligrosas del siglo XXI.

Según investigadores de la Universidad de Clemson, las campañas de desinformación, como «Storm-1516», son una continuación de las actividades de la célebre Internet Research Agency rusa, que interfirió en las elecciones presidenciales de Estados Unidos en 2016. Hoy en día, se utilizan los mismos mecanismos para «envenenar» la inteligencia artificial, con el fin de que genere contenidos afines a los intereses de Moscú.

La automatización y la escala de las operaciones rusas hacen que sean extremadamente difíciles de detectar. A diferencia de las tradicionales «granjas de trolls», aquí no se trata de entradas individuales, sino de la configuración a largo plazo de modelos de lenguaje completos.

¿Quién controla la verdad?

“Quien lidere la inteligencia artificial dominará el mundo”, declaró Vladímir Putin en 2017, según EUvsDisinfo.

Ahora se ve que sus palabras no eran solo fanfarronería. Rusia lucha hoy por el dominio de la información, aunque – como señalan los analistas – lo hace principalmente mediante el uso de tecnologías extranjeras.

Y su objetivo es persuadir a la gente, moldeando el pensamiento de las propias máquinas.

Fuente: Large language models: the new battlefield of Russian information warfare

 

 

 

COMMENTS

WORDPRESS: 0
DISQUS: