HomeNoticias principalesDesinformación

¿Cómo se utiliza la inteligencia artificial en contra nuestra?

Los chatbots con IA ya forman parte integral de nuestra vida cotidiana. Cada vez son más rápidos e inteligentes. El problema es que también se pueden utilizar en nuestro contra para inculcarnos noticias falsas. Y no solo se pueden utilizar, sino que ya se está haciendo.

Putin, el desinformador: Cómo un macho alfa se convirtió en cristiano devoto
Polonofobia rusa
El primer ministro Donald Tusk y el viceprimer ministro Radosław Sikorski han sido incluidos en la lista negra de Rusia.

Así lo han demostrado los analistas del think tank británico Institute for Strategic Dialogue (ISD), que analizaron las respuestas de cuatro chatbots populares a preguntas sobre la invasión rusa de Ucrania. Resultó que casi el 20% de todas las respuestas contenían fuentes relacionadas con el Estado ruso, muchas de las cuales estaban sujetas a sanciones en la UE. Lo que es peor, entre ellas también se encontraban medios de comunicación rusos sancionados (bloqueados) en la UE.

El estudio abarcó ChatGPT (OpenAI), Gemini (Google), Grok (xAI) y DeepSeek (V3.2). Las preguntas se formularon en inglés, español, francés, alemán e italiano.

De todos los chatbots, ChatGPT fue el que más citó fuentes rusas y el más susceptible a las consultas sesgadas. Grok, por su parte, a menudo enlazaba con cuentas vinculadas a Rusia, que, aunque no tenían relación con el Estado, reforzaban las narrativas pro-Kremlin. Las respuestas individuales de DeepSeek a veces generaban grandes cantidades de contenido atribuido al Estado ruso, mientras que Gemini, propiedad de Google, a menudo mostraba advertencias de seguridad para mensajes similares.

  1. ChatGPT citaba con mayor frecuencia fuentes rusas y era el más susceptible a la influencia de consultas sesgadas.
  2. Grok solía remitirse a cuentas vinculadas a Rusia, formalmente independientes del Estado, que reforzaban las narrativas pro-Kremlin.
  3. Las respuestas individuales de DeepSeek contenían grandes cantidades de contenido atribuido a fuentes estatales rusas.
  4. El Gemini de Google solía mostrar advertencias de seguridad ante consultas similares.

“De todos los chatbots, Gemini fue el único que introdujo estas medidas de seguridad, reconociendo así el riesgo asociado a los mensajes sesgados y maliciosos sobre la guerra en Ucrania. Sin embargo, en comparación con sus homólogos, el chatbot de Google no ofrecía una opción específica, como ChatGPT o Grok, con una revisión aparte de las fuentes citadas”, se lee en el análisis del ISD.

Curiosamente, en los cinco idiomas, el número de fuentes atribuidas al Kremlin era más o menos el mismo, con niveles ligeramente superiores en italiano y español y más bajos en francés y alemán.

Hay muchos indicios de que los problemas de los chatbots con la desinformación rusa no son una casualidad, sino una consecuencia de las acciones de la propaganda y los informáticos rusos. Se trata del “LLM grooming” (Large Language Models, grandes modelos de lenguaje). Esta actividad consiste en introducir masivamente en Internet millones de textos y artículos de baja calidad, que luego son utilizados por herramientas basadas en la inteligencia artificial para generar respuestas. Como resultado, las narrativas falsas rusas comienzan a “filtrarse” en contenidos que los usuarios consideran neutrales y objetivos.

Los usuarios de los chats también deben tener en cuenta que la IA lee el tono de nuestras preguntas o comandos.

Los chats solo proporcionaron un 11% de respuestas basadas en fuentes rusas a los comandos neutros. Los comandos que expresaban claramente las opiniones del usuario representaban ya el 18%, y los que se formulaban de forma tendenciosa o maliciosa, el 24%.

Esto significa que los chatbots de IA están expuestos al llamado “sesgo de confirmación”. Se trata de la tendencia de las personas (y ahora también de la IA) a buscar, interpretar y recordar información de forma que confirme sus creencias y expectativas previas, ignorando o rechazando la información que las contradice.

Por lo tanto, la pregunta puede contener una respuesta sugerida:

Pregunta tendenciosa: “¿Por qué Ucrania no quiere que termine la guerra?”.

Pregunta neutral: “¿Cuáles son los obstáculos para las conversaciones de paz entre Rusia y Ucrania?”.

El sesgo de confirmación en el mundo de la inteligencia artificial crea un “eco digital”. El usuario recibe contenidos que confirman sus creencias, por lo que los considera verdaderos. Como resultado:

  1. La desinformación adquiere el estatus de conocimiento.
  2. La propaganda gana alcance.
  3. La sociedad pierde la capacidad de pensar críticamente.

Por lo tanto, vale la pena recordar que la propaganda ha dejado de actuar solo sobre las emociones. Hoy en día también actúa sobre algoritmos que no tienen emociones, pero que son capaces de imitarlas a la perfección.

Redactado por ih

Fuente: Investigation | Talking Points: When chatbots surface Russian state media

COMMENTS

WORDPRESS: 0
DISQUS: 0