Control estatal de medios altera a los chatbots de IA

Control estatal de medios altera a los chatbots de IA

Estudio en Nature revela que gobiernos con fuerte control mediático logran que los chatbots de IA repitan su propaganda.

Por Humberto Toledo el 13 mayo, 2026 a las 21:50 PDT

✨︎ Resumen (TL;DR):

  • Un equipo de investigadores comprobó que los modelos de lenguaje repiten la agenda política de países con prensa controlada.
  • La propaganda del Estado chino aparece en bases de datos públicas 41 veces más que los artículos de Wikipedia en chino.
  • Realizar la misma pregunta política en diferentes idiomas provoca que el sistema genere respuestas completamente opuestas.

Un estudio publicado el miércoles en la revista Nature demostró que los gobiernos influyen directamente en las respuestas de los chatbots de inteligencia artificial mediante el control de su entorno mediático en internet. Un Modelo de Lenguaje Extenso (LLM) es un sistema de inteligencia artificial que procesa datos masivos para generar texto, pero esta misma estructura técnica lo vuelve vulnerable a la manipulación externa.

La investigación fue liderada por Hannah Waight de la Universidad de Oregón, junto con académicos de Purdue, UC San Diego, NYU y Princeton. El equipo analizó seis casos que rastrean el flujo de información desde la prensa controlada hasta las respuestas del chatbot.

El hallazgo principal detalla que los medios coordinados por el Estado chino aparecen en los datasets de código abierto 41 veces más a menudo que la Wikipedia en chino. Los modelos comerciales memorizaron secuencias de propaganda con mucha mayor frecuencia que otras frases comunes.

Para comprobar este efecto, el equipo entrenó un modelo open-weight utilizando contenido estatal chino. Como resultado, la inteligencia artificial empezó a generar respuestas más favorables sobre las instituciones y líderes de China. Este sesgo se activó al cambiar de idioma: realizar consultas en chino en lugar de inglés provocó que los modelos dieran respuestas alineadas a Beijing, incluso al procesar prompts escritos por usuarios reales.

Meta AI integra noticias reales tras acuerdos millonarios
Te podría interesar:
Meta AI integra noticias reales tras acuerdos millonarios
Fotos de stock gratuitas de abierto, abrir ai, almacenamiento en la nube
Foto: Sanket Mishra / Pexels

El mecanismo global tras la propaganda en IA

El problema trasciende las fronteras de Asia. El equipo analizó el comportamiento de los modelos en 37 países donde el idioma nacional se concentra casi por completo en un solo territorio.

Descubrieron que los algoritmos describen a los gobiernos con un control estricto de medios de forma mucho más favorable cuando operan en el idioma local que al preguntarles en inglés. La filtración de la agenda gubernamental hacia los LLM ocurre a través de un volumen masivo de datos que satura a los bots de entrenamiento.

La influencia de los medios estatales se apoya en cifras concretas documentadas en el reporte:

  • Hannah Waight comprobó que la propaganda estatal aparece en periódicos chinos el 90% de los días.
  • En fechas políticamente sensibles, el gobierno chino planta hasta el 30% del contenido de las portadas.
  • Un reporte de marzo elaborado por la Fundación para la Defensa de las Democracias detectó que la propaganda estatal contaminó el 57% de las respuestas de los chatbots sobre conflictos internacionales.

El periodismo independiente sufre una desventaja técnica en este proceso. Los reportajes de calidad suelen protegerse con muros de pago, lo que impide que las empresas tecnológicas extraigan esa información para equilibrar sus sistemas.

Los autores del estudio en Nature concluyen con una advertencia concreta sobre el desarrollo tecnológico actual. Mientras la IA generativa aumenta su alcance, los gobiernos con poder de censura enfrentan “mayores incentivos estratégicos” para manipular las noticias y dirigir artificialmente el criterio de las máquinas.

Fuentes: 1, 2, 3, 4, 5

+ Temas Relacionados

Más de AI

Feed