💡 Resumen (TL;DR):
- Irán y medios afines difunden cientos de videos e imágenes generados con IA sobre falsos ataques a bases de Estados Unidos e Israel.
- Investigadores detectaron al menos 18 narrativas falsas que acumulan cientos de millones de vistas desde el 28 de febrero.
- X modificó sus reglas de monetización el 3 de marzo para suspender por 90 días a cuentas premium que difundan contenido sintético sin etiquetar.
Desde el inicio de las hostilidades el 28 de febrero, medios estatales iraníes y cuentas aliadas lanzaron una ofensiva de desinformación masiva en redes sociales. Esta campaña utiliza imágenes y videos generados por inteligencia artificial para mostrar ataques ficticios contra objetivos militares de Estados Unidos e Israel. La rápida propagación de este material obligó a X a implementar penalizaciones severas contra los creadores de contenido que compartan material sintético no etiquetado, buscando frenar el lucro derivado de la guerra.
Una investigación de Wired identificó cientos de publicaciones engañosas que alcanzaron millones de reproducciones. Uno de los casos más virales fue una fotografía compartida por el Tehran Times, medio vinculado al gobierno iraní, que mostraba una supuesta instalación de radar estadounidense destruida en la base aérea Al Udeid en Qatar.
BBC Verify demostró que la imagen provenía de fotos satelitales de Google Maps tomadas en febrero de 2025 de una base naval en Bahréin, posteriormente alteradas. La herramienta de detección SynthID de Google confirmó la manipulación algorítmica de la imagen.
Tal Hagin, analista de la firma de inteligencia de código abierto Golden Owl, identificó un error técnico en la fotografía falsa: “Una forma de saberlo es que todos los autos se quedaron exactamente en la misma ubicación”.
En otro incidente, la televisión estatal iraní transmitió videos creados con IA que simulaban el hundimiento del portaaviones USS Abraham Lincoln mediante enjambres de drones y misiles. Según Newsweek, estos clips llegaron a plataformas chinas impulsados por un avatar falso de un presentador de CCTV.
El monitor de información NewsGuard detectó 18 narrativas falsas vinculadas a fuentes proiraníes desde el inicio del conflicto militar. Esta cifra marca un aumento drástico frente a las cinco registradas en las dos semanas previas.

X bloquea los ingresos de las fake news
El impacto de estas publicaciones forzó a la plataforma de Elon Musk a reescribir sus políticas. El 3 de marzo, Nikita Bier, jefe de producto de X, anunció que los usuarios que publiquen videos de conflictos armados generados por IA sin la etiqueta correspondiente perderán su acceso al programa de monetización durante 90 días. Las reincidencias causarán la expulsión permanente.
“Durante tiempos de guerra, es fundamental que la gente tenga acceso a información auténtica sobre el terreno”, escribió Bier. “Con las tecnologías de IA actuales, es trivial crear contenido que pueda engañar a las personas”.
La red social detectará las infracciones mediante el sistema de Notas de la Comunidad y el rastreo de metadatos de las propias herramientas de IA generativa. The New York Times detalló que Irán mantiene una campaña informativa paralela a las confrontaciones militares, mezclando la realidad con la ficción.
El problema central radica en el algoritmo de viralidad y el modelo de negocio de la plataforma. Wired descubrió que la mayoría del contenido falso proviene de cuentas con verificación azul. Estos usuarios premium ganan dinero por el nivel de interacción que generan sus publicaciones, sin importar la precisión de los datos, lo que ensancha la brecha entre la velocidad para fabricar fake news y la capacidad técnica para hacer fact-checking.