💡 Resumen (TL;DR):
- Una ola de imágenes y videos generados con inteligencia artificial desinforma sobre el conflicto en Medio Oriente.
- El New York Times detectó más de 110 publicaciones sintéticas con millones de reproducciones en dos semanas.
- Plataformas como X y Meta luchan contra esta estrategia bélica que utiliza deepfakes ultrarrealistas.
El New York Times identificó más de 110 publicaciones falsas generadas por IA sobre la guerra en Irán durante sus primeras dos semanas. Estos contenidos acumulan millones de reproducciones en X, TikTok y Facebook, evidenciando una crisis masiva de desinformación sintética en pleno conflicto militar.
Las publicaciones incluyen desde misiles impactando Tel Aviv hasta imágenes satelitales de bases militares estadounidenses destruidas y soldados capturados. Los reportes confirman que ninguna de estas escenas ocurrió en la realidad.
“Incluso comparado con cuando estalló la guerra en Ucrania, las cosas ahora son muy diferentes. Probablemente estamos viendo mucho más contenido relacionado con IA ahora que nunca antes”, señaló Marc Owen Jones, profesor de análisis de medios en la Northwestern University en Qatar.
Teherán utiliza estas herramientas para manipular la percepción pública. Valerie Wirtschafter, investigadora del Brookings Institution, calificó estas falsificaciones como “una herramienta de guerra” que Irán explota activamente para exagerar los daños causados a Estados Unidos y sus aliados.

El fracaso de Grok y la moderación en redes
Una investigación de Wired reveló que Grok, el chatbot de X, falla al detectar engaños y llega a generar sus propias imágenes sintéticas de guerra cuando los usuarios le piden verificar datos.
- Tel Aviv bajo fuego: Un video falso de misiles superó las decenas de millones de vistas en más de 300 posteos, según BBC Verify.
- Evidencia fabricada: El medio estatal Tehran Times difundió daños irreales a una base de EE.UU. en Bahréin. La herramienta Google SynthID confirmó que la imagen se creó con IA de Google.
- Castigos financieros: A partir del 4 de marzo, X suspenderá por 90 días de su programa de monetización a quienes publiquen videos sintéticos de conflictos armados sin etiquetar.
Los fact-checkers utilizan software como Hive Moderation para detectar errores visuales comunes: texto deformado, patrones de explosión imposibles o coordenadas sin sentido. En varios casos, las imágenes arrojaron un 99 por ciento de probabilidad de ser sintéticas.
El enorme volumen de contenido y la sofisticación del software actual de empresas como OpenAI complican la verificación. Como declaró a Rolling Stone la ex jefa de ética de X, Rumman Chowdhury: “Hemos alcanzado un nivel de autenticidad en video y deepfakes que, para la mayoría de la gente, es indistinguible de la realidad”.