💡 Resumen (TL;DR):
- Una ola de videos falsos e imágenes manipuladas inunda las redes sociales tras la reciente escalada militar con Irán.
- Un clip generado por inteligencia artificial sobre Tel Aviv superó decenas de millones de vistas, mientras el chatbot Grok falló al verificarlo.
- La plataforma X suspenderá los ingresos durante 90 días a los creadores que publiquen material bélico sintético no etiquetado.
Desde que inició la campaña militar entre Estados Unidos, Israel e Irán el pasado 28 de febrero, una ola sin precedentes de videos generados con inteligencia artificial y falsas imágenes satelitales domina las redes sociales. Según una investigación de BBC Verify publicada el 6 de marzo, este contenido manipulado acumula cientos de millones de reproducciones impulsadas por gobiernos, medios estatales y creadores que buscan capitalizar el engagement.
La desinformación incluye un video falso de misiles golpeando Tel Aviv y un clip manipulado del Burj Khalifa en llamas en Dubái. Shayan Sardarizadeh, periodista de BBC Verify, afirmó que “esta guerra podría haber roto ya el récord del mayor número de videos e imágenes generados por IA que se han vuelto virales durante un conflicto”.

El uso de imágenes satelitales sintéticas
Un elemento distintivo de esta crisis es la fabricación de evidencia militar satelital. El medio estatal iraní Tehran Times publicó una supuesta foto de daños a un radar estadounidense en Qatar. Sin embargo, la herramienta de detección SynthID confirmó que la imagen provino de una foto real de una base naval en Bahréin de febrero de 2025, alterada con un producto de inteligencia artificial de Google.
Incluso la clase política cayó en los engaños. El gobernador de Texas, Greg Abbott, publicó y luego borró un clip del videojuego War Thunder confundiéndolo con combate real, escribiendo “Adiós”, hasta que las Notas de la Comunidad señalaron el origen de las imágenes.
El problema escaló por las fallas tecnológicas de las propias plataformas. El chatbot Grok de X validó incorrectamente contenido falso de manera repetida. Cuando distintos usuarios pidieron verificar el clip de los misiles en Tel Aviv, la inteligencia artificial aseguró que el metraje era real, citando erróneamente reportes de medios como Reuters y Newsweek.
Castigo financiero en X
Ante la crisis, el jefe de producto de X, Nikita Bier, anunció el 4 de marzo castigos severos para los perfiles que publiquen material bélico sintético sin etiquetarlo. Los infractores serán suspendidos del programa de monetización de creadores durante 90 días, con riesgo de expulsión permanente en caso de reincidencia.
“Con las tecnologías de IA actuales, es trivial crear contenido que pueda engañar a la gente”, escribió el directivo de X para justificar la medida.
Especialistas señalan que el modelo de ingresos por impresiones incentiva directamente la difusión de noticias falsas. La experta Mahsa Alimardani advirtió sobre el impacto real de esta tendencia: “los videos falsos como estos socavan la confianza del público en la información verificada disponible en línea y complican la documentación de pruebas reales”.