Grok falla como fact-checker y valida fake news sobre Irán

Grok falla como fact-checker y valida fake news sobre Irán

Grok, el chatbot de X de Elon Musk, falla al verificar videos falsos y difunde desinformación bélica sobre Irán.

Por Humberto Toledo el 11 marzo, 2026 a las 20:55

💡 Resumen (TL;DR):

  • Grok validó múltiples videos generados por inteligencia artificial, presentándolos como material auténtico de guerra.
  • Las menciones del chatbot subieron a 1.8 millones diarios en X mientras difundía datos inexactos sobre ataques en Medio Oriente.
  • YouTube y X activaron bloqueos de monetización y herramientas de reconocimiento facial para frenar el contenido sintético.

Durante la segunda semana del conflicto militar entre Estados Unidos, Israel e Irán, una avalancha de videos generados por inteligencia artificial superó por primera vez a los métodos de desinformación tradicional. Aunque Elon Musk pidió a los usuarios usar Grok para verificar datos, el chatbot de X confirmó repetidamente imágenes bélicas falsas como reales.

Una investigación de BBC Verify detectó videos creados con IA que simulaban ataques tácticos, incluyendo la caída de misiles sobre Tel Aviv, un clip que apareció en más de 300 publicaciones y se compartió miles de veces. Cuando los usuarios acudieron a Grok para comprobar la autenticidad del metraje, el sistema falló e insistió en que las imágenes sintéticas eran legítimas.

Según un análisis de la cadena RTÉ, el 5 de marzo Musk alentó a utilizar la herramienta para revisar publicaciones. Sin embargo, el 28 de febrero, primer día de los enfrentamientos, las menciones del modelo se dispararon a 1.8 millones frente al promedio diario de 1.27 millones, generando respuestas repletas de fallos fácticos. Incluso el jefe de producto de X, Nikita Bier, pidió a la IA que corrigiera una identificación errónea, pero el sistema defendió su error citando coberturas inexistentes de la BBC y Al Jazeera.

Grok falla como fact-checker y valida fake news sobre Irán

Sanciones en X y nuevos filtros biométricos en YouTube

Ante el caos en la plataforma, X anunció una suspensión de 90 días en su programa de monetización para quienes publiquen videos bélicos generados por IA sin una etiqueta clara. Bier también confirmó que desmantelaron una red de 31 cuentas hackeadas manejadas por una sola persona en Pakistán, rebautizadas masivamente bajo el alias “Iran War Monitor” el 27 de febrero.

Por su parte, YouTube habilitó este martes una función directa para que funcionarios gubernamentales, políticos y periodistas puedan exigir la eliminación de deepfakes que utilicen su imagen sin autorización. Los interesados deben enviar una selfie en video y una identificación oficial. Esta actualización acelera el despliegue del sistema de reconocimiento que afectará a 4 millones de creadores del Programa de Socios para octubre de 2025.

“Nuestro objetivo es empoderar a quienes necesitan esta tecnología, y apuntamos a ampliar significativamente el acceso en el próximo año”, declaró un portavoz de YouTube a NBC News.

La propaganda militar escala con deepfakes

Medios estatales iraníes y cuentas aliadas operan como los principales distribuidores de este contenido sintético. El periódico Tehran Times publicó el 28 de febrero imágenes satelitales manipuladas sobre la destrucción de un radar estadounidense en Qatar, material desmentido rápidamente al tratarse de una foto alterada de Google Earth de 2025. Días después, el 4 de marzo, un clip falso sobre el derribo de un caza militar de Estados Unidos en Teherán inundó cientos de cuentas de propaganda en TikTok e Instagram.

Shayan Sardarizadeh, periodista de BBC Verify, explicó a la Global Investigative Journalism Network la verdadera gravedad detrás de estos algoritmos sin control: “es el primer caso de una confrontación global significativa donde observamos más desinformación creada a través de IA que por métodos tradicionales”.

Contenido recomendado