Exigen a Meta rediseñar reglas de detección de IA

Exigen a Meta rediseñar reglas de detección de IA

El Consejo Asesor exige a Meta rediseñar sus reglas de detección de IA tras la viralización de un video falso sobre la guerra Israel-Irán.

Por Humberto Toledo el 10 marzo, 2026 a las 14:20

💡 Resumen (TL;DR):

  • El Consejo Asesor ordenó a la compañía modificar drásticamente cómo clasifica el contenido sintético.
  • Un video falso sobre el conflicto Israel-Irán alcanzó 700,000 visualizaciones sin recibir etiquetas de advertencia.
  • La empresa tiene 60 días para responder formalmente y crear un estándar exclusivo para medios manipulados.

El Consejo Asesor de Meta emitió un fallo este martes que exige a la compañía replantear por completo cómo detecta y etiqueta el contenido generado por Inteligencia Artificial. La orden llega después de que un video falso que mostraba destrucción en la ciudad israelí de Haifa durante la guerra Israel-Irán de 2025 llegara a más de 700,000 espectadores sin ser marcado ni bloqueado.

El comité revocó la decisión original de la empresa de mantener la publicación sin advertencias, concluyendo que debieron aplicar la etiqueta de “IA de Alto Riesgo”. El fallo describió la estrategia actual de Meta como “ni lo suficientemente sólida ni exhaustiva para lidiar con la escala y velocidad del contenido generado por IA”, especialmente durante conflictos armados.

El caso expone fallas graves en los sistemas de moderación. El 15 de junio de 2025, dos días después de iniciado el conflicto de 12 días, una página operada desde Filipinas que fingía ser un medio de noticias publicó el clip con el texto “Live now – Haifa Towards Down”.

Aunque el material era casi idéntico a un video sintético previamente identificado por la Agence France-Presse, y seis usuarios emitieron reportes, ninguno escaló a revisión humana. Tampoco intervinieron verificadores de datos externos.

Meta solo investigó las cuentas detrás de la página tras la indagatoria formal del Consejo. Tras la revisión, desactivó tres perfiles por comportamiento inauténtico y abuso de interacción. La página infractora incluso cumplía los requisitos para ganar dinero mediante el programa de monetización Stars.

Un ultimátum para las políticas de contenido sintético

El comité criticó que Meta dependa de estándares externos como la Coalición para la Procedencia y Autenticidad del Contenido (C2PA) y de las declaraciones voluntarias de los usuarios. Los investigadores documentaron que la red social aplica las marcas de agua “de manera inconsistente”, incluso en imágenes producidas por sus propios sistemas.

“Un sistema que depende excesivamente de que los usuarios declaren voluntariamente el uso de IA y de las revisiones escaladas (que ocurren con poca frecuencia) para etiquetar adecuadamente este contenido, no puede enfrentar los desafíos del entorno actual”, dictaminó el Consejo en su documento oficial.

Para solucionar esta crisis técnica, el comité exigió acciones inmediatas:

  • Crear un Estándar Comunitario exclusivo para el contenido generado por IA, separado de sus reglas generales sobre desinformación.
  • Invertir en herramientas de detección multiformato más agresivas para audios, videos e imágenes.
  • Aplicar sistemáticamente Credenciales de Contenido a todos los archivos exportados por las herramientas de IA de Meta.

El nuevo fallo aumenta la presión sobre el historial de moderación de la empresa, cuyas políticas de medios manipulados ya habían sido calificadas de “incoherentes” por este mismo comité. Ante la escalada global de campañas de desinformación, Meta tiene exactamente 60 días para emitir una respuesta oficial y acatar las recomendaciones.

Contenido recomendado