✨︎ Resumen (TL;DR):
- Investigadores de Edimburgo descubrieron cómo eliminar las marcas invisibles que dejan los generadores de imágenes.
- Atacantes con conocimiento del sistema evadieron la detección en más del 80 % de los casos analizados.
- El hallazgo pone en riesgo el cumplimiento de normativas como la Ley de IA europea y exige mejores métodos de detección.
Investigadores de la Universidad de Edimburgo demostraron que las huellas invisibles dejadas por los modelos de inteligencia artificial en las imágenes pueden eliminarse o falsificarse con extrema facilidad. Este hallazgo debilita uno de los métodos más promovidos para detectar deepfakes y frenar las campañas de desinformación o estafas.
Para el estudio publicado en arXiv bajo el nombre de “Smudged Fingerprints”, los especialistas Kai Yao y Marc Juarez evaluaron 14 métodos de rastreo forense aplicados a 12 generadores de imágenes actuales.
Los resultados mostraron que un atacante con conocimiento del funcionamiento interno del generador (caja blanca) puede borrar los rastros en más del 80 % de los casos. Incluso atacantes con recursos limitados (caja negra) tuvieron éxito más del 50 % de las veces.
Una huella digital de IA es un rastro forense invisible que permite conectar una imagen sintética directamente con el modelo que la originó.
Aunque la precisión inicial de estas herramientas superaba el 90 % al analizar deepfakes inalterados, su eficacia se desplomó frente a ataques adversarios. Aplicar operaciones de rutina como comprimir en JPEG, redimensionar la imagen o añadir un filtro de desenfoque fue suficiente para destruir el rastro original.
El análisis también probó tácticas de falsificación. Los investigadores manipularon el archivo para incriminar a un proveedor tecnológico distinto. La mitad de los generadores evaluados resultaron vulnerables a este ataque, y todas las alteraciones pasaron completamente desapercibidas para el ojo humano.

El reto para las normativas europeas
Presentada durante la conferencia IEEE SaTML en Múnich, la investigación comprobó que ninguna de las 14 técnicas evaluadas ofreció precisión alta y resistencia total frente a todos los escenarios de amenaza.
Esto supone un desafío directo para marcos legales como la Ley de IA de la Unión Europea. Dicha legislación exige que los proveedores implementen protocolos de detección y etiquetado para el contenido sintético, bajo advertencia de multas que alcanzan los 35 millones de euros o el 7 % de la facturación global por incumplimiento.
El equipo de Edimburgo concluyó que depender solo de las huellas digitales será insuficiente ante estas regulaciones. La industria tecnológica necesitará sistemas de defensa en múltiples capas, combinando el análisis de rastros con watermarking robusto —la inserción de firmas digitales ocultas— para crear verdaderas herramientas contra la manipulación audiovisual.
