Abuso generado por IA colapsa a autoridades, dice Bloomberg

Abuso generado por IA colapsa a autoridades, dice Bloomberg

Una investigación de Bloomberg revela que el abuso generado por IA colapsa a la policía y retrasa el rescate de menores.

Por Humberto Toledo el 22 abril, 2026 a las 20:22 PDT

✨︎ Resumen (TL;DR):

  • Una investigación de Bloomberg demuestra que la proliferación de imágenes de abuso creadas con IA está saturando los sistemas policiales.
  • La Internet Watch Foundation detectó un aumento del 26,385 % en videos sintéticos durante 2025, dificultando identificar a las víctimas reales.
  • La saturación provoca que los análisis forenses tarden hasta dos años, lo que retrasa las operaciones de rescate de menores en peligro.

Una investigación de seis meses publicada por Bloomberg detalla cómo la rápida proliferación de material de abuso sexual infantil generado por inteligencia artificial satura a los investigadores. El reporte alerta que el alto volumen de contenido sintético impide a las autoridades identificar a los menores reales en peligro, provocando el colapso de los sistemas policiales.

Las cifras ilustran el alcance del problema. El National Center for Missing and Exploited Children (NCMEC) recibió más de 1.5 millones de reportes con componentes de IA generativa solo en 2025. Esto incluye más de 7,000 casos de usuarios que generaron o poseían el material y más de 30,000 intentos de creación.

Por su parte, la Internet Watch Foundation (IWF) evaluó 8,029 imágenes y videos que mostraban abuso realista durante 2025. La organización identificó 3,443 videos generados por IA, lo que representa un aumento del 26,385 % frente a los 13 casos registrados en 2024.

Filtran acceso a Mythos, la IA restringida de Anthropic
Te podría interesar:
Filtran acceso a Mythos, la IA restringida de Anthropic
Interfaz De Análisis Y Negociación De Acciones Digitales
Foto: StockRadars Co., / Pexels

Gravedad extrema y colapso operativo

El material se vuelve cada vez más extremo. El 65 % de los videos identificados por la IWF el año pasado se catalogaron como Categoría A, la clasificación más severa. Hoy es común el contenido de video con movimiento completo y audio sintético. Además, se descubrió que varios servicios de chatbot en la web abierta alojan estas imágenes e incitan a los usuarios a simular escenarios de abuso.

El reporte, firmado por Alexandra S. Levine, Riley Griffin y Kurt Wagner, coincide con una auditoría publicada el 15 de abril por el Inspectorado de Su Majestad de Policía y Servicios de Bomberos y Rescate (HMICFRS). Las fuerzas policiales en Inglaterra y Gales están fallando en investigar adecuadamente estos delitos.

Las transferencias de casos desde la National Crime Agency a la policía local aumentaron 66 % en un año (de 12,469 en 2023 a 20,704 en 2024), mientras el número de agresores sexuales registrados creció 48 % en la última década.

Michelle Skeer, inspectora jefa de la policía, advirtió que las corporaciones se están “quedando cortas frente a lo que el público espera”. Los investigadores manejan hasta 54 casos activos a la vez y los peritajes forenses digitales tardan hasta dos años.

“Los niños están experimentando retrasos para recibir protección”, afirmó Skeer, y añadió que “ninguna fuerza por sí sola puede abordar estos problemas de manera independiente”.

El reto del fotorrealismo frente al marco legal

La calidad casi fotorrealista del material informático agrava el trabajo de rescate. Un investigador declaró a NBC News: “Las fuerzas del orden pueden pasar días buscando a alguien que no existe”. Una revisión de este canal identificó 36 casos penales en 22 estados durante los últimos tres años, todos concluidos con veredictos de culpabilidad.

Los gobiernos están endureciendo la ley, aunque a un ritmo inferior al del software:

  • Estados Unidos: 37 estados promulgaron leyes que criminalizan este material, más de la mitad de ellas en 2024. La primera condena federal bajo la Take It Down Act ocurrió en abril cuando un hombre en Ohio se declaró culpable de usar más de 100 modelos basados en la web.
  • Reino Unido: El Crime and Policing Bill introdujo un nuevo delito por poseer o suministrar herramientas diseñadas para generar el contenido infractor.

Claire Waxman, comisionada de víctimas, criticó la capacidad de respuesta de los sistemas actuales. Enfatizó que “cada retraso u oportunidad perdida para intervenir tiene consecuencias tangibles para los niños y sus familias”.

Fuentes: 1, 2, 3, 4, 5

Más de AI

Feed