✨︎ Resumen (TL;DR):
- Jake Moore demostró que herramientas accesibles de inteligencia artificial permiten abrir cuentas bancarias reales y evadir listas de vigilancia policiales.
- Microsoft detecta 100 billones de señales de amenazas diarias ante una crisis laboral de 4 millones de vacantes en ciberseguridad.
- Los expertos alertan que la infraestructura basada en GPU es el nuevo punto ciego que los atacantes ya explotan activamente.
La inteligencia artificial está transformando el hacking corporativo a un ritmo que supera la capacidad de respuesta de la industria. Durante la RSA Conference 2026 en San Francisco, expertos demostraron de forma contundente que las herramientas para vulnerar los sistemas de reconocimiento facial de bancos y corporaciones policiales ya están al alcance de cualquier usuario.
Jake Moore, asesor global de ciberseguridad en ESET, ejecutó las pruebas más agresivas del evento celebrado del 23 al 26 de marzo. Primero, utilizó lentes inteligentes de Meta modificados para identificar a extraños en tiempo real. Al capturar sus rostros y cruzarlos con bases de datos públicas, obtuvo nombres y perfiles sociales en cuestión de segundos.
El ataque escaló cuando Moore generó una identidad ficticia con IA y software gratuito para abrir una cuenta bancaria real. La plataforma digital de “conoce a tu cliente” (e-KYC) del banco validó el rostro generado por computadora como genuino.
En un tercer experimento, el analista se agregó a una lista de vigilancia facial en una concurrida estación de trenes de Londres. Caminó frente a las cámaras aplicando un software de face swap en tiempo real que superpuso la cara del actor Tom Cruise sobre la suya. El sistema, idéntico al que utiliza la policía del Reino Unido, no arrojó ninguna alerta.
“La verificación de identidad que depende únicamente de una coincidencia facial claramente conlleva más riesgo del que la mayoría de las personas y organizaciones perciben”, documentó WeLiveSecurity de ESET en su informe de la investigación.

El déficit de talento y la crisis de la GPU
Scott Woodgate, gerente general de protección contra amenazas de Microsoft, aterrizó la escala del problema con datos duros: la compañía procesa más de 100 billones de señales de inteligencia de amenazas al día y bloquea más de 7,000 ataques de contraseñas por segundo. Todo esto choca contra un déficit crónico de 4 millones de puestos de ciberseguridad vacantes a nivel global.
Sandra Joyce, vicepresidenta de inteligencia de amenazas en Google, exigió abandonar las estrategias reactivas. La ejecutiva aseguró que el tradicional enfoque de “golpear al topo” es obsoleto porque la IA aceleró radicalmente la velocidad de operación de los cibercriminales.
El panel sumó la advertencia de cuatro exdirectores de la NSA, quienes proyectan que China podría armar modelos de IA para tomarnos desprevenidos. Uno de los exfuncionarios alertó que Estados Unidos se ha “desensibilizado peligrosamente” ante las filtraciones de datos.
La cumbre también desnudó vulnerabilidades estructurales en la propia tecnología:
- El punto ciego del hardware: Las herramientas tradicionales protegen la CPU y el sistema operativo, dejando los entornos de cálculo basados en GPU desprotegidos y a merced de los hackers.
- El estándar defensivo: Una encuesta del Futurum Group a 1,000 directivos reveló que el 62% considera las herramientas de defensa con IA una necesidad absoluta.
- La realidad del impacto: El 82% de esos mismos líderes admitió haber sufrido al menos un incidente de seguridad grave durante el último año.
Jen Easterly, actual CEO de la RSAC y exdirectora de la Agencia de Seguridad de Infraestructura y Ciberseguridad, confirmó que el actual gobierno estadounidense limitó la participación federal en la cumbre y canceló las ponencias oficiales del FBI y la NSA. El vacío oficial subraya un mensaje claro: el sector privado asume en solitario la nueva carrera armamentística contra la IA maliciosa.
