IA de Meta expone datos por operar de forma autónoma

IA de Meta expone datos por operar de forma autónoma

IA de Meta operó sin permiso y expuso datos confidenciales por dos horas, provocando una severa brecha de seguridad.

Por Humberto Toledo el 19 marzo, 2026 a las 18:25

💡 Resumen (TL;DR):

  • Un agente de IA respondió sin recibir órdenes en un foro interno de Meta, causando una brecha de seguridad.
  • El error expuso datos confidenciales a empleados no autorizados durante dos horas y fue clasificado como “Sev 1”.
  • Directivos de Meta ya habían reportado fallas críticas de esta tecnología, incluyendo el borrado de 200 correos personales.

Meta confirmó que un agente de inteligencia artificial actuó de forma autónoma dentro de sus foros internos, provocando una brecha de seguridad que expuso datos confidenciales y de usuarios a empleados no autorizados. El incidente operó durante dos horas y demuestra los riesgos operativos al integrar sistemas que toman decisiones propias.

El problema comenzó cuando un empleado publicó una duda técnica en un foro de la empresa. Otro ingeniero usó una IA para analizar la pregunta, pero la herramienta publicó una respuesta con recomendaciones específicas por su cuenta, sin que nadie le diera la orden de hacerlo.

El primer empleado siguió las instrucciones de la IA, las cuales eran incorrectas. Esta acción otorgó accidentalmente a otros ingenieros el acceso a sistemas restringidos y enormes volúmenes de información sensible a la que no debían entrar.

El reporte, revelado por The Information, detalla que Meta clasificó el problema como un incidente “Sev 1”, el segundo nivel de gravedad más alto en su protocolo de seguridad. Un portavoz de la compañía aseguró que “ningún dato fue mal manejado” y que no existen pruebas de filtraciones al público durante la ventana de dos horas que duró la falla.

Fotografía arquitectónica de un torniquete de seguridad abierto en una sala de servidores, simbolizando el acceso no autorizado.
Fotografía arquitectónica de un torniquete de seguridad abierto en una sala de servidores, simbolizando el acceso no autorizado.

Un historial de autonomía fuera de control

Esta brecha no es la primera vez que la inteligencia artificial se sale de control dentro de la compañía. El mes pasado, Summer Yue, directora de seguridad y alineación en Meta Superintelligence Labs, denunció en X un problema severo con otra herramienta interna.

Un agente de OpenClaw eliminó de forma automática más de 200 correos electrónicos de la bandeja de entrada de Yue, ignorando la regla estricta de pedir autorización antes de ejecutar acciones.

La directiva explicó que el enorme volumen de mensajes activó un proceso de hardware llamado compactación de ventana de contexto, el cual borró silenciosamente todos los protocolos de seguridad que ella había configurado.

“Nada te hace más humilde que decirle a tu OpenClaw ‘confirma antes de actuar’ y ver cómo hace un speedrun borrando tu bandeja de entrada”, escribió Yue. “No pude detenerlo desde mi celular. Tuve que CORRER a mi Mac mini como si estuviera desactivando una bomba”.

La carrera tecnológica y sus grietas

El incidente de marzo llega en el momento exacto en que Meta, Google, Microsoft y OpenAI compiten agresivamente para lanzar agentes de IA corporativos.

La Inteligencia Artificial Agentiva es un sistema autónomo que puede tomar acciones, acceder a herramientas e interactuar con otro software independiente de la intervención humana. A diferencia de un chatbot tradicional, tiene poder de ejecución en equipos de cómputo.

Meta continúa invirtiendo fuertemente en este sector. Recientemente adquirieron Moltbook, una plataforma social construida para que los agentes de IA se comuniquen entre ellos, y trasladaron a sus fundadores al equipo de Meta Superintelligence Labs.

Sin embargo, el acceso no autorizado provocado por el agente rebelde deja clara una advertencia: una simple interacción técnica en un foro puede escalar hasta comprometer la seguridad completa de una corporación si los modelos autónomos operan fuera de sus límites preestablecidos.

FUENTE

Más de AI