✨︎ Resumen (TL;DR):
- Laboratorios de IA adquieren mensajes de Slack, tickets de Jira y correos de empresas que cerraron.
- La creciente demanda disparó los ingresos de la startup Fleet de $1 millón a $60 millones de dólares.
- Ex empleados quedan expuestos al venderse sus conversaciones corporativas sin su conocimiento.
Laboratorios de inteligencia artificial están pagando cientos de miles de dólares para adquirir mensajes de Slack, tickets de Jira y correos electrónicos de startups que fracasaron. Esta práctica convierte los datos operativos de empresas muertas en material de entrenamiento para nuevos agentes de IA, detonando cuestionamientos sobre la propiedad de la información corporativa.
La urgencia por obtener interacciones reales del entorno laboral responde a la necesidad de construir infraestructuras de simulación. Un gimnasio de aprendizaje por refuerzo es un entorno de trabajo digital donde los agentes de IA aprenden a utilizar herramientas empresariales, gestionar proyectos y comunicarse de forma profesional.
El negocio detrás de esta recolección es altamente lucrativo. Fleet, una startup dedicada a construir estos entornos, disparó sus ingresos de $1 millón a más de $60 millones de dólares en cuestión de meses. Según The Information, la compañía negocia una ronda de inversión de $50 millones de dólares, lo que elevaría su valuación a $750 millones.

El mercado formal para liquidar datos corporativos
Para facilitar estas transacciones comerciales, SimpleClosure, una firma de Santa Mónica enfocada en liquidar startups, lanzó su plataforma Asset Hub. La herramienta permite a los fundadores vender el código fuente, documentos y datos internos de sus empresas disueltas.
Dori Yona, CEO de SimpleClosure, confirmó que el interés de las compañías de IA por adquirir estos paquetes informativos aumentó agresivamente. Actualmente, la plataforma opera en fase beta mientras el equipo perfecciona sus procesos para eliminar la información de identificación personal antes de entregarla a los compradores.
Privacidad en un limbo regulatorio
La polémica sobre la extracción de datos desde plataformas de trabajo tiene antecedentes claros. En 2024, Slack enfrentó duras críticas al usar archivos y conversaciones para entrenar modelos de machine learning por defecto. Esto obligó a Salesforce a endurecer sus políticas en 2025, prohibiendo la exportación masiva de datos a través de su API para integrarlos en grandes modelos de lenguaje.
Mientras las empresas compran historiales, los reguladores intentan cerrar la brecha legal. La Ley de Transparencia de Datos de Entrenamiento de IA de California, vigente desde el 1 de enero de 2026 y ratificada por un tribunal federal tras rechazar una demanda de xAI de Elon Musk, exige ahora revelar si los datasets incluyen datos personales.
Sin embargo, para los antiguos empleados de estas startups fracasadas la realidad es tajante: los mensajes se crearon en plataformas pagadas por sus empleadores. Al carecer de recursos legales para bloquear las ventas, sus comunicaciones laborales del pasado terminan moldeando a los agentes autónomos del futuro.
