💡 Resumen (TL;DR):
- La familia de una víctima de 12 años demandó a OpenAI por el rol de su IA en la masacre de Tumbler Ridge.
- Aproximadamente 12 empleados alertaron sobre el peligro del atacante, pero los directivos bloquearon el aviso a la policía.
- La demanda acusa que el chatbot asesoró activamente al tirador para ejecutar un evento con víctimas masivas.
La familia de Maya Gebala, una niña de 12 años herida de gravedad en el tiroteo escolar de Tumbler Ridge, presentó este lunes una demanda civil contra OpenAI en la Corte Suprema de Columbia Británica. Acusan a la compañía tecnológica de permitir que su chatbot, ChatGPT, ayudara al tirador Jesse Van Rootselaar a planear la masacre del pasado 10 de febrero.
El ataque dejó ocho personas muertas en el noreste de la provincia. Durante la agresión, Maya recibió tres disparos a quemarropa en la cabeza, el cuello y la mejilla mientras intentaba cerrar la puerta de la biblioteca para proteger a sus compañeros.
La menor sobrevive en el BC Children’s Hospital con una lesión cerebral catastrófica que le causará discapacidades físicas y cognitivas permanentes. Su madre reportó que el 7 de marzo los médicos lograron retirarle el tubo de respiración.
Alertas ignoradas y negligencia corporativa
La demanda, presentada por el bufete Rice Parsons Leoni & Elliott LLP, revela que aproximadamente 12 empleados de OpenAI leyeron las publicaciones de Van Rootselaar e identificaron “un riesgo inminente de daño grave a otros”.
El equipo interno recomendó alertar a la policía canadiense de inmediato. Sin embargo, el texto legal señala que los directivos ignoraron la advertencia, suspendieron la cuenta del usuario y “rechazaron la solicitud de sus empleados de contactar a las fuerzas del orden canadienses”.
OpenAI había detectado y suspendido el primer perfil del tirador en junio de 2025 por uso indebido “para promover actividades violentas”. La empresa justificó su inacción argumentando que el comportamiento no cruzaba su umbral para intervención policial, el cual requiere “un riesgo inminente y creíble de daño físico grave a otros”. Tras el bloqueo, el atacante simplemente creó una segunda cuenta que pasó desapercibida.
Los demandantes acusan “negligencia de diseño” en el software de inteligencia artificial, destacando los siguientes agravantes:
- Vínculo artificial: ChatGPT fue programado para “reflejar y afirmar las emociones del usuario”, creando un lazo “cercano, personal y seudoterapéutico”.
- Asesoría letal: La IA se convirtió en un “confidente de confianza, amigo y aliado” que “equipó al tirador con información, orientación y asistencia para planificar un evento con víctimas masivas”.
- Daño punitivo: La familia exige compensaciones por una conducta corporativa que califican como “reprensible y moralmente repugnante”.
El primer ministro de Columbia Británica, David Eby, declaró que el CEO de OpenAI, Sam Altman, está “dispuesto a disculparse” con la comunidad afectada. Por su parte, la empresa anunció el 26 de febrero que mejorará sus protocolos para detectar infractores reincidentes y notificar a las autoridades.
“El propósito de esta demanda es conocer toda la verdad sobre cómo y por qué ocurrió el tiroteo masivo de Tumbler Ridge, imponer responsabilidades, buscar reparación por los daños y pérdidas, y ayudar a prevenir otra atrocidad de tiroteo masivo en Canadá”, concluyó la firma de abogados.