✨︎ Resumen (TL;DR):
- Sam Altman envió una carta de disculpa a Tumbler Ridge por no denunciar la cuenta de ChatGPT de la atacante a las autoridades.
- Los sistemas de la compañía bloquearon a la usuaria en junio de 2025, ocho meses antes de que asesinara a 8 personas.
- OpenAI enfrenta una demanda civil en Canadá y una investigación criminal directa en Florida por negligencia corporativa.
El CEO de OpenAI, Sam Altman, ofreció una disculpa formal a la comunidad de Tumbler Ridge, Columbia Británica, por no alertar a la policía sobre la cuenta de ChatGPT de Jesse Van Rootselaar, la joven de 18 años que asesinó a ocho personas en un tiroteo masivo en febrero.
En una carta con fecha del jueves, Altman reconoció la falla corporativa. “Estoy profundamente arrepentido de que no alertáramos a las autoridades sobre la cuenta que fue suspendida en junio”, escribió el directivo. “Aunque sé que las palabras nunca pueden ser suficientes, creo que una disculpa es necesaria para reconocer el daño y la pérdida irreversible que su comunidad ha sufrido”.
El primer ministro de Columbia Británica, David Eby, confirmó la recepción del documento, pero lo calificó como “necesario, y sin embargo sumamente insuficiente”.
Van Rootselaar asesinó a su madre y a su medio hermano de 11 años el 10 de febrero antes de atacar la escuela secundaria local, donde mató a cinco estudiantes y a un asistente educativo. La empresa confirmó que sus sistemas automatizados detectaron abusos y bloquearon el perfil en junio de 2025 (ocho meses antes del ataque), pero el equipo directivo concluyó que la actividad no ameritaba dar aviso legal.

Demandas corporativas y responsabilidad penal
La decisión de ignorar las alertas internas provocó una demanda por negligencia presentada en marzo ante la Corte Suprema local por la familia de Maya Gebala, una estudiante que sobrevivió con heridas críticas.
El documento legal detalla fallas estructurales dentro de la empresa: * Aproximadamente 12 empleados de OpenAI marcaron la cuenta como un “riesgo inminente”. * El equipo recomendó informar a la policía de inmediato. * El liderazgo corporativo decidió no actuar sobre los reportes internos.
El problema legal de la compañía se extiende a Estados Unidos. El 21 de abril, el fiscal general de Florida, James Uthmeier, anunció una investigación para determinar si la empresa tiene responsabilidad criminal en otro tiroteo ocurrido en la Universidad Estatal de Florida en abril de 2025.
En ese caso, el sospechoso Phoenix Ikner utilizó el chatbot para investigar sobre armas de fuego, municiones y ubicaciones del campus para encontrar la mayor concentración de estudiantes. El saldo fue de dos muertos y seis heridos.
“Si ese bot fuera una persona, se le acusaría como autor principal de asesinato en primer grado”, sentenció Uthmeier ante los medios.
La tecnológica rechazó estas acusaciones mediante un comunicado. Indicaron que su software “entregó respuestas objetivas a consultas basadas en información ampliamente disponible de fuentes públicas” y defendieron que el algoritmo “no incitó ni respaldó conductas ilegales o dañinas”.
Altman cerró su carta asegurando que implementaron protocolos de seguridad estrictos y crearon canales directos con las autoridades policiales. “De cara al futuro, nuestro enfoque seguirá siendo trabajar con todos los niveles de gobierno para ayudar a garantizar que algo como esto nunca vuelva a suceder”, escribió.
La resolución en las cortes de ambos países establecerá un precedente legal definitivo sobre la responsabilidad de las empresas de software cuando sus algoritmos procesan intenciones criminales previas a una tragedia.
Fuentes: 1, 2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12, 13, 14, 15, 16, 17, 18, 19, 20, 21, 22, 23
