✨︎ Resumen (TL;DR):
- Un joven arrojó un explosivo contra la casa del CEO de OpenAI en San Francisco y amenazó con quemar las oficinas de la empresa.
- El directivo culpó directamente a una investigación de 18 meses que cuestionó su ética y liderazgo.
- Altman advirtió que la carrera por desarrollar inteligencia artificial está haciendo que la gente “haga cosas locas”.
Horas después de que un joven de 20 años arrojara un cóctel molotov contra su casa en San Francisco la madrugada del viernes, el CEO de OpenAI, Sam Altman, publicó una carta vinculando el atentado con una reciente investigación periodística de The New Yorker sobre su liderazgo.
El artefacto impactó la residencia de Altman en el barrio de Russian Hill cerca de las 3:45 a.m., rebotó en la estructura e incendió el portón exterior.
El Departamento de Policía de San Francisco confirmó que no hubo heridos. El atacante huyó a pie, pero fue arrestado una hora después cerca de las oficinas de OpenAI, donde amenazaba con quemar el edificio. Los cargos siguen pendientes.
En su blog personal, con fecha del 10 de abril, Altman rompió el protocolo corporativo al iniciar su mensaje con una foto familiar.
El directivo explicó que lo hacía con la esperanza de que “pudiera disuadir a la próxima persona de tirar un cóctel molotov a nuestra casa, sin importar lo que piensen de mí”.
“Hubo un artículo incendiario sobre mí hace unos días”, escribió Altman en su publicación. “Ahora estoy despierto en medio de la noche y furioso, y pensando que he subestimado el poder de las palabras y las narrativas”.

La investigación y el “anillo de poder” de la IA
El reportaje publicado el 6 de abril por Ronan Farrow y Andrew Marantz, titulado “Sam Altman May Control Our Future — Can He Be Trusted?”, es el resultado de 18 meses de investigación periodística.
Basado en más de 100 entrevistas y documentos internos, el texto describe al directivo como un “mentiroso patológico” con una “voluntad implacable de poder”.
Incluso, un exmiembro de la junta directiva declaró que Altman posee “una falta de preocupación casi sociópata por las consecuencias que pueden derivar de engañar a alguien”.
El documento detalla que el directivo ocultó información sobre protocolos de seguridad, operó en secreto para frenar la regulación en materia de inteligencia artificial y mantuvo lazos financieros con autocracias del Golfo Pérsico.
Ante las acusaciones, Altman admitió ser “una persona defectuosa en el centro de una situación excepcionalmente compleja”. Reconoció que su postura evasiva a los conflictos “causó un gran dolor para mí y para OpenAI” durante la crisis de la junta directiva en 2023.
Para explicar la tensión actual en el sector tech, Altman utilizó una metáfora sobre la AGI (Inteligencia Artificial General). La AGI es un sistema informático que comprende y ejecuta cualquier tarea intelectual al nivel de un ser humano.
El CEO comparó la carrera por dominar la AGI con la dinámica del anillo en El Señor de los Anillos. “Una vez que ves la AGI, no puedes dejar de verla”, advirtió. “Hace que la gente haga cosas locas”.
Altman argumentó que la solución corporativa es compartir el acceso a la tecnología ampliamente en lugar de concentrar su control.
“Mientras tenemos ese debate, deberíamos desescalar la retórica y las tácticas e intentar tener menos explosiones en menos casas, en sentido figurado y literal”, concluyó.
