✨︎ Resumen (TL;DR):
- OpenAI anunció una beca para investigadores externos enfocados en la seguridad y alineación técnica de la IA.
- El programa operará de septiembre de 2026 a febrero de 2027, sin otorgar a los becarios acceso a los sistemas internos.
- La convocatoria se publicó horas después de que The New Yorker revelara la disolución sistemática de los equipos internos de seguridad.
OpenAI anunció este domingo la creación de la Safety Fellowship, un programa piloto diseñado para financiar a académicos independientes enfocados en la seguridad de la inteligencia artificial. La convocatoria llega en un momento crítico, apenas horas después de que The New Yorker publicara una extensa investigación sobre el desmantelamiento de las divisiones de seguridad dentro de la compañía.
El reporte de los periodistas Ronan Farrow y Andrew Marantz expuso la disolución de los equipos de superalineación y de preparación para la AGI. Tras 18 meses de investigación y más de 100 entrevistas, el artículo también reveló que la compañía eliminó la seguridad de su lista de actividades principales en los formularios 990 del IRS.
El anuncio oficial apareció en las redes sociales de OpenAI el 6 de abril a las 12:12 PM. Ronan Farrow señaló rápidamente la coincidencia de horarios, marcando la pauta sobre el origen mediático de esta iniciativa.

Un enfoque externo sin acceso a los sistemas
La Safety Fellowship es un programa piloto que financiará a investigadores externos para realizar análisis de seguridad a distancia. El ciclo de trabajo abarcará del 14 de septiembre de 2026 al 5 de febrero de 2027, con una fecha límite de solicitud para el 3 de mayo y notificaciones de aceptación el 25 de julio.
La convocatoria busca expertos en ciencias computacionales, ciberseguridad, privacidad y ciencias sociales. La empresa indicó que priorizará la habilidad de investigación sobre los grados académicos. Los seleccionados evaluarán la robustez de los modelos, estrategias de mitigación y los riesgos de uso indebido de alta severidad.
Los beneficios y limitantes del programa incluyen:
- Un estipendio mensual y recursos de cómputo garantizados.
- Espacios de trabajo en Constellation (Berkeley, California) o vía remota.
- Créditos de API y mentoría directa de los investigadores de OpenAI.
- Restricción total: los becarios no tendrán acceso a los sistemas internos de la compañía.
Cada participante deberá entregar un resultado público al finalizar, como un paper de investigación, un benchmark o un dataset.
La crisis de alineación corporativa
Este modelo redirige las dudas operativas hacia un entorno externo en lugar de restaurar la infraestructura interna de la empresa. La comunidad especializada debate actualmente si un piloto externo puede sustituir el nivel de escrutinio que aplicaban los equipos internos.
El desmantelamiento reportado por The New Yorker comenzó en mayo de 2024 con la salida de Ilya Sutskever y Jan Leike de la división de superalineación, y continuó con la desaparición del equipo de Alineación de Misión en febrero de 2026.
La postura de la directiva sobre el control de sus tecnologías queda en entredicho al recordar la advertencia que publicó Jan Leike al abandonar OpenAI en 2024, cuando afirmó que la cultura y los procesos de seguridad habían “pasado a un segundo plano frente a los productos brillantes”.
