✨︎ Resumen (TL;DR):
- El nuevo modelo de OpenAI superó a los estudiantes más sobresalientes en las pruebas de admisión de las universidades de Tokio y Kioto.
- La IA logró 503 de 550 puntos en Ciencias Naturales, sacando 50 puntos de ventaja sobre el humano con mejor calificación.
- Académicos proponen reestructurar el sistema educativo para dejar de evaluar únicamente la memorización de datos.
ChatGPT 5.2 Thinking es un modelo de inteligencia artificial de OpenAI que acaba de romper los récords de los estudiantes humanos más avanzados en los exámenes de ingreso de 2026 para la Universidad de Tokio y la Universidad de Kioto. La empresa nipona LifePrompt Inc. coordinó las pruebas para demostrar el salto técnico del software en resolución de problemas complejos.
Para realizar la evaluación, el equipo de LifePrompt introdujo las preguntas convertidas en imágenes. Posteriormente, los profesores de Kawai Juku, una de las escuelas de preparación más importantes de Japón, calificaron las respuestas redactadas por el sistema.
Los resultados exhibieron el poder analítico del sistema. En el examen de Ciencias Naturales III de la Universidad de Tokio, la ruta para ingresar a medicina, ChatGPT obtuvo 503 de 550 puntos. Esta cifra rebasó por 50 puntos la marca de 453 puntos obtenida por el mejor aspirante humano, y vino acompañada de una calificación perfecta en matemáticas.
En la prueba de Humanidades y Ciencias Sociales, el modelo logró 452 puntos, superando el récord humano de 434. La historia se repitió en la Universidad de Kioto: el software registró 771 puntos en la Facultad de Derecho (frente a los 734 del mejor humano) y 1,176 puntos en la Facultad de Medicina, aniquilando la barrera humana de los 1,098 puntos.
A pesar de su capacidad cuantitativa, el sistema tropezó en el formato abierto. Obtuvo un 25 por ciento de aciertos en los ensayos de Historia Universal, en fuerte contraste con su 90 por ciento de efectividad en el examen de inglés.

De reprobar a dominar las métricas en tres años
El hito demuestra la aceleración de desarrollo de OpenAI en tiempo real:
- 2024: LifePrompt probó ChatGPT-4 en estos exámenes y el modelo ni siquiera alcanzó la calificación mínima aprobatoria.
- 2025: La versión o1 cruzó el umbral para aprobar por primera vez.
- 2026 (Pruebas adelantadas): El modelo 5.2 superó a todos los humanos que compitieron.
En enero pasado, LifePrompt ya había detectado esta tendencia cuando la versión 5.2 Thinking obtuvo calificaciones perfectas en nueve de 15 materias del examen unificado nacional, promediando un 97 por ciento de precisión en áreas como informática, economía y química.
Ante la evidencia, Satoshi Kurihara, profesor de la Universidad de Keio y jefe de la Sociedad Japonesa de Inteligencia Artificial, advirtió que no se puede medir a máquinas y humanos bajo el mismo estándar.
“Al igual que las calculadoras pueden realizar cálculos más rápido y con mayor precisión que los humanos, es natural que la IA obtenga puntuaciones altas”, declaró el académico. Kurihara sentenció que es “hora de repensar los exámenes de ingreso que actualmente se centran en probar la retención de conocimientos y las capacidades de cálculo”.
Por su parte, el vocero de LifePrompt, Satoshi Endo, dirigió el impacto de los resultados hacia el sector corporativo: “Dado el rápido ritmo de la evolución de la IA, las empresas tendrán que adoptar la IA con miras a cómo se verán las operaciones comerciales dentro de 10 a 20 años”.
