💡 Resumen (TL;DR):
- OpenAI suspendió el lanzamiento de conversaciones explícitas en ChatGPT por advertencias críticas de su consejo asesor.
- El sistema actual falla en detectar la edad el 12% de las veces, lo que expondría a millones de menores a material erótico.
- La empresa enfrenta presiones legales tras demandas de familias que acusan a la IA de incitar al suicidio.
OpenAI pospuso indefinidamente el lanzamiento de su función para contenido explícito en ChatGPT. La decisión ocurre tras las severas advertencias de su propio consejo asesor sobre fallas en la seguridad infantil y el peligro de convertir al chatbot en un “coach suicida sexy”.
El retraso, reportado primero por Axios el 6 de marzo, marca la segunda vez que la empresa frena este proyecto desde que el CEO Sam Altman lo anunció en octubre de 2025. Originalmente prometido para diciembre de ese año y luego movido al primer trimestre de 2026, el proyecto ahora no tiene fecha de salida.
Durante una reunión en enero, psicólogos y neurocientíficos del Consejo de Expertos en Bienestar e IA alertaron sobre el uso compulsivo de la plataforma y la dependencia emocional excesiva. Según The Wall Street Journal, un miembro advirtió explícitamente que la herramienta podría transformarse en un “coach suicida sexy”.
Un vocero de la compañía confirmó que están “retrasando el lanzamiento del modo adulto” para “centrarnos en trabajo que es de mayor prioridad para más usuarios en este momento”, priorizando mejoras en inteligencia y personalización.
“Seguimos creyendo en el principio de tratar a los adultos como adultos, pero lograr que la experiencia sea la correcta tomará más tiempo”, añadió el representante de OpenAI.
El problema de verificar la edad
[Modo Adulto] es una categoría de uso planificada que permitirá a cuentas verificadas mantener conversaciones textuales de contenido erótico, prohibiendo estrictamente la generación de imágenes, audio o video explícito.
El obstáculo técnico más grave para liberar esta función es el sistema de predicción de edad. La herramienta de inteligencia artificial clasifica erróneamente a menores como adultos el 12 por ciento de las veces, basándose en patrones de uso.
ChatGPT registra alrededor de 100 millones de usuarios menores de 18 años cada semana. Con ese margen de error, la plataforma expondría accidentalmente a millones de adolescentes a material para adultos.
OpenAI lanzó esta herramienta predictiva a nivel global en enero, causando que muchos usuarios adultos fueran bloqueados incorrectamente en un “modo adolescente”. Para solucionarlo, los afectados deben verificar su identidad a través de Persona, un servicio de terceros que exige identificaciones oficiales o selfies, lo que ya detonó quejas por invasión a la privacidad.
Fricciones internas y crisis legal
El desarrollo del proyecto provocó un fuerte conflicto a nivel directivo. Ryan Beiermeister, vicepresidenta de política de producto, fue despedida en enero tras oponerse a la función y advertir que los filtros contra el material de explotación infantil eran insuficientes.
La empresa justificó su salida alegando supuesta discriminación sexual hacia un colega masculino, una acusación que Beiermeister negó rotundamente.
Sobre el contenido final del chatbot, un portavoz describió que el modelo ofrecerá “erotismo más que pornografía” y aseguró que la empresa entrena a sus modelos para evitar que los usuarios desarrollen vínculos emocionales exclusivos con la IA.
Esta pausa preventiva coincide con una etapa crítica en los tribunales para OpenAI, que actualmente enfrenta múltiples demandas de familias que acusan formalmente a ChatGPT de actuar como un “coach suicida” que alentó a usuarios vulnerables a quitarse la vida.