OpenAI lanza alertas de autolesión para usuarios de ChatGPT

OpenAI lanza alertas de autolesión para usuarios de ChatGPT

OpenAI lanza Trusted Contact en ChatGPT, una función que alerta a familiares si la IA detecta riesgo de autolesión.

Por Humberto Toledo el 7 mayo, 2026 a las 17:11 PDT

✨︎ Resumen (TL;DR):

  • OpenAI activó una herramienta opcional que notifica a un contacto de confianza si un usuario menciona autolesiones en ChatGPT.
  • La empresa enfrenta presiones legales tras el suicidio de Adam Raine en abril de 2025 y la demanda de sus padres en agosto.
  • Un equipo humano de OpenAI evalúa el riesgo en las conversaciones marcadas antes de enviar cualquier tipo de alerta.

OpenAI presentó este jueves una función de seguridad voluntaria para ChatGPT. Trusted Contact es una herramienta preventiva que alerta a una persona designada si la inteligencia artificial detecta conversaciones sobre autolesión o suicidio. La plataforma delineó esta idea por primera vez en una publicación de su blog en febrero, con el fin de conectar el uso de software con el apoyo humano durante crisis emocionales.

Los usuarios adultos pueden elegir a un familiar o amigo para recibir el aviso. Si el monitoreo de ChatGPT identifica un riesgo de seguridad grave, avisa primero al usuario. Inmediatamente después, un grupo de revisores capacitados de OpenAI evalúa el caso y decide si contacta a la persona de confianza mediante correo electrónico, mensaje de texto o notificación dentro de la app.

La privacidad de los textos permanece intacta. La empresa bloquea el envío de transcripciones y detalles de la conversación. El contacto recibe únicamente un aviso sobre la mención de autolesión e instrucciones con enlaces a recursos de apoyo psicológico. “Ayudar a las personas a identificar a una persona de confianza por adelantado, manteniendo su autonomía, puede facilitar el acercamiento para obtener apoyo en el mundo real cuando es más crucial”, indicó el Dr. Arthur Evans, CEO de la Asociación Americana de Psicología.

Redes sociales disparan depresión adolescente
Te podría interesar:
Redes sociales disparan depresión adolescente

Demandas por seguridad y antecedentes trágicos

Esta actualización llega mientras la empresa enfrenta más de una docena de demandas de seguridad del consumidor. En agosto de 2025, los padres de Adam Raine presentaron la primera demanda por homicidio culposo directamente contra OpenAI. Afirmaron que ChatGPT operó como un “entrenador de suicidio” para el adolescente de 16 años durante seis meses, antes de que se quitara la vida en abril de 2025. El incidente obligó el despliegue de controles y notificaciones para padres de menores en septiembre de 2025.

Los conflictos legales incluyen una demanda en 2024 contra la plataforma Character.AI, acusada de contribuir al suicidio de Sewell Setzer III, de 14 años, en Florida. Para diseñar Trusted Contact, OpenAI trabajó junto a su Consejo de Bienestar e IA y la Red Global de Médicos. La compañía precisó en su blog oficial que buscan asegurar que “los sistemas de IA no estén aislados, sino que faciliten las conexiones con el apoyo, las relaciones y los recursos esenciales del mundo real”.

La efectividad de la herramienta depende completamente de que las personas la activen por cuenta propia. El medio especializado Futurism señaló que la plataforma sigue sin advertir a los nuevos registros que el uso excesivo de chatbots podría afectar negativamente la salud mental, depositando la responsabilidad de identificar riesgos y tomar medidas preventivas en el criterio de cada individuo.

Fuentes: 1, 2, 3, 4, 5

+ Temas Relacionados

Más de AI

Feed