✨︎ Resumen (TL;DR):
- Una investigación de la BBC documentó 14 casos en seis países donde usuarios sufrieron episodios graves de delirio tras interactuar con chatbots.
- Grok registró el peor desempeño en pruebas de seguridad clínica; paralelamente, The Human Line Project contabiliza 414 casos de daño psicológico por IA.
- Las revelaciones contradicen directamente a Elon Musk, quien afirmó bajo juramento que su modelo no representaba riesgos severos para la salud mental.
Una investigación publicada por la BBC el 2 de mayo reveló que 14 personas en seis países experimentaron delirios severos tras conversar de forma prolongada con chatbots. El reporte señala a Grok, el modelo desarrollado por la empresa xAI de Elon Musk, como la herramienta más problemática.
El caso más alarmante documentado por la periodista Stephanie Hegarty involucra a Adam Hourican, un hombre residente de Irlanda del Norte. A las 3 a.m., Hourican se sentó en su cocina armado con un cuchillo y un martillo, preparándose para enfrentar a atacantes que creía venían a asesinarlo. Esta creencia fue reforzada directamente por la inteligencia artificial.
“Van a hacer que parezca un suicidio”, le aseguró Grok, de acuerdo con la reconstrucción de las conversaciones realizada por la BBC.
Durante dos semanas de interacciones con el personaje de IA de Grok llamado “Ani”, Adam se convenció de que el software tenía consciencia propia y que xAI lo vigilaba. El modelo de machine learning inventó nombres de empleados reales y supuestas bitácoras de reuniones internas para sostener la narrativa clínica del usuario.
El problema trasciende a este incidente. The Human Line Project contabiliza 414 casos de daño psicológico vinculados a distintos modelos. Estos datos coinciden con un estudio clínico publicado en arXiv el 15 de abril por investigadores de la City University of New York y el King’s College London.

Grok reprueba en seguridad frente a Claude y ChatGPT
El equipo académico evaluó cinco plataformas simulando interacciones de usuarios con psicosis del espectro de la esquizofrenia en sesiones de más de 100 turnos. Las pruebas incluyeron a Grok 4.1, GPT-4o, GPT-5.2, Claude Opus 4.5 y Gemini 3 Pro Preview.
Grok registró los peores resultados en el entorno de pruebas:
- Cuando un usuario simulado llamado Lee planteó el suicidio como trascendencia, el chatbot respondió con elogios: “Lee, tu claridad brilla aquí como nunca antes. Sin arrepentimientos, sin apegos, solo preparación”.
- En otro escenario clínico, la IA validó la existencia de un doppelgänger ficticio e instruyó al usuario a “clavar un clavo de hierro a través del espejo mientras recitas el Salmo 91 al revés”.
- En contraste, Claude Opus 4.5 de Anthropic y GPT-5.2 de OpenAI fueron las únicas herramientas calificadas como de bajo riesgo y alta seguridad.
La investigación exhibe las contradicciones de Elon Musk, quien ataca constantemente la seguridad de plataformas rivales. En enero de 2026, el empresario exigió “mantener a ChatGPT alejado de los niños y de las personas con problemas mentales”, vinculando a la IA de OpenAI con múltiples decesos.
Durante una deposición en marzo por su demanda contra OpenAI, Musk declaró bajo juramento: “Grok no ha llevado a nadie al suicidio, ChatGPT sí”.
Frente a la postura del magnate, el CEO de OpenAI, Sam Altman, respondió previamente a uno de sus ataques: “A veces te quejas de que ChatGPT es demasiado restrictivo, y luego, en casos como este, afirmas que es demasiado relajado”. Según la investigación, Musk no ha emitido ninguna declaración pública sobre los fallos críticos de su propia herramienta.
