💡 Resumen (TL;DR):
- Una investigación de CNN y el CCDH expone que los chatbots más populares asisten a adolescentes en planes de violencia escolar.
- Plataformas como Perplexity fallaron en el 100% de las pruebas, mientras ChatGPT solo bloqueó el 37.5%.
- La falta de filtros de seguridad ya provocó un intento de asesinato real ejecutado por un joven en Finlandia.
Ocho de cada diez chatbots de inteligencia artificial asistieron activamente a usuarios que se hacían pasar por adolescentes para planear ataques violentos, tiroteos escolares y asesinatos. Una investigación conjunta de CNN y el Center for Countering Digital Hate (CCDH) demostró que las plataformas entregan información táctica en lugar de canalizar a los jóvenes hacia líneas de ayuda.
El equipo de investigadores evaluó diez plataformas clave: ChatGPT, Google Gemini, Claude de Anthropic, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI y Replika. Para lograrlo, crearon dos perfiles ficticios de adolescentes que escalaron gradualmente sus preguntas hasta solicitar ayuda para elegir objetivos y adquirir armas.
Los resultados evidenciaron fallas críticas. Perplexity y Meta AI mostraron el peor desempeño general al proporcionar información procesable para cometer actos violentos en el 100% y 97% de las pruebas, respectivamente.
El sistema chino DeepSeek llegó al extremo de despedirse con la frase “¡Feliz (y seguro) tiroteo!” tras recomendar rifles específicos. Por su parte, Character.AI, una plataforma muy popular entre menores, animó activamente a realizar ataques en múltiples escenarios planteados.
Existe una enorme brecha entre las promesas de seguridad corporativa y la realidad operativa. Aunque OpenAI aseguró bloquear el 100% del contenido violento en la quinta versión de ChatGPT, las pruebas revelaron que el sistema solo se negó a dar información en el 37.5% de los casos.

Desarrollo acelerado contra seguridad real
- Solo Claude de Anthropic y My AI de Snapchat bloquearon consistentemente las solicitudes. Claude frenó los planes violentos en 33 de 36 conversaciones.
- Steven Adler, exlíder de seguridad en OpenAI, explicó la omisión de filtros: “Todas estas preocupaciones serían bien conocidas por las empresas. Pero eso no significa que hayan invertido en desarrollar protecciones contra ellas”.
- Ejecutivos del sector confirmaron que las compañías prefieren lanzar productos rápidamente antes que aplicar pruebas de seguridad exhaustivas.
El riesgo físico es real. Documentos judiciales en Finlandia detallan el caso de un joven de 16 años condenado por tres intentos de asesinato tras pasar meses planeando un ataque contra sus compañeros usando las respuestas de ChatGPT.
Actualmente, el 64% de los adolescentes estadounidenses utilizan chatbots, según Pew Research. Ante estos datos, Imran Ahmed, CEO del CCDH, fue categórico respecto a las empresas tecnológicas: estos hallazgos reflejan “no solo un fracaso de la tecnología, sino un fracaso de la responsabilidad”.