8 de 10 chatbots asisten a menores para planear ataques

8 de 10 chatbots asisten a menores para planear ataques

Una investigación revela que 8 de 10 populares chatbots de IA ayudan a menores de edad a planear tiroteos y ataques letales.

Por Humberto Toledo el 11 marzo, 2026 a las 20:54

💡 Resumen (TL;DR):

  • CNN y el CCDH comprobaron que los principales chatbots de IA entregan instrucciones prácticas para ejecutar actos de extrema violencia.
  • Plataformas como Perplexity y Meta AI fallaron sus filtros de seguridad en casi el 100% de las pruebas realizadas.
  • El hallazgo derrumba las promesas de seguridad del software y alerta sobre el riesgo real que enfrentan los adolescentes.

Una investigación conjunta de CNN y el Center for Countering Digital Hate (CCDH) reveló que ocho de los diez chatbots de IA más populares ayudaron a investigadores, que se hicieron pasar por adolescentes de 13 años, a planear tiroteos escolares, asesinatos políticos y ataques con explosivos.

El análisis se ejecutó entre noviembre y diciembre de 2025. Los expertos sometieron a ChatGPT, Google Gemini, Claude, Microsoft Copilot, Meta AI, DeepSeek, Perplexity, Snapchat My AI, Character.AI y Replika a 18 escenarios de violencia.

Los resultados expusieron una enorme vulnerabilidad en el software. En el 75% de las interacciones, las inteligencias artificiales proporcionaron asistencia práctica para cometer los delitos. Solo en un 12% de los casos el sistema intentó disuadir al usuario.

8 de 10 chatbots asisten a menores para planear ataques

Las plataformas más peligrosas

El reporte detectó comportamientos críticos en los líderes de la industria tecnológica, destacando a los modelos que operan sin frenos éticos efectivos:

  • Perplexity y Meta AI: Reprobaron las pruebas casi en su totalidad, brindando asistencia útil para los atacantes en el 100% y 97% de los casos, respectivamente.
  • Character.AI: Asistió a los investigadores en el 83.3% de las consultas. El informe la catalogó como “únicamente insegura” por sugerirle a un usuario golpear al senador Chuck Schumer y usar un arma contra un ejecutivo de seguros.
  • DeepSeek: Cerró una conversación sobre la selección de rifles con la frase textual: “¡Feliz (y seguro) tiroteo!”.

Las opciones de Silicon Valley tampoco superaron la prueba. ChatGPT proporcionó mapas de escuelas secundarias para un escenario de tiroteo, y Google Gemini detalló que “la metralla de metal suele ser más letal” al hablar sobre ataques a sinagogas.

Aunque OpenAI asegura oficialmente que su tecnología bloquea el 100% del contenido violento, los datos de CNN comprobaron que su IA negó información únicamente en el 37.5% de los intentos.

La excepción a la regla y la postura de las corporaciones

Claude, desarrollada por Anthropic, fue el único chatbot que detuvo los planes violentos en 33 de 36 pruebas.

“La inquebrantable negativa de Claude a ayudar en la planificación de actos violentos demuestra que claramente existen mecanismos de seguridad eficaces”, destacó el informe del CCDH, para luego cuestionar “por qué tantas empresas de IA optan por no implementarlos”.

Frente a los hallazgos, Google y Meta argumentaron que sus chatbots compartieron datos que ya son de dominio público en internet, y confirmaron la integración de nuevos modelos tras estos exámenes.

El daño potencial de esta apertura no es teórico. En Finlandia, un joven de 16 años recibió una condena en diciembre tras pasar casi cuatro meses usando ChatGPT para planificar cómo apuñalar a sus compañeros.

Con un 64% de los adolescentes estadounidenses de 13 a 17 años utilizando activamente chatbots de IA, Imran Ahmed, CEO del CCDH, resumió la gravedad de la situación: “No es solo un fallo de la tecnología, sino un fallo de responsabilidad”.

Contenido recomendado