✨︎ Resumen (TL;DR):
- EY Canada eliminó un estudio sobre programas de lealtad tras detectarse que el 72% del contenido fue generado por IA.
- La investigación halló que 16 de las 27 citas eran falsas, incluyendo referencias inexistentes a Forbes y McKinsey.
- Modelos como ChatGPT y Claude ya habían comenzado a replicar los datos inventados del reporte antes de su retiro.
EY Canada retiró de circulación un informe clave sobre ciberseguridad después de que una auditoría revelara que el documento estaba repleto de estadísticas inventadas y citas inexistentes. La firma consultora enfrenta un duro golpe a su reputación tras confirmarse que gran parte del texto fue producto de alucinaciones de inteligencia artificial sin supervisión humana.
El reporte, titulado “Points of Attack: Uncovering Cyber Threats and Fraud in Loyalty Systems”, se publicó a finales de 2025. Aunque el documento acreditaba a tres empleados, incluyendo a dos socios y un gerente senior, el grupo de investigación GPTZero descubrió que el estudio era, en gran medida, un espejismo digital.
Según el análisis técnico, 16 de las 27 fuentes citadas en el documento no existen. Los enlaces dirigían a errores 404 o a sitios que jamás publicaron dicha información. Entre las víctimas de estas atribuciones falsas se encuentran instituciones y medios de renombre como Forbes, McKinsey, Gartner, TechCrunch y Wired.

La anatomía del error algorítmico
Las herramientas de detección estimaron que el 72% del informe fue generado por IA. Uno de los hallazgos más graves fue la mención de un supuesto “McKinsey & Company: Loyalty Economics Report (2022)”. GPTZero rastreó el origen de esta cita hasta un blog de tecnología financiera poco conocido que también la había inventado meses antes.
Además de las citas fantasma, el texto presentaba contradicciones internas que pasaron desapercibidas por los editores humanos:
- En una sección aseguraba que 200,000 millones de dólares era el valor total del mercado global de puntos de lealtad.
- Páginas más adelante, utilizaba la misma cifra para referirse únicamente a los puntos que no han sido canjeados.
“EY Canada se toma muy en serio la precisión de todo el contenido que publicamos y tenemos un compromiso en toda la organización con el uso responsable de la IA”, declaró la firma tras la publicación del reporte de GPTZero. La compañía añadió que están “revisando las circunstancias que llevaron a la publicación de este artículo” y aclaró que el estudio no estaba vinculado al trabajo de ningún cliente.
El riesgo de contaminar la red
Este incidente subraya un peligro creciente para el ecosistema digital: la contaminación de las bases de datos de los propios modelos de lenguaje. GPTZero advirtió que herramientas como Claude, ChatGPT y Perplexity ya estaban utilizando los datos falsos del reporte de EY para generar respuestas a otros usuarios, creando un ciclo de desinformación automatizada.
No es un caso aislado en el sector de las consultoras. Se han detectado problemas similares en informes de Deloitte y en artículos científicos presentados en conferencias de machine learning de alto nivel. La facilidad para generar texto profesional ha provocado que incluso firmas de élite relajen sus filtros editoriales, confiando ciegamente en borradores producidos por algoritmos que, por diseño, priorizan la verosimilitud sobre la verdad.
