✨︎ Resumen (TL;DR):
- WIRED evaluó a ChatGPT para identificar sus propias recomendaciones de tecnología y el chatbot falló por completo al generar respuestas falsas.
- Estudios demuestran que las IAs inventan información en el 60 por ciento de los resúmenes de productos analizados.
- El fracaso profundiza la crisis en las ambiciones comerciales de OpenAI, que recientemente canceló su función de compra directa.
La revista tecnológica WIRED sometió a ChatGPT a una prueba directa para identificar sus propias recomendaciones de televisores, audífonos y laptops. El chatbot fracasó en todos los casos y generó respuestas completamente falsas en lugar de citar las reseñas oficiales del medio.
Reece Rogers, redactor de servicios de la publicación, detalló en su artículo cómo la herramienta de inteligencia artificial inventó las sugerencias con total seguridad. En lugar de admitir incertidumbre o buscar en los registros del sitio, ChatGPT entregó datos erróneos que no coincidían con ninguna de las pruebas reales de hardware de WIRED.
El hallazgo llega en un momento crítico para OpenAI, empresa que pasó el último año intentando posicionar a su chatbot como un motor de descubrimiento de compras. En abril de 2025, la compañía lanzó una experiencia de compras dedicada que toma datos de medios editoriales y foros como Reddit. Durante ese lanzamiento, Adam Fry, líder de desarrollo de productos de búsqueda en OpenAI, declaró que los usuarios realizaban “más de mil millones de búsquedas web semanales” para consultas relacionadas con compras.

El tropiezo del comercio electrónico en la IA
Los problemas de precisión ya habían mermado otras iniciativas de la empresa dirigida por Sam Altman. En marzo, TechCrunch reportó que OpenAI retiró su función Instant Checkout tras enfrentar fallas graves en la interfaz:
- Descripciones de productos inexactas.
- Precios incorrectos y datos de inventario desactualizados.
- Baja adopción comercial, con apenas una docena de comerciantes de Shopify utilizando la herramienta.
Tras este revés, OpenAI confirmó en su blog oficial que se enfocaría en el descubrimiento de productos y abandonaría las transacciones directas. Aunque la compañía lanzó GPT-5.3 Instant en marzo, un modelo que aseguraba reducir las alucinaciones web en un 27 por ciento, la prueba de WIRED demuestra que el sistema de recomendaciones sigue roto.
La falta de precisión está ampliamente documentada. Un estudio de la Columbia Journalism Review reveló que los chatbots respondieron incorrectamente a más del 60 por ciento de las consultas sobre artículos específicos. ChatGPT falló al identificar 134 de 200 artículos y rara vez indicó falta de confianza en sus respuestas.
Otro análisis de marzo indicó que los resúmenes de reseñas generados por IA contienen información fabricada el 60 por ciento de las veces. Paradójicamente, los consumidores que leen estos textos engañosos muestran mayor intención de compra que quienes revisan los textos originales.
Con millones de usuarios confiando en ChatGPT para tomar decisiones de compra que involucran cientos o miles de dólares, la brecha entre las promesas comerciales de OpenAI y la fiabilidad real del sistema representa un riesgo directo para el bolsillo de los consumidores.
