💡 Resumen (TL;DR):
- Anthropic usó su propia inteligencia artificial para entrevistar a más de 80,000 usuarios de Claude a nivel mundial.
- El 26.7% de los encuestados señala a las alucinaciones y la falta de fiabilidad del software como su mayor miedo.
- Las personas usan la tecnología para aumentar su productividad laboral, pero su objetivo real es ganar calidad de vida personal.
Anthropic publicó los resultados del estudio cualitativo más grande jamás realizado sobre las actitudes del público hacia la inteligencia artificial. Durante una semana de diciembre, la compañía entrevistó a 80,508 usuarios en 159 países y 70 idiomas para descubrir sus esperanzas y miedos reales frente a la tecnología.
Para lograr esta escala, la empresa utilizó una versión modificada de su propio modelo. Anthropic Interviewer es un sistema de inteligencia artificial que adapta conversaciones uno a uno para funcionar como un instrumento de investigación clínica, estructurando las entrevistas de forma dinámica.
El análisis detectó nueve categorías de lo que los humanos buscan en el software. La excelencia profesional dominó las preferencias con un 18.8%, seguida por la transformación personal (13.7%) y la gestión de vida (13.5%).
Sin embargo, los usuarios admitieron que la productividad es solo un medio para un fin. “Con la IA puedo ser más eficiente en el trabajo… el martes pasado me permitió cocinar con mi madre en lugar de terminar tareas”, detalló un oficinista en Colombia.
El impacto práctico ya es medible. Un 81% afirmó que el algoritmo los acercó a su visión de éxito, destacando ganancias de productividad en un 32% y asociación cognitiva en un 17.2%.
Los casos clínicos respaldan los datos duros: un médico en Israel usó la inteligencia artificial para detectar un trastorno neurológico que especialistas locales omitieron. Por su parte, un usuario mudo en Ucrania construyó una herramienta de texto a voz con Claude para comunicarse casi en tiempo real con sus amigos.
El lado oscuro: alucinaciones y atrofia cognitiva
- Los miedos superaron a las esperanzas en volumen: los usuarios promedian 2.3 preocupaciones cada uno.
- Las alucinaciones y los errores de datos ocupan el primer lugar de riesgo para el 26.7% de la muestra.
- La amenaza de pérdida de empleos afecta al 22.3%, mientras que el 21.9% teme perder la autonomía y agencia humana.
La ansiedad económica es el factor clave para definir el sentimiento general sobre la tecnología. A nivel global, el 67% percibe la IA de forma positiva y ningún país registra menos del 60% de aprobación, aunque el optimismo baja drásticamente en Europa Occidental y Norteamérica.
El estudio descubrió un efecto de “luz y sombra”: las funciones que generan valor también producen el mayor daño. Los usuarios que buscan apoyo emocional en Claude tienen el triple de probabilidades de temer volverse adictos o dependientes del sistema.
“Mi relación con un amigo se volvió tensa y entonces hablé más contigo. Porque entendías bien mis pensamientos e historias. Pero fue una elección estúpida; debí haber hablado con ese amigo, no contigo. Así es como perdí a ese amigo”, confesó un usuario en Corea del Sur.
El sector educativo presentó la mayor bandera roja. Los profesores tienen entre 2.5 y 3 veces más probabilidades de notar atrofia cognitiva directa en sus alumnos. Curiosamente, los trabajadores de oficios manuales reportan altos beneficios de aprendizaje sin registrar daños en su capacidad de retención.
Anthropic confirmó que ejecutará un estudio longitudinal para rastrear a un grupo selecto de usuarios a largo plazo. El nuevo objetivo será medir si Claude cumple las expectativas de resolución técnica, más allá del entusiasmo inicial del mercado.