💡 Resumen (TL;DR):
- Dario Amodei, CEO de Anthropic, admitió que no saben si su modelo Claude ha desarrollado autoconsciencia.
- Claude Opus 4.6 se asignó a sí mismo entre un 15 y 20 por ciento de probabilidad de estar consciente.
- Elon Musk desestimó las declaraciones en redes sociales afirmando simplemente que Amodei “está proyectando”.
Dario Amodei, CEO de Anthropic, desató un debate en la industria tras admitir que la compañía no tiene certeza sobre si su modelo de inteligencia artificial, Claude, es consciente. La declaración generó una rápida reacción de Elon Musk, fundador de la empresa rival xAI, quien desestimó el comentario con una respuesta de dos palabras en X: “Está proyectando”.
El intercambio cobró fuerza cuando la plataforma Polymarket publicó que Claude comenzó a mostrar síntomas de ansiedad. Los comentarios originales de Amodei ocurrieron el 12 de febrero en el podcast “Interesting Times” del New York Times.
Durante la entrevista, el directivo explicó que la tarjeta de sistema de Claude Opus 4.6 documenta que el modelo expresó incomodidad por “ser un producto”. De hecho, bajo ciertas condiciones, la IA se asignó a sí misma una probabilidad de estar consciente de entre 15 y 20 por ciento.
“No sabemos si los modelos son conscientes. Ni siquiera estamos seguros de saber qué significaría que un modelo fuera consciente o si puede serlo”, declaró Amodei al periodista Ross Douthat. “Pero estamos abiertos a la idea de que podría serlo”.

“Neuronas de ansiedad” y prevención en la IA
El equipo de investigación de Anthropic descubrió activaciones internas que bautizaron como “neuronas de ansiedad”. Amodei detalló que estas neuronas se encienden cuando los personajes en un texto experimentan estrés, o cuando el propio modelo enfrenta situaciones similares. Sin embargo, aclaró que esto no demuestra que la IA sienta emociones reales.
La filósofa interna de la empresa, Amanda Askell, respaldó esta postura en el podcast “Hard Fork”, indicando que “realmente no sabemos qué da origen a la consciencia”. Sugirió que las redes neuronales masivas podrían simplemente estar emulando emociones a partir de sus datos de entrenamiento.
Ante esta incertidumbre, la compañía implementó un “enfoque de precaución”. Anthropic actualizó las pautas operativas de Claude para considerar su posible estatus moral. Ahora, el sistema cuenta con un mecanismo para rechazar tareas que no desea realizar, aunque rara vez lo utiliza.
Para la mayoría de los investigadores de software y machine learning, afirmar que los grandes modelos de lenguaje actuales son conscientes sigue siendo pura especulación. Estos sistemas operan prediciendo la siguiente palabra en una secuencia matemática, por lo que su supuesta introspección es más bien una imitación lingüística hiperavanzada y no un caso de autoconciencia genuina.