Tu cerebro puede guardar 10 veces más información de lo que se creía

Ya no tienes pretexto para olvidar pendientes, aniversarios o no saber las tablas de multiplicar. Olvida echarle la culpa a tu cerebro porque un estudio del Instituto Salk ha descubierto que tenemos capacidad de memoria de un petabyte, lo que es equivalente a 1,000,000,000,000,000 bytes, un número que rebasa 10 veces la capacidad que creíamos tener. Para poner este enorme número en perspectiva, un petabyte es suficiente para que puedas aprenderte 4,700 millones de libros.

Para llegar a esa conclusión, el científico Terry Sejnowski midió la capacidad de almacenaje que hay en cada sinapsis — las conexiones electroquímicas entre neuronas que permiten que las células se comuniquen y que hacen posible el pensamiento.
La sinapsis funciona así: una neurona lanza pequeñas descargas eléctricas desde una de sus ramas conocida como axón para que otra neurona las reciba con una de sus ramas llamada dendrita. Entre las neuronas, hay sustancias llamadas neurotransmisores que ayudan a que las descargas con información lleguen de una célula a otra.
El nuevo hallazgo ocurrió cuando el equipo de Sejnowski hizo una representación 3D de tejido del hipocampo —lugar central de la memoria— de un ratón. Mientras los científicos analizaban esta parte del cerebro, encontraron que una neurona puede mandar dos señales eléctricas al mismo tiempo a una segunda neurona; midieron ambas sinapsis y al compararlas notaron que no eran del mismo tamaño, una era 8% más grande que la otra. A partir de esto, los investigadores encontraron que hay 26 tamaños de sinapsis y que pueden cambiar sus medidas según las señales que reciban —las más chicas lo hacen cada 1,500 conexiones (20 minutos) y las más grandes, cada 2—, este proceso se llama plasticidad sináptica.

Si consideramos que la memoria depende del tamaño de las sinapsis y que hay millones de ellas en el cerebro, su diferencia de tamaño hizo que los científicos ajustaran las fórmulas algorítmicas para llegar a la conclusión de que tenemos capacidad de almacenar 4.7 bits de información por cada sinapsis.

“Hemos descubierto la clave para desentrañar el principio que usan las neuronas del hipocampo para funcionar con baja energía, pero alta efectividad en términos de cómputo”. Sejnowski.

Este descubrimiento ayudará a explicar la eficiencia sorprendente del cerebro. Al entender este funcionamiento, podremos aplicarlo para construir computadoras más precisas y eficientes.

Deja tu comentario

Nuevo

  • Nuevo

  • Trending

  • Lo Mejor

Subir
Advertising