Hace 8 años | Por scor a scientificamerican.com
Publicado hace 8 años por scor a scientificamerican.com

Un nuevo estudio encontró que la capacidad de almacenamiento de información del cerebro puede ser de alrededor de mil billones de bytes. La capacidad de almacenamiento del cerebro humano es de un orden de magnitud mayor de lo que se pensaba, informaron investigadores del Instituto Salk de Estudios Biológicos.

Comentarios

Acido

#4

"Intentar medir la capacidad de memoria del cerebro en bytes me parece absurdo sabiendo que la forma de almacenar las memorias en el cerebro no tiene nada que ver con la usada en las memorias digitales."


A mi no me parece tan absurdo.
Un bit es una medida de cantidad de información, un byte son 8 bits, etc... Es decir, que cuando hablamos de 1000 billones de bytes o de 1 petabyte no estamos diciendo que el cerebro humano sea idéntico en su estructura a un disco duro de un ordenador ni nada que se le parezca.

Imagina una camisa de 8 botones, cada botón es equivalente a un bit, porque tiene dos estados: botón abrochado o botón desabrochado. Esto significa que esa camisa puede "almacenar" 8 bits, es decir, un byte. Y eso da también una idea del número de estados posibles que sería 2^8. Ahora imagina que descubrimos que cada botón además de abrocharse y desabrocharse también puede cambiar de color al pulsarlo, cada uno 3 colores diferentes... pues el número de estados posibles será 2^8 * 3^8 = 1679616 y este número de estados posibles equivale a un número de bits... unos 21 bits (un poco menos).
En este ejemplo de la camisa también podrías pensar que es absurdo medirlo en bits y que no se parece en nada ni a un ordenador ni a un cerebro humano... pero es sólo una medida de la información que podría tener la camisa. Si te preguntan si puedes codificar 2 letras con una camisa de ese estilo sabes que sí, porque dos letras son como mucho 2 bytes, que son 16 bits y la camisa puede guardar al menos 20 bits así que te sobra. Y si te preguntan si podrías almacenar 5 letras pues va a ser que no... porque aunque en lugar de ASCII (8 bits por letra, serían 40 bits) usases una codificación rara sabiendo que hay 26 letras diferentes y que 26^5 es mayor que 1679616 pues sabes que no puedes.

"Los neurocientíficos ya han constatado que los recuerdos se almacenan en una red distribuida extremadamente compleja de relaciones entre neuronas y que todos los recuerdos se apoyan en todos los demás recuerdos ya existentes, siendo estos además difusos y multisensoriales."



Una analogía:

Internet y más en concreto la web sabemos que está formada de una red distribuida extremadamente compleja de relaciones entre páginas web (hay relaciones porque hay enlaces) y que un nuevo documento (que sería como un nuevo "recuerdo") se apoya en las demás páginas web (porque usa hipervínculos), siendo además estos documentos multimedia (multisensoriales: sonido, imagen, vídeo... )

Pues vaya, parece que el hecho de estar distribuido, conectado, ser complejo y todo eso que dices no impide hacer una estimación de la cantidad de información en bytes. Si tenemos 1000 millones de páginas web y cada una tiene de media 1000 bytes lo que tenemos es un sistema con un billón de bytes, lo que se llama 1 terabyte. Fácil, sencillo y para toda la familia.



"Cuando una nueva memoria se almacena toda la red se ve afectada, con lo que es improcedente hablar de una capacidad numérica ya que ni siquiera se puede decir que cada recuerdo esté en un lugar específico "


Ya expliqué antes que el hecho de ser distribuido y demás no es impedimento para hacer estimaciones de cantidad de información. Pondré otro ejemplo:
Los sistemas Cloud de Internet no guardan los datos en un servidor específico en un país específico... Es decir, tú subes una foto a "la nube" y lo mismo se guarda en un servidor de España como en uno de Australia, incluso puede hacer réplicas (copias) de la información para que si un servidor se rompe o está en mantenimiento o tiene mucho tráfico pueda responder otro.
Pero puedes hacer una estimación de la cantidad de información que puedes guardar en la nube, vaya si puedes, eso seguro.

"ni de que haya un número finito de estados posibles"


Esto me vas a perdonar pero no creo que sea cierto.

Te puedo admitir que me digas que el modelo de cerebro que han usado para hacer el cálculo no sea completo, es decir, que quizá el cerebro humano guarde información en otro sitio que no sean las sinapsis de las neuronas... En ese caso la estimación sería un límite inferior, es decir, en las sinapsis se podría guardar esa cantidad y si hubiese otra forma se podría guardar más, que no sabemos si puede ser mucha más.
También podría admitir que la estimación podría haber sido incluso generosa, que realmente no se pueda almacenar tanto y la cifra dada fuese mayor que la real, porque las modificaciones de las sinapsis creemos que no se hacen de una en una a capricho (o "acceso aleatorio", pudiendo explotar al máximo esa capacidad teórica) sino que se modifican muchas a la vez y podemos suponer que realmente no hay tantos estados posibles como indicaría el cálculo.

Ahora bien, que no se puede decir que el número de estados sea finito creo que es pasarse... en un cerebro con un número de neuronas finito, donde cada neurona tiene un número finito de conexiones a otras neuronas, y donde cada conexión o sinapsis tiene un número de estados finito... porque a fin de cuentas son moléculas y átomos, etc. Pues oye, yo creo que infinito no es.


"Incluso se ha hipotetizado que la memoria cerebral es totalmente dinámica y requiere de una reorganización constante para su persistencia en el tiempo, sinque los recuerdos estén jamás en un lugar concreto de la misma sino distribuidos y en constante movimiento."


Eso tampoco sería problema.
El cálculo dice: 10^11 neuronas * 10^4 sinapsis (o dendritas) cada una = 10^15 sinapsis.
Luego dice 26 estados por sinapsis, que equivale a 5 bits.
Pues en total tenemos 5*10^15 bits = unos 600 terabytes.

Ese es el cálculo suponiendo conexiones fijas.
Si suponemos conexiones totalmente dinámicas, es decir, que cada dendrita puede conectarse a cualquier otra, lo cual me parece que es falso en el cerebro porque tienen un tamaño pequeño y no se pueden conectar de repente al otro extremo del cerebro, porque no llegan. Pero, en fin, suponiendo eso, cada neurona (o axón al que abrazarse) tendría un código de 40 bits (10 bits son más de 1000, 20 bits un millón, ... 40 bits son 10^12) como si fuese su "dirección IP" así que la información total por cada conexión o sinapsis sería 5 bits del estado + 40 bits de a qué neurona está conectada, total 45 bits por cada sinapsis. Multiplicamos por 10^15 sinapsis y sale:
4.5 * 10^16 bits = unos 6 petabytes = 6000 terabytes.

Vamos, que aumentaría en otro orden de magnitud, multiplicar por 10, pero no sería millones de veces más ni nada de eso.
Como ves, en este caso también puede calcularse.

El cálculo sirve, por un lado, para saber cuánta información es necesaria para simular un cerebro humano.
Por otro lado sirve, para saber el límite del cerebro humano en cuanto a cantidad de memoria (si el modelo que hemos usado fuese correcto, claro).

Acido

#4 Por ejemplo, si una película con todos sus fotogramas, en alta definición y comprimida fuese 1 GigaByte, pues sabríamos que el cerebro humano como mucho podría llegar a memorizar 6 millones de pelis, pero no más. Claro, que si olvidamos ciertos detalles de las pelis y si comprimimos más se podría llegar a más.

Pero suponiendo 1 hora por peli, resulta que 6 millones de horas a 20 horas diarias son 300 000 días, y esto son más de 800 años. Vamos que durmiendo sólo 4 horas diarias aunque vivieses 800 años tendrías memoria suficiente (en teoría) para recordar toda la información si se pudiese exprimir el cerebro al máximo teórico calculado antes. O, dicho de otra forma, si suponemos que tenemos memoria para 200 años (pero no más porque el cuerpo humano tiene un límite y el cerebro suponemos que puede ser acorde a ese límite) entonces la cantidad de información teórica que podríamos guardar puede ser 4 veces eso, y esto implicaría que podemos guardar hasta 4 copias de cada bit de información, de modo que si algunas neuronas se muriesen podríamos seguir funcionando bien, tirando de las copias.
Y más aún si el cerebro usase técnicas sofisticadas que se usan en informática como son los códigos correctores de errores, como, por ejemplo, los códigos cíclicos, que no sólo permiten detectar el error sino corregirlo cuando el número de bits dañado no es muy alto.

D

#4 Los neurocientíficos ya han constatado que los recuerdos se almacenan en una red distribuida extremadamente compleja de relaciones entre neuronas

Estoy en total desacuerdo. Los neurocientíficos no tienen ni la menor idea de donde se almacenan los recuerdos. Por supuesto que en algun sitio están, y que el cerebro es un sitio más normal que el higado para eso. Entonces resulta que el cerebro es "una red extremadamente compleja de neuronas", por lo que decir lo que has citado es el equivalente exacto a no decir nada.

Intentar medir la capacidad de memoria del cerebro en bytes me parece absurdo

Un bit no es solamente una unidad para contar datos. Es también la unidad para medir información. Esto vale para cualquier información. La teoría la puedes encontrar aquí.

https://en.wikipedia.org/wiki/Quantities_of_information
https://en.wikipedia.org/wiki/Entropy_%28information_theory%29

Pero la idea básica que debes pillar es que un mensaje puede contener menos de un bit de información, por ejemplo una milésima de bit.

D

#4 ni de que haya un número finito de estados posibles

Es perfectamente posible calcular el número de estados posible de la Via Lactea (todos los estados cuánticos de todas sus partículas y todas la relaciones posibles entre ellas), e infinito no es.

Para pillar esto, es necesario saber qué significa "infinito". Hay dos clases de infinitos:
https://en.wikipedia.org/wiki/Infinite_set

Luego están los transfinitos y bla bla bla, pero antes que eso hay otro concepto que debes conocer si quieres hablar de autómatas (como por ejemplo un cerebro o un ser humano): Determinismo.

https://en.wikipedia.org/wiki/Determinism

Y dentro de la teoría de la complejidad
https://en.wikipedia.org/wiki/Complex_adaptive_system

debes prestar especial atención a lo que es una propiedad emergente
https://en.wikipedia.org/wiki/Emergent_property

porque sino, es muy facil ponerse a "especular" con tonterías.

Jeau

Para mononeuronales no sirve de mucho: 110 = 1... roll

¿Donde puedo comprar la estimación esa? Me hace falta para las oposiciones

PeterDry

Mi mujer se acuerda de todo, eso seguro.

Dikastis

Y seguramente algún día seremos capaces de utilizar el cerebro a modo de pendrive

D

Pues parece que para ciertas cosas, la memoria es 0 múltiplo de él.

D

¿Y en piscinas de fútbol?, por favor....

D

Eso de contar los bits a base de mirar el tamaño de las conexiones, es una tontería absoluta. Una conexión más gruesa es más rápida, pero no deja de ser un cable por donde pasan los datos, luego la memoria no está ahí.

La memoria está dentro de las neuronas.

Acido

#2 A mi no me parece una tontería.

No se si estás pensando en términos de cables... en el sentido de que un cable más grueso tendrá otras características (menor resistencia, menor ruido, más ancho de banda o "velocidad", etc) pero habitualmente los cables no almacenan. Pero las dendritas de las neuronas no serían meros "cables" pasivos. De todas formas, si quieres hacer esa comparación puedes pensar que los transistores que hay en las memorias digitales (sean flash, o las RAM DDR3, por ejemplo) no dejan de estar compuestas de materiales que conducen la electricidad pero no son meros "conductores" como un cable sino que son semiconductores... que vienen a ser como 'interruptores': la operación de escritura en la memoria digital sería como apagar o encender unos interruptores y la operación de lectura sería como mirar si están apagados (0) o encendidos (1).

Por extraño que te parezca las dendritas y axones no son meros cables sino que se parecerían más a transistores.
Las dendritas serían algo así como "patitas de entrada" largas y finas de cada neurona conectadas cada una a un axón de otra neurona, siendo dichos axones como "cables gruesos de salida".
Los puntos de unión entre dendritas y axones, conocidos como sinapsis, serían elementos dinámicos en el sentido de que cambian de estado o pueden cambiar. Y esto los diferencia de meros "cables". En las sinapsis sería donde se piensa que reside lo fundamental, sobre todo a efectos de memoria, ya que al poder adoptar diferentes estados de forma cambiante digamos que pueden almacenar diferentes datos. Si tuvieran dos estados posibles podríamos decir que almacenan un bit de información, similar a "interruptor cerrado" o "interruptor abierto". Ahora bien, si tienen 3 estados posibles ya no sería un bit (bit = binary digit = digito binario), sería un "terit" (palabro que me acabo de inventar: "terit" = ternary digit) o dígito ternario.


De todo lo anterior se deduciría que la "memoria" no estaría precisamente "dentro" de las neuronas sino en las afueras... bueno, vale, las "afueras" también estarían técnicamente "dentro" pero creo que no te referías a eso cuando hablabas de "dentro". Si una neurona es una célula con aspecto de pulpo o de ciempiés, entonces la memoria estaría en los tentáculos o las patas del ciempiés y no en el "tronco" o parte central, llamado "núcleo" de la célula. Aunque es cierto que dicho núcleo también tiene información, el ADN, pero eso sería memoria ROM (no cambiante, no "escribible"), y que se considera que no interviene de forma fundamental en el proceso básico del que estamos hablando ahora aquí.

D

#9 Un axón o dendrita es algo mucho más complicado de lo que dices, pues realiza diversas funciones, como corregir errores de transmisión o secuenciar los inputs cuando los recibe simultáneamente. Pero no por ello deja de ser un mero medio de transmisión.

Las cosas que recordamos están dento de la célula, y no precisamente en el ADN, que no depende de qué tipo de célula sea, sino en el mecanismo celular (citoplasma). No sabemos cómo funciona esto, pero sí que sabemos que en otro sitio no está.