Almacenamiento de información en el cerebro
No me gustan este tipo de estimaciones. El cerebro no almacena la información de la misma manera que lo hace un ordenador moderno con modelo de dirección r. Un ordenador almacena la información como una serie de valores booleanos, por lo que cualquier unidad de almacenamiento (en los ordenadores, se trata de una palabra, una doble palabra o una cuádruple palabra, que son 2, 4 u 8 bytes, respectivamente) se define como capaz de almacenar 2^(número de bits) valores posibles. Así que un byte, al ser de 8 bits, puede existir en uno de los 2^8, o 256, estados. Dado que se utilizan booleanos, se puede decir con certeza que un valor de 8 bits puede representar enteros entre exactamente 0 y 255, un valor de 16 bits puede representar enteros entre exactamente 0 y 65535, etc. Decir que una sinapsis puede almacenar un byte supone varias cosas:
1) Que una sinapsis puede existir en 256 estados posibles. Esta es una suposición problemática porque, a diferencia de un byte donde cada valor posible tiene el mismo peso, una sinapsis puede «preferir» estar en un estado determinado. La facilitación o el aumento sináptico es mucho más fácil y rápido que la engramación sináptica. Pueden entrar en juego otros factores que afectan al número de estados en los que puede estar una sinapsis.
2) Que una sinapsis almacena una única unidad independiente si información, es decir, que dos sinapsis almacenan exactamente el doble que una única sinapsis. Esto viene directamente de nuestra experiencia con los ordenadores, pero cuando se le pregunta a un informático, esto a menudo no puede estar más lejos de la verdad. Es más probable que el cerebro almacene información en forma de relaciones. Esto es como una versión súper complicada de un árbol radix (un algoritmo de inclusión de miembros con clave). Si una sola sinapsis actúa como un solo nodo en un árbol radix, la «cantidad» de información que almacena depende directamente de cada una de las otras sinapsis con las que se relaciona.
3) Que cada sinapsis, o incluso un gran número de sinapsis, almacene información (una cuestión que ya has señalado). Muchas sinapsis no son capaces de almacenar información durante largos periodos, o no pueden almacenar información en absoluto.
4) Que las sinapsis son unidades atómicas de almacenamiento, siendo el número de sinapsis el único factor que determina el almacenamiento de información, descontándose factores como el estado de la neurona y la proximidad de una sinapsis con otra. Esto significa que se asume que una neurona con 100.000 sinapsis puede existir en el mismo número de estados posibles que diez neuronas con 10.000 sinapsis. Una acción sobre una sinapsis afectará a otras sinapsis cercanas, y las acciones colectivas sobre muchas sinapsis pueden cambiar el comportamiento de toda la neurona.
5) Que las neuronas son la única fuente de almacenamiento de información. En realidad, las células gliales influyen mucho en la excitabilidad de una neurona. El apoyo de los astrocitos puede cambiar el comportamiento de una neurona y, por tanto, su «capacidad».
6) Que toda la información tiene el mismo valor. Para cuantificar la capacidad de almacenamiento, cualquier bit individual no es diferente de cualquier otro bit. El sector 1234 de un disco duro no es más «importante» que el sector 4321, y cualquiera de ellos puede utilizarse para almacenar la información que se desee. En el cerebro, una determinada sinapsis puede existir en 256 estados posibles, pero sólo puede codificar la información necesaria para calibrar su propia respuesta de modo que no sea hiperactiva. Esta neurona no puede utilizarse para almacenar un dígito más de pi que se intenta recordar. La analogía más cercana en informática es el modelo de ejecución de Harvard, en el que las instrucciones de la máquina y los datos se guardan en áreas diferentes. El cerebro es así, pero con esteroides. No todos los datos son iguales.
Al final, aplicar la teoría de la información en las neuronas requiere saber cuántos bits añade cada factor individual a una neurona determinada. Decir que una sola sinapsis puede existir en 256 estados posibles (o más bien, que una neurona postsináptica sólo puede determinar con precisión la actividad con una granularidad de 1/256) y que, por lo tanto, proporciona un byte de información es tan simplificado como incorrecto.
La única similitud entre el cerebro y un ordenador es que ambos son capaces de una ejecución completa de Turing.