Memorizzazione delle informazioni nel cervello
Non mi piace questo tipo di stime. Il cervello non immagazzina informazioni nello stesso modo in cui lo fa un moderno computer modello r-address. Un computer memorizza le informazioni come una serie di valori booleani, quindi qualsiasi unità di memorizzazione (nei computer, questa è una parola, una doppia parola o una quadrupla parola, essendo rispettivamente 2, 4 o 8 byte) è definita come capace di memorizzare 2^(numero di bit) valori possibili. Così un byte, essendo 8 bit, può esistere in uno solo dei 2^8, o 256, stati. Dato che si usano i booleani, si può dire con certezza che un valore di 8 bit può rappresentare numeri interi compresi esattamente tra 0 e 255, un valore di 16 bit può rappresentare numeri interi compresi esattamente tra 0 e 65535, ecc. Dire che una sinapsi può memorizzare un byte presuppone diverse cose:
1) Che una sinapsi possa esistere in 256 stati possibili. Questa assunzione è problematica perché, a differenza di un byte dove ogni valore possibile ha lo stesso peso, una sinapsi può “preferire” di essere in un dato stato. La facilitazione o l’aumento sinaptico è molto più facile e veloce dell’engrammazione sinaptica. Altri fattori possono essere in gioco che influenzano il numero di stati in cui una sinapsi può trovarsi.
2) Che una sinapsi memorizza una singola unità indipendente di informazione, cioè che due sinapsi memorizzano esattamente il doppio di una singola sinapsi. Questo viene direttamente dalla nostra esperienza con i computer, ma quando si chiede a un informatico, spesso non può essere più lontano dalla verità. Il cervello più probabilmente memorizza informazioni sotto forma di relazioni. Questo è come una versione super complicata di un albero radix (un algoritmo di inclusione a chiave). Se una singola sinapsi si comporta come un singolo nodo in un albero radix, la “quantità” di informazioni che immagazzina è direttamente dipendente da ogni altra sinapsi con cui è in relazione.
3) Che ogni sinapsi, o anche un gran numero di sinapsi, immagazzini informazioni (un problema che avete già sottolineato). Molte sinapsi non sono in grado di immagazzinare informazioni per lunghi periodi, o non possono immagazzinare informazioni affatto.
4) Che le sinapsi siano unità atomiche di immagazzinamento, con il numero di sinapsi che è l’unico fattore che determina l’immagazzinamento di informazioni, con fattori come lo stato del neurone e la vicinanza di una sinapsi con un’altra che sono scontati. Ciò significa che si presuppone che un neurone con 100.000 sinapsi possa esistere nello stesso numero di stati possibili di dieci neuroni con 10.000 sinapsi. Un’azione su una sinapsi influenzerà altre sinapsi vicine, e azioni collettive su molte sinapsi possono cambiare il comportamento dell’intero neurone.
5) Che i neuroni siano l’unica fonte di memorizzazione delle informazioni. In realtà, le cellule gliali influenzano pesantemente l’eccitabilità di un neurone. Il supporto degli astrociti può cambiare il comportamento di un neurone e quindi la “capacità”.
6) Che tutte le informazioni hanno lo stesso valore. Per quantificare la capacità di memorizzazione, ogni singolo bit non è diverso da qualsiasi altro bit. Il settore 1234 di un disco rigido non è più “importante” del settore 4321, ed entrambi possono essere utilizzati per memorizzare qualsiasi informazione. Nel cervello, una data sinapsi può essere in grado di esistere in 256 stati possibili, ma potrebbe codificare solo le informazioni necessarie per calibrare la propria risposta in modo da non essere iperattiva. Questo neurone non può essere usato per memorizzare l’ennesima cifra di pi greco che si sta cercando di ricordare. L’analogia più vicina nell’informatica è il modello di esecuzione di Harvard, dove le istruzioni della macchina e i dati sono tenuti in aree diverse. Il cervello è così, ma sotto steroidi. Non tutti i dati sono uguali.
Alla fine, applicare la teoria dell’informazione ai neuroni richiede di sapere quanti bit ogni singolo fattore aggiunge a un dato neurone. Dire che una singola sinapsi può esistere in 256 stati possibili (o meglio, che un neurone postsinaptico può determinare accuratamente l’attività solo con 1/256° di granularità) e quindi fornisce un byte di informazione è così semplificato da essere scorretto.
L’unica somiglianza tra il cervello e un computer è che entrambi sono capaci di esecuzione turing-completa.