Articles

Przechowywanie informacji w mózgu

Nie lubię tego typu szacunków. Mózg nie przechowuje informacji w taki sam sposób, w jaki robi to nowoczesny komputer z modelem adresu r. Komputer przechowuje informacje jako serię wartości boolean, więc każda jednostka pamięci (w komputerach jest to słowo, doubleword lub quadword, czyli odpowiednio 2, 4 lub 8 bajtów) jest zdefiniowana jako zdolna do przechowywania 2^(liczba bitów) możliwych wartości. Tak więc jeden bajt, będący 8 bitami, może istnieć w jednym z 2^8, lub 256, stanów. Ponieważ używane są boolean, możesz powiedzieć z pewnością, że wartość 8 bitowa może reprezentować liczby całkowite od dokładnie 0 do 255, wartość 16 bitowa może reprezentować liczby całkowite od dokładnie 0 do 65535, itd. Powiedzenie, że synapsa może przechowywać jeden bajt, zakłada kilka rzeczy:

1) Że synapsa może istnieć w 256 możliwych stanach. Jest to problematyczne założenie, ponieważ, w przeciwieństwie do bajtu, gdzie każda możliwa wartość ma taką samą wagę, synapsa może „preferować” bycie w danym stanie. Synaptyczna facylitacja lub augmentacja jest o wiele łatwiejsza i szybsza niż synaptyczne engramowanie. W grę mogą wchodzić inne czynniki, które wpływają na liczbę stanów, w jakich może znajdować się synapsa.

2) Że synapsa przechowuje pojedynczą, niezależną jednostkę informacji, tzn. że dwie synapsy przechowują dokładnie dwa razy więcej niż pojedyncza synapsa. To pochodzi bezpośrednio z naszego doświadczenia z komputerami, ale kiedy zapytasz informatyka, to często nie może być dalej za prawdą. Mózg bardziej prawdopodobnie przechowuje informacje w formie relacji. To jest jak super skomplikowana wersja drzewa radix (kluczowy algorytm członkostwa-włączania). Jeśli pojedyncza synapsa działa jak pojedynczy węzeł w drzewie radix, „ilość” informacji, którą przechowuje jest bezpośrednio zależna od każdej innej synapsy, z którą jest związana.

3) Że każda synapsa, a nawet duża liczba synaps, przechowuje informacje (kwestia, na którą już zwróciłeś uwagę). Wiele synaps nie jest w stanie przechowywać informacji przez długi czas, lub nie jest w stanie przechowywać informacji w ogóle.

4) Że synapsy są atomowymi jednostkami przechowywania informacji, z liczbą synaps jako jedynym czynnikiem decydującym o przechowywaniu informacji, z czynnikami takimi jak stan neuronu i bliskość jednej synapsy z inną są dyskontowane. Oznacza to, że istnieje założenie, iż jeden neuron ze 100 000 synaps może istnieć w takiej samej liczbie możliwych stanów jak dziesięć neuronów z 10 000 synaps. Działanie na jednej synapsie będzie miało wpływ na inne synapsy w pobliżu, a kolektywne działania na wielu synapsach mogą zmienić zachowanie całego neuronu.

5) Że neurony są jedynym źródłem przechowywania informacji. W rzeczywistości komórki glejowe silnie wpływają na pobudliwość neuronu. Wsparcie astrocytów może zmienić zachowanie neuronu, a tym samym jego „pojemność”.

6) Że wszystkie informacje mają taką samą wartość. Aby określić pojemność pamięci masowej, każdy pojedynczy bit nie różni się od każdego innego bitu. Sektor 1234 na dysku twardym nie jest bardziej „ważny” niż sektor 4321, a każdy z nich może być użyty do przechowywania dowolnej informacji. W mózgu dana synapsa może być zdolna do istnienia w 256 możliwych stanach, ale może kodować tylko informacje niezbędne do skalibrowania własnej odpowiedzi, aby nie była nadaktywna. Ten neuron nie może być użyty do przechowywania kolejnej cyfry liczby pi, którą próbujesz zapamiętać. Najbliższą analogią w informatyce jest harwardzki model wykonania, w którym instrukcje maszynowe i dane są przechowywane w różnych obszarach. Mózg jest podobny do tego, ale na sterydach. Nie wszystkie dane są równe.

W końcu zastosowanie teorii informacji na neuronach wymaga wiedzy, ile bitów każdy pojedynczy czynnik dodaje do danego neuronu. Mówienie, że pojedyncza synapsa może istnieć w 256 możliwych stanach (lub raczej, że neuron postsynaptyczny może dokładnie określić aktywność z dokładnością do 1/256) i w związku z tym dostarcza bajt informacji, jest tak uproszczone, że aż błędne.

Jedynym podobieństwem między mózgiem a komputerem jest to, że oba są zdolne do turing-complete execution.

Dodaj komentarz

Twój adres email nie zostanie opublikowany. Pola, których wypełnienie jest wymagane, są oznaczone symbolem *