W swoich najnowszych szyderstwach skierowanych w stronę Korei Południowej, północnokoreańskie media państwowe nazwały prezydenta Korei Południowej Lee Myung-baka „ludzką szumowiną” i „podwładnym z 2 MB wiedzy”. Ile megabajtów powinien być w stanie przechowywać ludzki mózg?
Dużo więcej niż dwa. Większość neurobiologów obliczeniowych ma tendencję do szacowania ludzkiej pojemności pamięci masowej gdzieś pomiędzy 10 terabajtami a 100 terabajtami, choć pełne spektrum domysłów waha się od 1 terabajta do 2,5 petabajta. (Jeden terabajt to około 1 000 gigabajtów lub około 1 miliona megabajtów; petabajt to około 1 000 terabajtów).
Matematyka stojąca za tymi szacunkami jest dość prosta. Ludzki mózg zawiera około 100 miliardów neuronów. Każdy z tych neuronów wydaje się zdolny do wykonania około 1000 połączeń, reprezentujących około 1000 potencjalnych synaps, które w dużej mierze wykonują pracę związaną z przechowywaniem danych. Pomnóż każdy z tych 100 miliardów neuronów przez około 1000 połączeń, które może wykonać, a otrzymasz 100 trylionów punktów danych lub około 100 terabajtów informacji.
Neurobiolodzy szybko przyznają, że te obliczenia są bardzo uproszczone. Po pierwsze, ta matematyka zakłada, że każda synapsa przechowuje około 1 bajta informacji, ale to oszacowanie może być zbyt wysokie lub zbyt niskie. Neuronaukowcy nie są pewni, ile synaps nadaje tylko z jedną mocą, a ile z wieloma różnymi mocami. Synapsa, która transmituje tylko jedną siłę, może przekazać tylko jeden bit informacji – „włączony” lub „wyłączony”, 1 lub 0. Z drugiej strony, synapsa, która może transmitować wiele różnych sił, może przechowywać kilka bitów. Po drugie, poszczególne synapsy nie są całkowicie niezależne. Czasami potrzeba kilku synaps, aby przekazać tylko jedną informację. W zależności od tego, jak często się to zdarza, szacunki 10-100 terabajtów mogą być o wiele za duże. Inne problemy to fakt, że niektóre synapsy wydają się być używane do przetwarzania, a nie przechowywania informacji (co sugeruje, że szacunek ten może być zbyt wysoki) oraz fakt, że istnieją komórki pomocnicze, które również mogą przechowywać informacje (co sugeruje, że szacunek ten może być zbyt niski).
Nawet jeśli przyjmiemy, że pojemność mózgu wynosi od 10 do 100 terabajtów, oszacowanie, ile z tej przestrzeni jest „przestrzenią używaną”, a ile „przestrzenią wolną” jest bardzo trudne – mózg jest po prostu dużo bardziej złożony niż zewnętrzny dysk twardy. Nie dość, że niektóre jego części wydają się być zaangażowane w wiele różnych wspomnień jednocześnie, to jeszcze te przechowywane dane są często uszkadzane, a nawet tracone. Jedna rzecz jest pewna: Pojęcie, że ludzie używają tylko 10 procent swojego mózgu, jest mitem – informacje mogą być przechowywane w każdej części mózgu.
Ile więc megaherców ma mózg? Może najlepiej powiedzieć, że mózg jest znacznie potężniejszą maszyną składającą się z dużo wolniejszych procesorów. Każdy neuron wydaje się mieć „prędkość zegara” rzędu kiloherców, które są milion razy wolniejsze niż gigaherce. (Prędkość procesora w smartfonie wynosi około 1 gigaherca). Z tego powodu komputery są często znacznie szybsze w wykonywaniu specjalistycznych zadań, mimo że nie są w stanie odtworzyć wszystkich zróżnicowanych funkcji ludzkiego mózgu.
Podczas gdy futuryści tacy jak Ray Kurzweil powołują się na prawo Moore’a – tendencję komputerów do podwajania mocy co dwa lata – aby przewidzieć, że w ciągu następnych dwóch dekad będziemy w stanie zbudować komputery potężniejsze niż ludzki mózg, nie jest jasne, czy taki komputer mógłby trafić na rynek. Mózg jest niezwykle energooszczędny – zużywa około 12 watów, czyli tyle, ile potrzeba do zapalenia kilku wysokowydajnych żarówek. Uruchomienie komputera tak potężnego jak ludzki mózg wymagałoby tak dużo energii – być może aż „gigawata mocy, czyli tyle, ile obecnie zużywa cały Waszyngton” – że może to być niepraktyczne. -że może to być niepraktyczne.
Masz pytanie dotyczące dzisiejszych wiadomości? Zadaj je Explainerowi.
Explainer dziękuje Davidowi Touretzky’emu z Carnegie Mellon University, Nathanowi Urbanowi z Carnegie Mellon University i Samuelowi Wangowi z Princeton University.
Dziękuję.