In seinen neuesten Spötteleien gegen Südkorea hat Nordkoreas staatliches Medium den südkoreanischen Präsidenten Lee Myung-bak als „menschlichen Abschaum“ und einen „Untermenschen mit 2 MB Wissen“ bezeichnet. Wie viele Megabyte sollte ein menschliches Gehirn speichern können?
Etwas mehr als zwei. Die meisten Computational Neuroscientists neigen dazu, die menschliche Speicherkapazität irgendwo zwischen 10 Terabyte und 100 Terabyte zu schätzen, obwohl die ganze Bandbreite der Vermutungen von 1 Terabyte bis 2,5 Petabyte reicht. (Ein Terabyte entspricht etwa 1.000 Gigabyte oder etwa 1 Million Megabyte; ein Petabyte entspricht etwa 1.000 Terabyte.)
Die Mathematik hinter diesen Schätzungen ist ziemlich einfach. Das menschliche Gehirn enthält etwa 100 Milliarden Neuronen. Jedes dieser Neuronen scheint in der Lage zu sein, etwa 1.000 Verbindungen herzustellen, was etwa 1.000 potenziellen Synapsen entspricht, die größtenteils die Arbeit der Datenspeicherung übernehmen. Multipliziert man jedes dieser 100 Milliarden Neuronen mit den etwa 1.000 Verbindungen, die es herstellen kann, erhält man 100 Billionen Datenpunkte, also etwa 100 Terabyte an Informationen.
Neurowissenschaftler geben schnell zu, dass diese Berechnungen sehr vereinfachend sind. Erstens geht diese Mathematik davon aus, dass jede Synapse etwa 1 Byte an Informationen speichert, aber diese Schätzung kann zu hoch oder zu niedrig sein. Die Neurowissenschaftler sind sich nicht sicher, wie viele Synapsen mit nur einer Stärke oder mit vielen verschiedenen Stärken übertragen. Eine Synapse, die nur mit einer Stärke sendet, kann nur ein Bit an Information übertragen – „an“ oder „aus“, 1 oder 0. Andererseits kann eine Synapse, die mit vielen verschiedenen Stärken senden kann, mehrere Bits speichern. Zweitens sind die einzelnen Synapsen nicht völlig unabhängig voneinander. Manchmal braucht es mehrere Synapsen, um nur eine Information zu übertragen. Je nachdem, wie oft dies der Fall ist, kann die Schätzung von 10 bis 100 Terabyte viel zu groß sein. Weitere Probleme sind die Tatsache, dass einige Synapsen anscheinend für die Verarbeitung und nicht für die Speicherung verwendet werden (was darauf hindeutet, dass die Schätzung zu hoch sein könnte), und die Tatsache, dass es Stützzellen gibt, die ebenfalls Informationen speichern könnten (was darauf hindeutet, dass die Schätzung zu niedrig sein könnte).
Selbst wenn wir akzeptieren, dass die Speicherkapazität des Gehirns zwischen 10 und 100 Terabyte liegt, ist es sehr schwierig abzuschätzen, wie viel davon „genutzter Platz“ und wie viel „freier Platz“ ist – das Gehirn ist einfach viel komplexer als eine externe Festplatte. Nicht nur, dass einige Teile anscheinend an vielen verschiedenen Erinnerungen gleichzeitig beteiligt sind, sondern diese gespeicherten Daten werden oft beschädigt und gehen sogar verloren. Eines ist jedoch sicher: Die Vorstellung, dass der Mensch nur 10 Prozent seines Gehirns nutzt, ist ein Mythos – Informationen können in jedem Teil des Gehirns gespeichert sein.
Mit wie vielen Megahertz arbeitet das Gehirn also? Es ist vielleicht am besten zu sagen, dass das Gehirn eine viel leistungsfähigere Maschine ist, die aus viel langsameren Prozessoren besteht. Jedes Neuron scheint eine „Taktrate“ in der Größenordnung von Kilohertz zu haben, was eine Million Mal langsamer ist als Gigahertz. (Die Prozessorgeschwindigkeit eines Smartphones liegt bei etwa 1 Gigahertz.) Aus diesem Grund sind Computer oft viel schneller bei der Erledigung spezialisierter Aufgaben, auch wenn sie nicht alle vielfältigen Funktionen des menschlichen Gehirns nachbilden können.
Zukunftsforscher wie Ray Kurzweil berufen sich zwar auf das Mooresche Gesetz – die Tendenz von Computern, etwa alle zwei Jahre doppelt so leistungsfähig zu werden – und sagen voraus, dass wir innerhalb der nächsten zwei Jahrzehnte in der Lage sein werden, Computer zu bauen, die leistungsfähiger sind als das menschliche Gehirn, aber es ist nicht klar, dass ein solcher Computer marktfähig sein könnte. Das Gehirn ist bemerkenswert energieeffizient, es läuft mit etwa 12 Watt – dem Strom, der benötigt wird, um einige hocheffiziente Glühbirnen zum Leuchten zu bringen. Ein Computer, der so leistungsfähig ist wie das menschliche Gehirn, würde so viel Energie verbrauchen – vielleicht so viel wie „ein Gigawatt Strom, die Menge, die derzeit von ganz Washington, D.C. verbraucht wird“ -, dass er nicht praktikabel ist. -dass es unpraktisch sein könnte.
Sie haben eine Frage zu den heutigen Nachrichten? Fragen Sie den Explainer.
Der Explainer dankt David Touretzky von der Carnegie Mellon University, Nathan Urban von der Carnegie Mellon University und Samuel Wang von der Princeton University.