En sus últimas burlas dirigidas a Corea del Sur, los medios de comunicación estatales norcoreanos han calificado al presidente surcoreano Lee Myung-bak de «escoria humana» y de «imbécil con 2 MB de conocimiento». ¿Cuántos megabytes debería ser capaz de almacenar un cerebro humano?
Mucho más que dos. La mayoría de los neurocientíficos computacionales tienden a estimar la capacidad de almacenamiento humana en algún lugar entre 10 terabytes y 100 terabytes, aunque todo el espectro de conjeturas oscila entre 1 terabyte y 2,5 petabytes. (Un terabyte equivale a unos 1.000 gigabytes o cerca de 1 millón de megabytes; un petabyte equivale a unos 1.000 terabytes).
La matemática detrás de estas estimaciones es bastante sencilla. El cerebro humano contiene aproximadamente 100.000 millones de neuronas. Cada una de estas neuronas parece capaz de realizar unas 1.000 conexiones, lo que representa unas 1.000 sinapsis potenciales, que hacen en gran medida el trabajo de almacenamiento de datos. Si se multiplica cada una de estos 100.000 millones de neuronas por las aproximadamente 1.000 conexiones que puede realizar, se obtienen 100 billones de puntos de datos, es decir, unos 100 terabytes de información.
Los neurocientíficos se apresuran a admitir que estos cálculos son muy simplistas. En primer lugar, estas matemáticas suponen que cada sinapsis almacena aproximadamente 1 byte de información, pero esta estimación puede ser demasiado alta o demasiado baja. Los neurocientíficos no están seguros de cuántas sinapsis transmiten a una sola fuerza frente a muchas fuerzas diferentes. Una sinapsis que transmite con una sola intensidad sólo puede transmitir un bit de información: «encendido» o «apagado», 1 o 0. Por otro lado, una sinapsis que puede transmitir con muchas intensidades diferentes puede almacenar varios bits. En segundo lugar, las sinapsis individuales no son completamente independientes. A veces pueden ser necesarias varias sinapsis para transmitir una sola información. Dependiendo de la frecuencia de este caso, la estimación de 10 a 100 terabytes puede ser demasiado grande. Otros problemas incluyen el hecho de que algunas sinapsis parecen utilizarse para el procesamiento, no para el almacenamiento (lo que sugiere que la estimación puede ser demasiado alta), y el hecho de que hay células de apoyo que también podrían almacenar información (lo que sugiere que la estimación puede ser demasiado baja).
Incluso si aceptamos que la capacidad de almacenamiento del cerebro es de entre 10 y 100 terabytes, estimar cuánto de ese espacio es «espacio usado» frente a «espacio libre» es muy difícil: el cerebro es simplemente mucho más complejo que un disco duro externo. No sólo algunas partes parecen estar involucradas en muchas memorias diferentes a la vez, sino que estos datos almacenados a menudo se corrompen e incluso se pierden. Una cosa es cierta: La noción de que los humanos sólo utilizan el 10 por ciento de su cerebro es un mito: la información puede estar almacenada en todas las partes del cerebro.
Entonces, ¿a cuántos megahercios funciona el cerebro? Quizá lo mejor sea decir que el cerebro es una máquina mucho más potente formada por procesadores mucho más lentos. Cada neurona parece tener una «velocidad de reloj» del orden de los kilohercios, que son un millón de veces más lentos que los gigahercios. (La velocidad del procesador de un smartphone ronda el gigahercio). Por esta razón, los ordenadores suelen ser mucho más rápidos a la hora de completar tareas especializadas, aunque no puedan replicar todas las variadas funciones del cerebro humano.
Aunque futuristas como Ray Kurzweil citan la ley de Moore -la tendencia de los ordenadores a ser dos veces más potentes cada dos años aproximadamente- para predecir que seremos capaces de construir ordenadores más potentes que el cerebro humano en las próximas dos décadas, no está claro que un ordenador así pueda ser comercializable. El cerebro es extraordinariamente eficiente desde el punto de vista energético, ya que funciona con unos 12 vatios, la electricidad que se necesita para encender algunas bombillas de alta eficiencia. Se necesitaría tanta energía para hacer funcionar un ordenador tan potente como el cerebro humano -tal vez hasta «un gigavatio de energía, la cantidad que consume actualmente todo Washington D.C.»- que podría ser impracticable. -que puede resultar poco práctico.
¿Tienes alguna pregunta sobre las noticias de hoy? Pregúntale al explicador.
El Explicador agradece a David Touretzky de la Universidad Carnegie Mellon, a Nathan Urban de la Universidad Carnegie Mellon y a Samuel Wang de la Universidad de Princeton.