Download Nuestro cerebro tiene tanta capacidad de memoria como todo Internet

Document related concepts

Sinapsis wikipedia , lookup

Sinapsis química wikipedia , lookup

Depresión a largo plazo wikipedia , lookup

Plasticidad neuronal wikipedia , lookup

Sinapsis eléctrica wikipedia , lookup

Transcript
Terrence J Sejnowski et al 2016-8-93-VI-237
Nuestro cerebro tiene tanta capacidad de memoria como
todo Internet
Científicos de EE.UU. estiman que es 10 veces mayor de lo que se pensaba
Científicos de EE.UU. han determinado, midiendo con precisión el tamaño de
las sinapsis neuronales, que la capacidad de memoria del cerebro es 10 veces
mayor de lo que se creía, y está en niveles de petabyte, es decir, Internet
entera. El descubrimiento podría abrir la vía de supercomputadores precisos y
de bajo consumo.
Reconstrucción computarizada del hipocampo. Fuente: Instituto Salk.
Investigadores y colaboradores del Instituto Salk de Estudios Biológicos (La Jolla,
California, EE.UU.) han realizado una observación crucial sobre el tamaño de las
conexiones neuronales, y calculan que la capacidad de memoria del cerebro es
mucho
mayor
de
lo
que
se
suele
estimar.
El nuevo trabajo también responde a una vieja pregunta sobre cómo puede ser el
cerebro tan eficiente energéticamente, y podría ayudar a los ingenieros a construir
ordenadores increíblemente potentes, pero que también conserven la energía.
Terry Sejnowski, profesor de Salk y co-autor principal del artículo publicado
en eLife, afirma: "Hemos descubierto la clave para descubrir el principio de diseño
de cómo funcionan las neuronas del hipocampo con baja energía, pero con una
alta potencia de cómputo. Nuestras nuevas mediciones de la capacidad de
memoria del cerebro aumentan las estimaciones conservadoras por un factor de
10 hasta por lo menos un petabyte, al nivel de la World Wide Web."
Nuestros recuerdos y pensamientos son el resultado de patrones de actividad
eléctrica y química en el cerebro. Una parte fundamental de la actividad se
produce cuando las neuronas interactúan en ciertos cruces, conocidas como
sinapsis. Un cable de salida (un axón) de una neurona se conecta a un cable de
entrada
(una
dendrita)
de
una
segunda
neurona.
Las señales viajan a través de la sinapsis en forma de productos químicos
llamados neurotransmisores, para contar a la neurona receptora si debe transmitir
una señal eléctrica a otras neuronas. Cada neurona puede tener miles de estas
sinapsis
con
miles
de
otras
neuronas.
"La primera vez que reconstruimos cada dendrita, axón, proceso glial y sinapsis de
un volumen de hipocampo del tamaño de un solo glóbulo rojo, nos desconcertó un
poco la complejidad y la diversidad de las sinapsis", dice Kristen Harris, co-autora
principal del trabajo y profesora de neurociencia en la Universidad de Texas
(Austin), en la web del Instituto. "Aunque esperaba aprender los principios
fundamentales de cómo se organiza el cerebro, me sorprendió de verdad la
precisión
obtenida
en
los
análisis."
Sinapsis
Las sinapsis son todavía un misterio, a pesar de que su disfunción puede causar
una serie de enfermedades neurológicas. Las sinapsis más grandes -con más
superficie y con vesículas de neurotransmisores más grandes- son más fuertes, lo
que las hace más propensas a activar las neuronas circundantes que las sinapsis
medianas
o
pequeñas.
El equipo de Salk, mientras reconstruía en 3D tejido de hipocampo (el centro de
memoria del cerebro) de rata, notó algo inusual. En algunos casos, un solo axón
de una neurona formaba dos sinapsis para llegar a una sola dendrita de una
segunda neurona, lo que significa que la primera neurona parecía estar enviando
un
mensaje
duplicado
a
la
neurona
receptora.
En un primer momento, los investigadores no pensaron mucho sobre esta
duplicidad, que se produce alrededor del 10 por ciento del tiempo en el
hipocampo. Pero Tom Bartol, uno de los miembros de Salk, tuvo una idea: si
podían medir la diferencia entre dos sinapsis muy similares como esas, podían
hacerse una idea mejor del tamaño de las sinapsis, que hasta ahora sólo habían
sido
clasificadas
en
como
pequeñas,
medianas
y
grandes.
Para ello, los investigadores utilizaron microscopía avanzada y algoritmos
computacionales que habían desarrollado para obtener imágenes de cerebros de
ratas y reconstruir la conectividad, las formas, los volúmenes y la superficie del
tejido
cerebral
hasta
un
nivel
nanomolecular.
Los científicos esperaban que las sinapsis fueran más o menos similares en
tamaño, pero se sorprendieron al descubrir que las sinapsis eran casi idénticas.
"Nos quedamos sorprendidos de encontrar que la diferencia en los tamaños de los
pares de sinapsis eran muy pequeñas, en promedio sólo del ocho por ciento.
Nadie
pensó
que
fuera
tan
pequeña",
dice
Bartol.
Debido a que la capacidad de memoria de las neuronas depende del tamaño de la
sinapsis, esta diferencia del ocho por ciento resultó ser un número de clave que el
equipo pudo entonces introducir en sus modelos algorítmicos del cerebro, para
medir la cantidad de información que potencialmente podría ser almacenada en
las conexiones sinápticas.
En
términos
informáticos
Se sabía que el rango de tamaños de las sinapsis era de 60 a 1 y que la mayoría
eran pequeñas. Pero con el conocimiento de que las sinapsis de todos los
tamaños pueden variar en márgenes tan pequeños como un ocho por ciento, el
equipo determinó que podría haber cerca de 26 categorías de tamaños de las
sinapsis,
en
lugar
de
sólo
unas
pocas.
"Nuestros datos sugieren que hay 10 veces más tamaños discretos de sinapsis de
lo que se pensaba", dice Bartol. En términos informáticos, 26 tamaños de sinapsis
corresponden a alrededor de 4,7 "bits" de información. Anteriormente, se pensaba
que el cerebro era capaz de tener sólo uno o dos bits para el almacenamiento de
memoria
a
corto
y
largo
plazo
en
el
hipocampo.
"Esto es aproximadamente un orden de magnitud más de precisión de lo que
nadie
hubiera
imaginado",
dice
Sejnowski.
Fiabilidad
Lo que hace esta precisión desconcertante es que las sinapsis del hipocampo son
notoriamente poco fiables. Cuando una señal se desplaza de una neurona a otra,
por lo general activa esa segunda neurona sólo el 10 al 20 por ciento de las
veces.
"A menudo nos habíamos preguntado cómo podía salir la notable precisión del
cerebro de estas sinapsis no confiables", dice Bartol. Una respuesta, según el
estudio, es que las sinapsis ajustan su tamaño de forma constante, según las
señales
que
reciben.
Consumo
Los resultados también ofrecen una explicación de la eficiencia sorprendente del
cerebro. El cerebro adulto al despertar genera sólo 20 vatios de corriente continua,
tanto como una bombilla de luz muy tenue. El descubrimiento podría ayudar a los
informáticos a construir ordenadores ultraprecisos de bajo consumo, en particular
los que emplean "aprendizaje profundo" y redes de técnicas neuronales artificiales
capaces de aprendizaje y análisis sofisticados, como el habla, el reconocimiento
de
objetos
y
la
traducción.
Según Sejnowski, el "uso de transmisiones probabilísticas resulta ser muy preciso
y requiere mucha menos energía tanto para ordenadores como para el cerebro."
Fuente:
Terrence J Sejnowski et al.: Nanoconnectomic upper bound on the variability of
synaptic plasticity. eLife (2016) DOI: 10.7554/eLife.10778.001.
http://www.tendencias21.net/Nuestro-cerebro-tiene-tanta-capacidad-de-memoria-comotodo-Internet_a41861.html.
http://www.tendencias21.net/Nuestro-cerebro-tiene-tanta-capacidad-de-memoria-comotodo-Internet_a41861.html