Una imagen vale más que mil palabras y el cerebro necesita
miles de millones de neuronas para procesarla. ¿Por qué necesitamos tantas
neuronas? Para averiguarlo, investigadores del Janelia Research Campus han
grabado miles de ellas en la corteza visual del ratón. Aquí hay algunos datos.
Una razón para tener tantas neuronas puede ser que
cada una tenga diferentes tareas:
La neurona A reconoce la agudeza de las orejas de un zorro,
La neurona B reconoce el color del pelaje del zorro.
La neurona C reconoce una nariz de zorro,
Etc.
Cuando una cantidad suficiente de estas neuronas se
activan, el cerebro en su conjunto puede reconocer a un zorro.
¿Qué sucede si algunas neuronas se “duermen” en el
trabajo y no responden a la imagen? En realidad, esto sucede muy a menudo, y
sin embargo, el cerebro es notablemente robusto a estos fallos.
Incluso si el 90% de las neuronas no hacen su trabajo,
todavía podemos reconocer al zorro. Incluso si cambiamos aleatoriamente el 90%
de los píxeles, todavía podemos reconocer al zorro. El cerebro es robusto a
muchas manipulaciones como esa.
Las redes neuronales artificiales también usan millones
de neuronas para reconocer imágenes.
A diferencia de los cerebros, las máquinas no son tan
robustas para pequeñas aberraciones. Aquí está nuestro zorro y, junto a él, el
mismo zorro muy ligeramente modificado, ¡y ahora la máquina cree que es un pez
globo!
Estas se llaman "imágenes adversas", porque las
inventamos para engañar a la máquina. ¿Cómo se protege el cerebro contra estas
perturbaciones y otras?
Una protección podría ser hacer muchas copias ligeramente
diferentes de las neuronas que representan a los zorros. Incluso si algunas
neuronas se duermen en el trabajo, sus copias podrían activarse. Sin embargo, si el cerebro utilizara tantas neuronas
para cada imagen, ¡nos quedaríamos rápidamente sin neuronas!
Esto resulta en una presión evolutiva: es bueno que
muchas neuronas realicen trabajos muy diferentes para que podamos reconocer
muchos objetos en las imágenes, pero también es bueno si comparten algunas
responsabilidades, para que puedan recuperarse cuando sea necesario.
Al investigar las principales dimensiones de la variación
en las respuestas de 10,000 neuronas, los científicos encontraron ciertas
evidencias en este sentido. A continuación, cada columna es la respuesta de una
neurona a varias de nuestras imágenes.
Las dos dimensiones más grandes se distribuyeron ámpliamente en todas las neuronas, como se ve a continuación. Cualquier neurona
podría contribuir y recuperar la función si las otras neuronas no respondieran.
Las siguientes 8 dimensiones, cada una de ellas, eran
más pequeñas y se distribuían de forma mas dispersa entre las neuronas. Si una
neurona estuviera dormida, aún sería probable que algunas otras pudieran
representar estas dimensiones en su lugar.
Las siguientes 30 dimensiones revelaron una estructura
cada vez más compleja ...
Y también lo hicieron las siguientes 160 dimensiones ...
Y así sucesivamente, esto continuó, con la N-ésima
dimensión aproximadamente N veces más pequeña que la dimensión más grande.
Esta distribución de actividad se denomina “ley potencial”
.
Sin embargo, esto no era solo una ley potencial, tenía
un exponente especial de aproximadamente uno. Los investigadores hicieron algunos
cálculos y demostraron que una ley potencial con este exponente debe ser
fractal en el límite.
Un fractal es un objeto matemático que tiene una
estructura en diferentes escalas espaciales, como el conjunto de Mandelbrot a
continuación:
Este video a continuación con la técnica “Inceptionism”
es también una especie de fractal
La actividad neuronal que nos permite visualizar nuestro mundo estaba enormemente cerca de ser un
fractal, y apenas la evitaba porque su exponente era 1.04, ligeramente mayor de
1. Un exponente de 1.04 es el punto clave: lo más
dimensional posible sin llegar a ser un fractal.
Y no ser fractal implica que las respuestas neuronales
sean continuas y suaves, que es la clave que permite a las neuronas no confundir a un zorro con un pez globo.
Todos los datos neuronales están disponibles aquí:
Y el código está aquí: https://github.com/MouseLand/stringer-pachitariu-et-al-2018b
No hay comentarios:
Publicar un comentario