martes, 26 de julio de 2016

¿En qué parte del cerebro encontramos la música?


Por primera vez, los científicos identifican  una población neuronal altamente selectiva para la música.




Los científicos se han preguntado si el cerebro humano contiene mecanismos neuronales específicos para la percepción musical. Ahora, por primera vez, los neurólogos del Instituto de Tecnología de Massachusetts MIT han identificado una población neuronal en la corteza auditiva humana que responde selectivamente a los sonidos que la gente normalmente categoriza como  música, pero no a la voz u otros sonidos ambientales.

"Ha sido objeto de especulación generalizada", dice Josh McDermott, Profesor Adjunto de Neurociencia en el Departamento de Cerebro y Ciencias Cognitivas del MIT. "Uno de los debates centrales que rodean la música es en qué medida se han dedicado mecanismos en el cerebro para su tratamiento y en qué medida se apoya en mecanismos que sirven principalmente a otras funciones."

El hallazgo fue posible gracias a un nuevo método diseñado para identificar las poblaciones neuronales a partir de datos obtenidos mediante imágenes procesadas por Resonancia Magnética Funcional (fMRI). Usando este método, los investigadores identificaron seis poblaciones neuronales con diferentes funciones, incluida la población selectiva para la música y otro conjunto de neuronas que responde selectivamente a la voz.




Así es cómo los investigadores identificaron una población neuronal
 en la corteza auditiva humana que responde a la música.
Vídeo: Julie Pryor / Instituto McGovern


El trabajo de campo



Para este estudio, los investigadores escanearon los cerebros de 10 sujetos humanos que escucharon 165 sonidos naturales, incluyendo diferentes tipos de voz y música, así como los sonidos cotidianos tales como pasos, un arranque del motor del coche, y un timbre del teléfono.

El sistema auditivo del cerebro ha demostrado ser difícil de trazar, en parte debido a la resolución espacial gruesa de la imagen obtenida por resonancia magnética funcional, que mide el flujo sanguíneo como un índice de la actividad neuronal. En estas imágenes, los "voxels" - la unidad más pequeña de medida - reflejan la respuesta de cientos de miles o millones de neuronas.

"Como resultado, cuando se miden las  respuestas primarias mediante el voxel, lo que se está midiendo es algo que refleja una mezcla de respuestas neuronales subyacentes", dice Norman-Haigneré.

Para separar estas respuestas, los investigadores utilizaron una técnica que modela cada voxel como una mezcla de múltiples respuestas neuronales subyacentes. Utilizando este método, se identificaron seis poblaciones neuronales, cada una con un patrón de respuesta única a los sonidos en el experimento, lo que explica mejor los datos obtenidos.

"Lo que encontramos es que se podía explicar mucho de la variación de la respuesta a través de decenas de miles de voxels con sólo seis patrones de respuesta", dice Norman-Haigneré.
Una población respondió más a la música, otra al  habla, y los otras cuatro a diferentes propiedades acústicas como el tono y la frecuencia.

"Todos los investigadores están interesados en encontrar áreas especializadas como las que se han encontrado en la corteza visual, pero el problema es que el voxel no es lo suficientemente pequeño. Existen cientos de miles de neuronas en un voxel, y ¿cómo separar la información que estos codifican? Se trata de un estudio en el que se aplica la más alta calidad en el análisis de datos ", dice Rauschecker, que no formó parte del equipo de investigación.


Procesamiento de sonido por capas


Las cuatro poblaciones neuronales acústicamente sensibles se solapan con las regiones de la corteza auditiva "primaria", que realiza la primera etapa de procesamiento cortical del sonido. Las poblaciones neuronales selectivas al habla y a la música se encuentran más allá de esta región primaria.

"Creemos que esto proporciona evidencia de que hay una jerarquía de procesamiento donde en esta área auditiva primaria se encuentran las respuestas a dimensiones acústicas relativamente simples. Esto es seguido por una segunda etapa de procesamiento que representa más propiedades abstractas de sonido relacionadas con el habla y la música ", dice Norman-Haigneré.

Los investigadores creen que puede haber otras regiones del cerebro implicadas en el procesamiento de la música, incluyendo sus componentes emocionales. "No es apropiado en este punto concluir  que este es el asiento de la música en el cerebro", dice McDermott. "Aquí es donde se ve la mayor parte de las respuestas dentro de la corteza auditiva, pero hay una gran parte del cerebro todavía por explorar."

Kanwisher también señala que "la existencia de respuestas musicales selectivas en el cerebro no implica que las respuestas reflejen un sistema cerebral innato. Una cuestión importante para el futuro será ¿cómo surge este sistema durante el desarrollo?, ¿Cómo de temprano se desarrolla en la infancia o niñez?, y ¿cómo depende de la experiencia? "

Los investigadores están ahora investigando si la población selectiva a la música identificada en este estudio contiene las subpoblaciones de neuronas que responden a diferentes aspectos de la música, incluyendo el ritmo, la melodía y el tempo. También esperan estudiar cómo la experiencia musical y la formación pudieran afectar a esta población neuronal.

"El descubrimiento sobre el tratamiento que recibe la música en el cerebro es notable porque hasta ahora no habíamos sido capaces de detectar claramente respuestas altamente selectivas a la música", dice Sam Norman-Haigneré, un post-doctorado en el Instituto McGovern del MIT para la Investigación del Cerebro.

"Nuestros resultados son difíciles de reconciliar con la idea de que la música se gestiona por  completo con  maquinaria neural que está diseñada para otras funciones, ya que las respuestas neuronales que vemos son muy específicas de la música", dice Nancy Kanwisher, profesora de Neurociencia Cognitiva en el MIT y miembro del Instituto McGovern del MIT para la Investigación del cerebro.
Norman-Haigneré es el autor principal del artículo que describe los hallazgos en la edición del 16 de diciembre del 2016 de la revista Neuron. McDermott y Kanwisher son los autores principales del artículo.



No hay comentarios:

Publicar un comentario