Mostrando entradas con la etiqueta voxel. Mostrar todas las entradas
Mostrando entradas con la etiqueta voxel. Mostrar todas las entradas

martes, 26 de julio de 2016

¿En qué parte del cerebro encontramos la música?


Por primera vez, los científicos identifican  una población neuronal altamente selectiva para la música.




Los científicos se han preguntado si el cerebro humano contiene mecanismos neuronales específicos para la percepción musical. Ahora, por primera vez, los neurólogos del Instituto de Tecnología de Massachusetts MIT han identificado una población neuronal en la corteza auditiva humana que responde selectivamente a los sonidos que la gente normalmente categoriza como  música, pero no a la voz u otros sonidos ambientales.

"Ha sido objeto de especulación generalizada", dice Josh McDermott, Profesor Adjunto de Neurociencia en el Departamento de Cerebro y Ciencias Cognitivas del MIT. "Uno de los debates centrales que rodean la música es en qué medida se han dedicado mecanismos en el cerebro para su tratamiento y en qué medida se apoya en mecanismos que sirven principalmente a otras funciones."

El hallazgo fue posible gracias a un nuevo método diseñado para identificar las poblaciones neuronales a partir de datos obtenidos mediante imágenes procesadas por Resonancia Magnética Funcional (fMRI). Usando este método, los investigadores identificaron seis poblaciones neuronales con diferentes funciones, incluida la población selectiva para la música y otro conjunto de neuronas que responde selectivamente a la voz.




Así es cómo los investigadores identificaron una población neuronal
 en la corteza auditiva humana que responde a la música.
Vídeo: Julie Pryor / Instituto McGovern


El trabajo de campo



Para este estudio, los investigadores escanearon los cerebros de 10 sujetos humanos que escucharon 165 sonidos naturales, incluyendo diferentes tipos de voz y música, así como los sonidos cotidianos tales como pasos, un arranque del motor del coche, y un timbre del teléfono.

El sistema auditivo del cerebro ha demostrado ser difícil de trazar, en parte debido a la resolución espacial gruesa de la imagen obtenida por resonancia magnética funcional, que mide el flujo sanguíneo como un índice de la actividad neuronal. En estas imágenes, los "voxels" - la unidad más pequeña de medida - reflejan la respuesta de cientos de miles o millones de neuronas.

"Como resultado, cuando se miden las  respuestas primarias mediante el voxel, lo que se está midiendo es algo que refleja una mezcla de respuestas neuronales subyacentes", dice Norman-Haigneré.

Para separar estas respuestas, los investigadores utilizaron una técnica que modela cada voxel como una mezcla de múltiples respuestas neuronales subyacentes. Utilizando este método, se identificaron seis poblaciones neuronales, cada una con un patrón de respuesta única a los sonidos en el experimento, lo que explica mejor los datos obtenidos.

"Lo que encontramos es que se podía explicar mucho de la variación de la respuesta a través de decenas de miles de voxels con sólo seis patrones de respuesta", dice Norman-Haigneré.
Una población respondió más a la música, otra al  habla, y los otras cuatro a diferentes propiedades acústicas como el tono y la frecuencia.

"Todos los investigadores están interesados en encontrar áreas especializadas como las que se han encontrado en la corteza visual, pero el problema es que el voxel no es lo suficientemente pequeño. Existen cientos de miles de neuronas en un voxel, y ¿cómo separar la información que estos codifican? Se trata de un estudio en el que se aplica la más alta calidad en el análisis de datos ", dice Rauschecker, que no formó parte del equipo de investigación.


Procesamiento de sonido por capas


Las cuatro poblaciones neuronales acústicamente sensibles se solapan con las regiones de la corteza auditiva "primaria", que realiza la primera etapa de procesamiento cortical del sonido. Las poblaciones neuronales selectivas al habla y a la música se encuentran más allá de esta región primaria.

"Creemos que esto proporciona evidencia de que hay una jerarquía de procesamiento donde en esta área auditiva primaria se encuentran las respuestas a dimensiones acústicas relativamente simples. Esto es seguido por una segunda etapa de procesamiento que representa más propiedades abstractas de sonido relacionadas con el habla y la música ", dice Norman-Haigneré.

Los investigadores creen que puede haber otras regiones del cerebro implicadas en el procesamiento de la música, incluyendo sus componentes emocionales. "No es apropiado en este punto concluir  que este es el asiento de la música en el cerebro", dice McDermott. "Aquí es donde se ve la mayor parte de las respuestas dentro de la corteza auditiva, pero hay una gran parte del cerebro todavía por explorar."

Kanwisher también señala que "la existencia de respuestas musicales selectivas en el cerebro no implica que las respuestas reflejen un sistema cerebral innato. Una cuestión importante para el futuro será ¿cómo surge este sistema durante el desarrollo?, ¿Cómo de temprano se desarrolla en la infancia o niñez?, y ¿cómo depende de la experiencia? "

Los investigadores están ahora investigando si la población selectiva a la música identificada en este estudio contiene las subpoblaciones de neuronas que responden a diferentes aspectos de la música, incluyendo el ritmo, la melodía y el tempo. También esperan estudiar cómo la experiencia musical y la formación pudieran afectar a esta población neuronal.

"El descubrimiento sobre el tratamiento que recibe la música en el cerebro es notable porque hasta ahora no habíamos sido capaces de detectar claramente respuestas altamente selectivas a la música", dice Sam Norman-Haigneré, un post-doctorado en el Instituto McGovern del MIT para la Investigación del Cerebro.

"Nuestros resultados son difíciles de reconciliar con la idea de que la música se gestiona por  completo con  maquinaria neural que está diseñada para otras funciones, ya que las respuestas neuronales que vemos son muy específicas de la música", dice Nancy Kanwisher, profesora de Neurociencia Cognitiva en el MIT y miembro del Instituto McGovern del MIT para la Investigación del cerebro.
Norman-Haigneré es el autor principal del artículo que describe los hallazgos en la edición del 16 de diciembre del 2016 de la revista Neuron. McDermott y Kanwisher son los autores principales del artículo.



domingo, 8 de mayo de 2016

El “atlas” de las palabras se extiende por toda la corteza cerebral humana



Por  Ana Toral (*)

8 mayo 2016

El estudio publicado este mes de mayo en la revista Nature, por los neurocientíficos de  la Berkeley, Alexander G. Huth y sus colaboradores,  presenta un “atlas semántico" del cerebro humano. Este estudio  ha resultado ser clave para aclarar uno de los arcanos en neurociencia. ¿Donde se encuentran las palabras?. Hasta ahora, en base a los estudios anatómicos cerebrales realizados básicamente en pacientes con déficit, únicamente las áreas de Broca y de Wernicke situadas en el hemisferio cerebral izquierdo se habían asociado al habla.

En este nuevo artículo de Nature, Huth y sus colaboradores han mapeado qué áreas del cerebro responden a las palabras, de acuerdo con su semántica (significados de cada palabra). Resulta que estos mapas, además,  son muy similares en todos los individuos – lo que podría tener implicaciones para la tecnología 'lectura de la mente'.

Estudios previos con imágenes neurales habían identificado grupos de regiones que parecían representar información acerca del significado del lenguaje. Esas regiones, conocidas colectivamente como sistemas semánticos, respondían más a palabras que a no-palabras, más a tareas semánticas que a tareas fonológicas y más al habla natural que al habla temporalmente perturbada.

Algunos estudios que han investigado tipos de representación específicos en el sistema semántico han encontrado áreas selectivas para palabras abstractas o concretas, verbos de acción, narrativas sociales u otras características semánticas.

Otros han encontrado áreas selectivas para dominios semánticos específicos, grupos de conceptos relacionados tales como seres vivos, herramientas, comida o refugio. No obstante, ningún estudio hasta ahora había producido un mapa comprensivo de cómo se representaba la información semántica en un sistema semántico completo.

Este es un estudio muy elegante. Los resultados no son especialmente sorprendentes - un montón de estudios previos han demostrado que las categorías semánticas están asociadas con la actividad en áreas concretas del cerebro. Pero Huth y colaboradores  utilizaron estímulos del mundo real para proporcionar un enfoque inusualmente integral al tema.

El análisis de los cerebros escaneados de los siete sujetos sometidos al estudio, cuando escuchaban historias emitidas por un programa de radio, determinaron la existencia de cuatro dimensiones semánticas estadísticamente significativas que se compartían por todos los sujetos analizados.

Estas dimensiones son dominios semánticos de alto nivel. Por ejemplo, la dimensión (PC1) indexa  la "humanidad" de las palabras, con altas puntuaciones en la PC1 para palabras del ámbito de las categorías relacionadas con los seres humanos y la sociedad humana y las emociones. La dimensión PC2 parecía captar la "sensorialidad" de las palabras, esto es, los términos sensoriales y concretos puntuaban alto en la dimensión PC2 mientras las  palabras intangibles o abstractas  puntuaban bajas.

Las cuatro dimensiones semánticas compartidas proporcionaron una forma de resumir sucintamente la selectividad semántica de cada voxel, o pequeña unidad neuronal en las que este estudio había dividido la corteza cerebral. No obstante, para interpretar las proyecciones de los modelos en esas dimensiones, se necesitaba entender cómo se codifica la información semántica en este espacio de cuatro dimensiones. Para visualizar el espacio semántico, se proyectaron  las 10.470 palabras de las historias desde el espacio ocupado por la palabra en cada dimensión. Con ello, se identificaron 12 categorías distintas que se marcaron de forma manual.

Las marcas que se asignaron a cada una de esas doce categorías fueron “táctil”(un cluster que contenía palabras tales como “dedos”), “visual”( palabras tales como “amarillo”), “numérico” (cuatro),” localización” (estadio), “abstracto” (natural), “temporal “(minuto), “profesional” (reunión), “violento”(letal),  “comunal”(escuela), “mental” (dormido), “emocional” (despreciado)  y “social” (niño).

Tras visualizar donde aparecía cada una de las doce categorías en el espacio semántico compartido, se les adjudico un color RGB, donde el canal rojo determinaba la primera dimensión, el verde la segunda y el azul la tercera. La primera dimensión es la que capturaba una mayor varianza en los sujetos estudiados. Un extremo de esta dimensión favorecía las categorías relacionadas con las interacciones humanas y sociales, incluyendo “social”, “emocional”, “violento” y “comunal”.  El otro extremo favorecía categorías relacionadas con descripciones perceptivas, descripciones cuantitativas y medidas, incluyendo “táctil”, “localización”, “numérico” y “visual”.

Las dimensiones subsecuentes de los espacios semánticos capturaron menos varianza que la primera y fueron, por tanto, más difíciles de interpretar. La segunda dimensión parecía distinguir entre categorías perceptivas, incluyendo “visual” y “táctil” y categorías no-perceptivas, incluyendo “mental”, “profesional” y “temporal”. Las terceras y cuartas dimensiones son todavía menos claras.

¿Dónde en el cerebro se codifican estas categorías semánticas? La imagen siguiente muestra los datos de uno de los participantes, S2. La actividad neuronal en respuesta a la PC1 o primera dimensión  se muestra en rojo, la  PC2  o segunda dimensión en verde  y la  PC3 en  color azul.



Componentes principales de los modelos semánticos basados en voxels

Las manchas en el centro de la imagen muestran la corteza cerebral “desplegada” en una lámina plana. Esta contiene la misma información que las imágenes del cerebro en 3D más familiares, vistos en la parte inferior de la imagen. La lámina desplegada es una imagen  menos intuitiva, pero tiene la ventaja de mostrar toda la corteza cerebral a la vez.

En la página http://gallantlab.org/huth2016/ se puede visualizar el patrón de la selectividad del dominio semántico a través de toda la corteza cerebral, mediante la proyección de los modelos de voxel en las dimensiones semánticas compartidas.

Por ejemplo, los voxels en verde producen respuestas fuertes a categorías que están coloreadas en verde en el espacio semántico, tales como “visual” y “numérico”. Esta visualización sugiere que la información semántica está representada en patrones intricados que cubren el sistema semántico, incluyendo amplias regiones de la corteza prefrontal, la corteza temporal media, la corteza temporal lateral, la corteza parietal lateral y la corteza parietal media.

¿Y  estos mapas semánticos son únicos para cada individuo? No, ya que parecen estar compartidos ampliamente entre los individuos. Aquí están los mapas de tres de los otros participantes (S1, S3 y S4). Está claro simplemente echando un vistazo a partir de esto que, en términos generales, estos mapas son muy similares, lo que sugiere que todos podríamos tener más o menos los mismos atlas semánticos.





Dicho esto, es importante recordar que Huth y colaboradores  no mapearon las respuestas del cerebro a las palabras individuales. El atlas semántico se ocupa de categorías de palabras genéricas. Esto es relevante para la cuestión de si los hallazgos  podrían ser utilizados para ayudar a "leer la mente". Por lo que podemos intuir, si bien podría ser posible utilizar el método de Huth y sus colaboradores  para determinar si alguien está pensando en (por ejemplo) "niño" o en  "amarillo", ya que estas palabras / conceptos se dividen en categorías muy diferentes,  sería mucho más difícil distinguir entre  “verde”  y “amarillo” o entre “madre” e “hijo”.

Con este nuevo estudio, se ha confirmado que el mapa semántico de las palabras y su significado se extiende por toda la corteza cerebral y por ambos hemisferios. Y no únicamente se ha definido esto, sino también la existencia de múltiples “locus” para cada concepto semántico, y una intricada red de asociaciones entre estos locus, algo esperable dado la multitud de significados asociados a muchas de las palabras que utilizamos en nuestra expresión diaria.

Otro aspecto sorprendente de las conclusiones del estudio es que  la organización de las áreas cerebrales selectivas semánticas parece ser consistentes en todos los individuos. Este aspecto, que tendrá que ser verificado en posteriores estudios, dado el pequeño número y la homogeneidad de los sujetos estudiados, puede implicar un alto grado de determinación genética en la forma en la que se almacenan las palabras y su significado, en el cerebro humano.

Queda también por determinar la localización de las palabras con un mismo significado en distintos idiomas. ¿Se situarán también en las mismas áreas de significado equivalente o la localización cambiará significativamente?. Un amplio campo de investigación se abre tras la publicación de este estudio.

(*) Bioquímica. Universidad de Valencia