Un equipo de investigadores de la Universidad de Nueva York estudió cómo se produce el procesamiento de las secuencias de sonidos discretos del habla en el cerebro y también cómo hace este para reconocer las palabras.

Para ello, debieron examinar cómo los cerebros de los oyentes secuencian las señales del habla. Por lo tanto, necesitaron realizar magnetoencefalogramas y grabar lo que sucedía mientras los participantes escuchaban narraciones cortas. En total, alcanzaron a grabar dos horas de magnetoencefalogramas de 21 participantes.

Todo este examen permitió al equipo descubrir que el cerebro humano marca el tiempo del orden de los sonidos que van ingresando. Esto le sirve para posteriormente procesar las palabras que ha escuchado. En concreto, el cerebro codifica los tres últimos sonidos que escuchó pero simultáneamente va manteniendo la información sin dejar que se disipe.

Es decir, el cerebro codifica de manera conjunta tanto las características fonéticas de los sonidos del habla como el tiempo que transcurrió desde que se comenzó a pronunciar esos sonidos. Por lo tanto, se genera un patrón neuronal dinámico donde la codificación se produce tanto «en el orden relativo como en el contenido fonético de la secuencia del habla».

Los autores publicaron sus hallazgos en la revista Nature Communications y serían aportes importantes para el estudio de las complejidades de la función neurológica.

Las áreas del cerebro responsables de producir y procesar el lenguaje. Créditos: Canal Encuentro.

Procesamiento de los sonidos y las palabras

La autora principal del estudio, becaria postdoctoral en la Universidad de California (San Francisco), Laura Gwilliams, explica que el cerebro, para comprender el habla, «necesita interpretar con precisión tanto la identidad de los sonidos del habla como el orden en que se pronunciaron para reconocer correctamente las palabras que se dicen».

Además, la investigadora comenta que durante el estudio descubrieron que el cerebro responde a diferentes sonidos con diferentes poblaciones neuronales:

Cada sonido tiene una marca de tiempo con cuánto tiempo ha pasado desde que entró en el oído. Esto permite que el oyente sepa tanto el orden y la identidad de los sonidos que alguien está diciendo para averiguar correctamente qué palabras está diciendo la persona.

Una conclusión que fue posible luego de estudiar a 21 participantes, hablantes nativos de inglés, a los cuales les hicieron escuchar dos horas de una audiolibro, mientras los investigadores registraban su actividad cerebral. Esto les permitió al equipo descubrir que el cerebro humano va marcando el tiempo a la vez que procesa los sonidos. Además, comprobaron que el cerebro es capaz de procesar varios sonidos a la vez sin mezclar la identidad de cada sonido.

En específico, detectaron que se produce una cascada de neuronas cada vez que ingresa un sonido del habla al cerebro. En ese momento se activan diferentes áreas de la corteza auditiva.

Gracias a este estudio, los investigadores pudieron comprender un poco más sobre el manejo de las secuencias que constituyen el habla. Quizás estos nuevos conocimientos ayuden a abordar las afecciones neurológicas que dificultan la comprensión de los sonidos del habla.

Referencias:

Neural dynamics of phoneme sequences reveal position-invariant code for content and order: https://www.nature.com/articles/s41467-022-34326-1

Our brains ‘time-stamp’ sounds to process the words we hear: https://medicalxpress.com/news/2022-11-brains-time-stamp-words.html

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *