Un grupo de investigadores descubre dos mecanismos para distinguir el habla entre la multitud

Los mecanismos impulsados por los investigadores de la Universidad de Columbia generaron modelos de actividad cerebral a partir de grabaciones neuronales

Investigador analizando dos mecanismos cerebrales (Foto: Freepik)
Investigador analizando dos mecanismos cerebrales (Foto: Freepik)
7 junio 2023 | 11:00 h
Archivado en:

Los investigadores, dirigidos por el doctor Nima Mesgarani, de la Universidad de Columbia (Estados Unidos), utilizaron una combinación de grabaciones neuronales y modelos informáticos para demostrar que cuando seguimos el habla ahogada por voces más altas, la información fonética  recibida en la cavidad cerebral se codifica de forma diferente que en la situación contraria.

Según un estudio publicado en la revista de acceso abierto 'PLOS Biology', el cerebro trata el habla en una habitación abarrotada de forma diferente dependiendo de lo fácil que sea oírla y de si nos estamos concentrando en ella. Los hallazgos podrían ayudar a mejorar los audífonos que funcionan aislando el habla escuchada.

Concentrarse en el habla en una sala llena de gente puede ser difícil, sobre todo cuando hay otras voces más altas. Sin embargo, amplificar todos los sonidos por igual apenas mejora la capacidad de aislar las voces difíciles de oír, y los audífonos que sólo amplifican el habla atendida son demasiado imprecisos para su uso práctico.

Se pidió a los pacientes que prestaran atención a una sola voz, que a veces era más alta que otra ("vislumbrada") y a veces más baja ("enmascarada").

Para comprender mejor cómo se procesa el habla en estas situaciones, los investigadores de la Universidad de Columbia registraron la actividad neuronal de electrodos implantados en personas con epilepsia sometidas a cirugía cerebral. Se pidió a los pacientes que prestaran atención a una sola voz, que a veces era más alta que otra ("vislumbrada") y a veces más baja ("enmascarada"). Utilizaron las grabaciones neuronales para generar modelos predictivos de su actividad. Los modelos mostraron que la información fonética del habla "vislumbrada" se codificaba tanto en el córtex auditivo primario como en el secundario y que la codificación del habla atendida era mayor en el córtex secundario. En cambio, la información fonética del habla "enmascarada" sólo se codificaba si se trataba de la voz atendida.

Centrarse en descifrar sólo la parte "enmascarada" del habla atendida podría conducir a mejorar los sistemas de decodificación de la atención auditiva para audífonos controlados por el cerebro.

Por último, la codificación del habla se producía más tarde en el caso del habla "enmascarada" que en el del habla "vislumbrada". Dado que la información fonética "vislumbrada" y "enmascarada" parecen codificarse por separado, centrarse en descifrar sólo la parte "enmascarada" del habla atendida podría conducir a mejorar los sistemas de decodificación de la atención auditiva para audífonos controlados.

Vinay Raghavan, autor principal del estudio, explica que, "cuando escuchas a alguien en un lugar ruidoso, tu cerebro recupera lo que te has perdido cuando el ruido de fondo es demasiado alto, además también puede captar fragmentos del habla en los que no estás concentrado, pero sólo cuando la persona a la que escuchas es silenciosa en comparación".

Los contenidos de ConSalud están elaborados por periodistas especializados en salud y avalados por un comité de expertos de primer nivel. No obstante, recomendamos al lector que cualquier duda relacionada con la salud sea consultada con un profesional del ámbito sanitario.
Lo más leído