Radio JAI

La Radio Judía de Latinoamérica

DONAR

Cómo hace el cerebro para procesar múltiples conversaciones a la vez?

Investigadores de Israel se acercan un paso más a comprender cómo el cerebro procesa múltiples conversaciones a la vez.

Llevar a cabo una conversación en un lugar ruidoso puede ser un desafío cuando otras conversaciones y ruidos de fondo interfieren con nuestra capacidad para centrar la atención en nuestro interlocutor.

La forma en que el cerebro se ocupa de la abundancia de sonidos en nuestros entornos y prioriza entre ellos ha sido un tema de debate entre los neurocientíficos cognitivos durante muchas décadas.

A menudo conocido como el “problema del cóctel”, la pregunta se centra en si podemos absorber información de varios oradores en paralelo, o si estamos limitados a comprender el habla de un solo orador a la vez.

Una de las razones por las que esta pregunta es difícil de responder es que la atención es un estado interno al que los investigadores no pueden acceder directamente.

Al medir la actividad cerebral de los oyentes mientras intentan centrar la atención en un solo orador e ignorar uno que no es relevante para la tarea, podemos obtener información sobre las operaciones internas de atención y cómo el cerebro representa y procesa estos estímulos del habla en competencia.

En un estudio publicado recientemente en la revista eLife, los investigadores de Israel se propusieron explorar si las palabras y frases se identifican lingüísticamente o simplemente se representan en el cerebro como “ruido acústico”, sin aplicar ningún procesamiento lingüístico adicional.

“Responder a esta pregunta nos ayuda a comprender mejor la capacidad y las limitaciones del sistema de procesamiento del habla humano.

También da una idea de cómo la atención nos ayuda a lidiar con la multitud de estímulos en nuestro entorno. Esto nos ayuda a concentrarnos principalmente en la tarea en cuestión, al mismo tiempo que monitoreamos lo que sucede a nuestro alrededor”, dice la Doctora Elana Zion Golumbic.

Golumbic y su equipo midieron la actividad cerebral de humanos mientras escuchaban dos estímulos del habla, cada uno presentado a un oído diferente.

Se indicó a los participantes que centraran su atención en el contenido de un orador y que ignoraran al otro.

Los investigadores encontraron evidencia de que el llamado discurso desatendido, generado a partir de conversaciones de fondo y ruido, se procesa tanto a nivel acústico como lingüístico, con respuestas observadas en áreas auditivas y relacionadas con el lenguaje del cerebro.

Además, encontraron que la respuesta del cerebro al hablante asistido en las regiones del cerebro relacionadas con el lenguaje era más fuerte cuando “competía” con otro habla (en comparación con la competencia sin habla).

Esto sugiere que las dos entradas del habla compiten por los mismos recursos de procesamiento, lo que puede ser la base del mayor esfuerzo de escucha necesario para mantenerse concentrado cuando muchas personas hablan a la vez.

El estudio contribuye a los esfuerzos por comprender cómo el cerebro se ocupa de la abundancia de entradas auditivas en nuestro entorno.

Tiene implicaciones teóricas sobre cómo entendemos la naturaleza de la selección atencional en el cerebro.

También tiene un potencial de aplicación sustancial para guiar el diseño de dispositivos de asistencia inteligentes para ayudar a las personas a enfocar mejor su atención o navegar en entornos ruidosos.

Los métodos desarrollados aquí también proporcionan un nuevo enfoque útil para probar la base de las diferencias individuales en la capacidad de centrar la atención en entornos ruidosos.

 

Fuente: LatamIsrael

Créditos de las imágenes: Helena Yankovska.

Reproducción autorizada citando la fuente con el siguiente enlace Radio Jai

Ayuda a RadioJAI AHORA!
HAZ CLIC AQUÍ PARA HACER UNA DONACIÓN