Uno de los acertijos perdurables de la pérdida auditiva es la disminución de la capacidad de una persona para determinar dónde se origina un sonido, una facultad clave de supervivencia que permite a los animales, desde lagartos hasta humanos, determinar la ubicación del peligro, la presa y los miembros del grupo. En los tiempos modernos, encontrar un teléfono celular perdido usando la aplicación "Find My Device", solo para descubrir que se había deslizado debajo de una almohada del sofá, se basa en pequeñas diferencias en el sonido de llamada que llega a los oídos.

A diferencia de otras percepciones sensoriales, como la sensación de que las gotas de lluvia golpean la piel o la capacidad de distinguir las notas altas de las bajas en el piano, se debe calcular la dirección de los sonidos; el cerebro los estima procesando la diferencia en el tiempo de llegada a través de los dos oídos, la llamada diferencia de tiempo interaural (ITD). Un consenso de larga data entre los ingenieros biomédicos es que los humanos localizan los sonidos con un esquema similar a un mapa espacial o brújula, con neuronas alineadas de izquierda a derecha que se disparan individualmente cuando se activan por un sonido proveniente de un ángulo dado, por ejemplo, a 30 grados hacia la izquierda desde el centro de la cabeza.

Pero en una investigación publicada este mes en la revista eLife, Antje Ihlefeld, director del Laboratorio de Ingeniería Neural para el Habla y la Audición de NJIT, propone un modelo diferente basado en un código neural más dinámico. El descubrimiento ofrece nuevas esperanzas, dice, de que algún día los ingenieros puedan diseñar audífonos, ahora notoriamente pobres para restaurar la dirección del sonido, para corregir este déficit.

"Si hay un mapa estático en el cerebro que se degrada y no se puede arreglar, eso presenta un obstáculo desalentador. Significa que las personas probablemente no puedan" volver a aprender "para localizar bien los sonidos. Pero si esta capacidad perceptiva se basa en una dinámica código neuronal, nos da más esperanza de volver a entrenar los cerebros de las personas ", señala Ihlefeld. "Programaríamos audífonos e implantes cocleares no solo para compensar la pérdida auditiva de un individuo, sino también en función de qué tan bien esa persona podría adaptarse al uso de señales de sus dispositivos. Esto es particularmente importante para situaciones con sonido de fondo, donde no hay dispositivo auditivo actualmente puede restaurar la capacidad de seleccionar el sonido objetivo. Sabemos que proporcionar pistas para restaurar la dirección del sonido realmente ayudaría ".

Lo que la llevó a esta conclusión es un viaje de trabajo de detectives académicos que comenzó con una conversación con Robert Shapley, un eminente neurofisiólogo de la Universidad de Nueva York que comentó sobre una peculiaridad de la percepción de profundidad binocular humana: la capacidad de determinar qué tan lejos está un objeto visual – eso también depende de una entrada de comparación de cómputo recibida por ambos ojos. Shapley señaló que estas estimaciones de distancia son sistemáticamente menos precisas para los estímulos de bajo contraste (imágenes que son más difíciles de distinguir de su entorno) que para las de alto contraste.

Ihlefeld y Shapley se preguntaron si el mismo principio neural se aplicaba a la localización del sonido: si es menos preciso para los sonidos más suaves que para los más fuertes. Pero esto se apartaría de la teoría del mapa espacial prevaleciente, conocida como el modelo Jeffress, que sostiene que los sonidos de todos los volúmenes se procesan, y por lo tanto se perciben, de la misma manera. Los fisiólogos, que proponen que los mamíferos confían en un modelo neural más dinámico, han estado en desacuerdo por mucho tiempo. Sostienen que las neuronas de mamíferos tienden a dispararse a diferentes velocidades dependiendo de las señales direccionales y que el cerebro luego compara estas velocidades a través de conjuntos de neuronas para construir dinámicamente un mapa del entorno de sonido.

"El desafío para probar o refutar estas teorías es que no podemos mirar directamente el código neural para estas percepciones porque las neuronas relevantes se encuentran en el tronco cerebral humano, por lo que no podemos obtener imágenes de alta resolución de ellas", dice ella. "Pero teníamos el presentimiento de que los dos modelos darían diferentes predicciones de ubicación de sonido a un volumen muy bajo".

Buscaron evidencia en la literatura y encontraron solo dos documentos que habían grabado del tejido neural con estos sonidos bajos. Un estudio se realizó en lechuzas, una especie que se cree que depende del modelo Jeffress, basado en grabaciones de alta resolución en el tejido cerebral de las aves, y el otro estudio se realizó en un mamífero, el macaco rhesus, un animal que se cree utilizar codificación de tasa dinámica. Luego reconstruyeron cuidadosamente las propiedades de activación de las neuronas registradas en estos estudios antiguos y utilizaron sus reconstrucciones para estimar la dirección del sonido tanto en función de la ITD como del volumen.

"Esperábamos que, para los datos de la lechuza común, realmente no debería importar lo fuerte que sea una fuente (la dirección del sonido pronosticada debería ser realmente precisa sin importar el volumen del sonido) y pudimos confirmar eso. Sin embargo, lo que encontramos para los datos del mono es que la dirección del sonido prevista dependía tanto de ITD como del volumen ", dijo. "Luego buscamos en la literatura humana estudios sobre la dirección del sonido percibido en función de la ITD, que también se creía que no dependía del volumen, pero sorprendentemente no encontramos evidencia que respalde esta creencia tan arraigada".

Ella y su estudiante de posgrado, Nima Alamatsaz, luego reclutaron voluntarios en el campus de NJIT para probar su hipótesis, usando sonidos para evaluar cómo afecta el volumen donde la gente piensa que surge un sonido.

"Construimos una sala extremadamente silenciosa y protegida con sonido con equipo calibrado especializado que nos permitió presentar sonidos con alta precisión a nuestros voluntarios y grabar dónde percibieron que se originaba el sonido. Y efectivamente, la gente identificó erróneamente los sonidos más suaves", señala Alamatsaz .

"Hasta la fecha, no podemos describir con precisión los cálculos de localización de sonido en el cerebro", agrega Ihlefeld. "Sin embargo, los resultados actuales son inconsistentes con la noción de que el cerebro humano depende de un cálculo similar al de Jeffress. En cambio, parece que confiamos en un mecanismo ligeramente menos preciso".

En términos más generales, dicen los investigadores, sus estudios apuntan a paralelos directos en la percepción auditiva y visual que se han pasado por alto hasta ahora y que sugieren que la codificación basada en la velocidad es una operación básica subyacente al calcular las dimensiones espaciales de dos entradas sensoriales.

"Debido a que nuestro trabajo descubre principios unificadores a través de los dos sentidos, anticipamos que las audiencias interesadas incluirán científicos cognitivos, fisiólogos y expertos en modelos computacionales tanto en audición como en visión", dice Ihlefeld. "Es fascinante comparar cómo el cerebro usa la información que llega a nuestros ojos y oídos para dar sentido al mundo que nos rodea y descubrir que dos percepciones aparentemente desconectadas, la visión y la audición, pueden ser bastante similares después de todo".

Dejar respuesta

Please enter your comment!
Please enter your name here