Desde una perspectiva simplista los amantes de los libros en papel no aceptamos los audiolibros como “libros”, ese objeto de deseo por el que muchos vivimos. Radicales de las páginas, las palabras escuchadas en audio no parecen tener esa voz interior que madura con nosotros a medida que crecemos. Pero parece que esta aversión es cultural: nuestro cerebro no distingue la fuente de las palabras.

Un reciente estudio publicado en la revista The Journal of Neuroscience parece indicar que no importa cuál sea la modalidad del estímulo por el que entran las palabras. Lo que de verdad importa es cómo se distribuye la información semántica en la corteza cerebral, es decir, cómo se almacena la información en nuestro cerebro. Y esto tiene miga. Spoiler: leer audiolibros no es hacer trampas.

cerebro incapaz de distinguir audiolibro libro voxeles

Así guardamos palabras en el cerebro

El estudio es como sigue. Se realizan escáneres cerebrales en tiempo real a nueve participantes que leen o escuchan el mismo volumen. En este caso una serie de historias de ‘The Moth Radio Hour’, una librería de podcast. Mediante una técnica de radiología llamada fMRI (imagen por resonancia magnética funcional) va detectando la actividad cerebral según se van leyendo las palabras.

Abajo tenemos un ejemplo de un estudio previo publicado en 2016. Cada vez que el oyente o lector lee “humanos”, “castigo” o “asesino”, se ilumina la parte del cerebro asociada a ese concepto. Y ahí está lo interesante. Todo parece indicar que las palabras son almacenadas en un espacio determinado al que no le importa mucho el origen de los datos: audio e imágenes le son indiferentes.

mapa del cerebro mediante fMRI

Dejando a un lado lo preocupante que resulta que las palabras “muerte”, “asesino” y “castigo” se guarden en la misma estantería cerebral que “humanos” (Pero, ¿¿qué??), el estudio de 2016 que puede leerse en Nature tiene una representación tridimensional en este mapa interactivo. Es bastante curioso y merece la pena pasar un tiempo haciendo clic en sus puntos.

El fatídico estudio que eleva los audiolibros

En 2016 se demostró cómo el cerebro iba almacenando la información y construyendo una biblioteca de significados en forma de términos relacionados, de manera que en el mismo espacio cerebral podían almacenarse varios términos con significados “comunes” (entre comillas). Estos espacios, de los que se clasificó unos 60.000, reciben el nombre de vóxeles.

Pero el estudio de 2019 da una vuelta de tuerca al comparar audio e imagen. El análisis de los datos de cada vóxel demuestra que el cerebro activa las mismas regiones con la misma intensidad sin importar el método de entrada. Ojos u oídos le dan lo mismo, y personalmente me pongo a extrapolar que los métodos de entrada táctil (lenguaje braille) tampoco encontrará diferencia.

Resulta que leer un audiolibro es leer a fin y al cabo, al menos si hablamos de nivel de comprensión y almacenamiento de información. Tanto leer como escuchar activa las mismas zonas cerebrales (vóxeles) de significados. Los resultados de Fatma Deniz, autora principal del estudio, da la razón a hipótesis previas de neurocientíficos como David Eagleman.

El cerebro multipropósito

cerebro voxeles

Que a los vóxeles les de igual el método de introducción de entrada de datos da pie a pensar en el cerebro como una máquina multipropósito a la que entradas y salidas le dan más o menos lo mismo. La masa gris es tan capaz de imaginar “humano” tanto si el concepto se escucha como si se lee con los ojos.

Dice Deniz en sus conclusiones que habrá que analizar estos datos con cuidado, pero que pueden dar lugar a muchos más experimentos futuros. No me cabe duda. Esta científico asociada a la Universidad de California ha enlazado a través del significado de las palabras cómo el camino de entrada importa poco.

Lo importante es que la información entra, se procesa, y almacena en el lugar correcto incluso cuando viene de audiolibros, y esto podría abrir nuevos caminos tanto para pacientes incapaces de moverse como de personas que requieran añadir un “conector” extra, como hablar con un ordenador.

Aunque de momento hemos de ser cautos. Los resultados primero han de reproducirse en un experimento similar y, solo si coinciden, podremos dar el siguiente paso en la entrada de datos al cerebro. Quizá en la próxima década descubramos cómo y por qué surge el significado de las palabras y cómo almacenamos cada una a través de enlaces químicos. El futuro es apasionante.

Imágenes | Konstantin Dyadyun, Gallant Lab, Mohamed MAZOUZ

Estudio 2016 | Natural speech reveals the semantic maps that tile human cerebral cortex

Estudio 2019 | The representation of semantic information across human cerebral cortex during listening versus reading is invariant to stimulus modality

Comentarios

comentarios