Se non hai tempo di sederti e leggere un libro fisico, ascoltare la versione audio è considerato un imbroglio? Per alcuni nerd di libri hardcore, potrebbe esserlo. Ma nuove prove suggeriscono che, per il nostro cervello, leggere e ascoltare una storia potrebbe non essere così diverso.
In uno studio pubblicato sul Journal of Neuroscience, i ricercatori del Gallant Lab della UC Berkeley hanno scansionato il cervello di nove partecipanti mentre leggevano e ascoltavano una serie di racconti da “The Moth Radio Hour”. Dopo aver analizzato come ogni parola è stata elaborata nella corteccia cerebrale, hanno creato mappe del cervello dei partecipanti, notando le diverse aree che hanno aiutato a interpretare il significato di ogni parola.
Hanno tracciato i risultati in un diagramma interattivo, che dovrebbe essere pubblicato sul sito web del Gallant Lab questa settimana.
Guardando le scansioni del cervello e l’analisi dei dati, i ricercatori hanno visto che le storie hanno stimolato le stesse aree cognitive ed emotive, indipendentemente dal loro mezzo. Si sta aggiungendo alla nostra comprensione di come il nostro cervello dia un significato semantico alle lettere ghirigori e agli scoppi di suono che compongono la nostra comunicazione.
Questo è il tuo cervello sulle parole
Nel 2016, i ricercatori del Gallant Lab hanno pubblicato la loro prima mappa interattiva del cervello di una persona dopo aver ascoltato due ore di storie da “The Moth”. Si tratta di un diagramma vivace e color arcobaleno di un cervello diviso in circa 60.000 parti, chiamate voxel.
Codificare e analizzare i dati in ogni voxel ha aiutato i ricercatori a visualizzare quali regioni del cervello elaborano certi tipi di parole. Una sezione ha risposto a termini come “padre”, “rifiutato” e “risposato” – parole sociali che descrivono eventi drammatici, persone o tempo.
Ma lo studio più recente, che ha confrontato i cervelli quando stavano ascoltando e leggendo, ha mostrato che le parole tendono ad attivare le stesse regioni del cervello con la stessa intensità, indipendentemente dall’input.
È stata una scoperta che ha sorpreso Fatma Deniz, un ricercatore post-dottorato al Gallant Lab e autore principale dello studio. I cervelli dei soggetti stavano creando significato dalle parole nello stesso modo, indipendentemente dal fatto che stessero ascoltando o leggendo. Infatti, le mappe cerebrali per entrambi gli input uditivi e visivi che hanno creato dai dati sembravano quasi identiche.
Il loro lavoro fa parte di uno sforzo più ampio per capire quali regioni del nostro cervello aiutano a dare significato a certi tipi di parole.
Più lavoro a venire
Deniz vuole portare l’esperimento ancora oltre, testando su una gamma più ampia di soggetti. Vuole includere partecipanti che non parlano inglese, parlano più lingue o hanno disturbi di elaborazione uditiva o dislessia. Scoprire esattamente come il cervello dà significato alle parole potrebbe alimentare esperimenti per anni.
“Questo può andare per sempre … è una domanda fantastica”, dice. “Sarebbe fantastico capirne tutti gli aspetti. E questo sarebbe l’obiettivo finale.”
Per ora, Deniz dice che i risultati di questo studio potrebbero essere un caso per le persone che lottano con la lettura o l’ascolto di avere accesso alle storie in diversi formati. I bambini che crescono con la dislessia, per esempio, potrebbero beneficiare di audiolibri che sono facilmente disponibili in classe.
E se l’ascolto di audiolibri è il vostro metodo preferito di narrazione, potreste non barare affatto. Infatti, sembra che tu non stia perdendo nulla scaricando i libri sul tuo telefono – stai solo facendo il lettore intelligente, ehm, l’ascoltatore.
Si può dire che non stai imbrogliando.