La nuova mappa cerebrale dei significati cambia le nostre idee sulla memoria

Articolo del 27 Febbraio 2022

I ricercatori hanno associato centinaia di categorie semantiche a piccole aree della corteccia, che le rappresentano in modo linguistico o visivo. Quello che hanno scoperto potrebbe cambiare la nostra visione della memoria.

Spesso pensiamo alla memoria come a una ripetizione del passato, una duplicazione mentale di eventi e sensazioni che abbiamo vissuto. Nel cervello, corrisponderebbe agli stessi schemi di attività neurale che si esprimono di nuovo: ricordare il volto di una persona, per esempio, potrebbe attivare gli stessi schemi neurali di quelli attivati dal vedere il suo volto. E in effetti, in alcuni processi di memoria, accade qualcosa del genere.

Tuttavia negli ultimi anni i ricercatori hanno ripetutamente trovato sottili ma significative differenze tra le rappresentazioni visive e quelle della memoria, con queste ultime che si presentano coerentemente in luoghi leggermente diversi del cervello. Gli scienziati non erano sicuri su cosa fare di questa trasformazione: che funzione aveva, e che cosa significava per la natura della memoria stessa?

Ora, in una ricerca incentrata sul linguaggio invece che sulla memoria, potrebbero aver trovato una risposta.

Un gruppo di neuroscienziati ha creato una mappa semantica del cervello che ha mostrato in modo molto dettagliato quali aree della corteccia rispondono alle informazioni linguistiche per una vasta gamma di concetti, da volti e luoghi a relazioni sociali e fenomeni atmosferici. Quando hanno confrontato quella mappa con una che mostrava dove il cervello rappresenta le categorie di informazioni visive, hanno osservato differenze significative tra i due modelli.

E queste differenze somigliavano esattamente a quelle riportate negli studi sulla visione e la memoria.

La scoperta, pubblicata su “Nature Neuroscience” lo scorso ottobre, suggerisce che in molti casi un ricordo non è un facsimile di percezioni passate che viene riprodotto. Invece, è più una ricostruzione dell’esperienza originale, basata sul suo contenuto semantico.

Questa intuizione potrebbe aiutare a spiegare perché la memoria è così spesso una registrazione imperfetta del passato, e potrebbe fornire una migliore comprensione di ciò che significa davvero ricordare qualcosa.

Un mosaico di significati

Il nuovo lavoro sulla semantica era completamente indipendente dal lavoro sulla memoria: le due ricerche erano effettuate all’incirca nello stesso periodo, ma ai lati opposti degli Stati Uniti.

Nel 2012, Jack Gallant, neuroscienziato computazionale e cognitivo all’Università della California a Berkeley, aveva trascorso la maggior parte di un decennio a sviluppare strumenti e modelli di MRI (risonanza magnetica) funzionale per studiare il sistema visivo umano. Poiché le macchine fMRI possono misurare i cambiamenti nel flusso sanguigno e nell’attività elettrica del cervello, i neuroscienziati spesso le usano per studiare quali parti della corteccia rispondono a stimoli diversi.

Alex Huth a quel tempo specializzando di Gallant, ha usato le tecniche all’avanguardia del laboratorio Gallant per analizzare dove il cervello potrebbe codificare diversi tipi di informazioni visive. Huth, Gallant e i loro colleghi hanno fatto guardare ai partecipanti ore di video silenziosi all’interno di uno scanner fMRI. Poi, segmentando i dati in record per volumi di tessuto cerebrale della grandezza di un pisello chiamati voxel, hanno analizzato le scansioni per determinare dove centinaia di oggetti e azioni erano rappresentati nella corteccia.

Hanno così trovato modelli molto coerenti in tutti i partecipanti, modelli che formavano una mappa generale del significato visivo. Lo studio ha confermato l’identità di alcune regioni della corteccia visiva che erano già note da ricerche precedenti, come le aree selettivamente sensibili ai volti o ai luoghi. Ma ha anche rivelato per la prima volta centinaia di altre aree selettive: regioni che rispondevano a immagini di animali, membri della famiglia, scene interne, scene esterne, persone in movimento e altro.

Huth non si è fermato qui. Lui e il suo gruppo hanno deciso di provare a ottenere qualcosa di simile usando però il linguaggio invece di stimoli visivi. Hanno fatto ascoltare alle persone ore di registrazioni in podcast, e poi hanno valutato come il loro cervello aveva risposto alle centinaia di concetti che avevano sentito in quelle storie. La rete semantica che i ricercatori hanno realizzato e riportato su “Nature” nel 2016 – un’altra mappa patchwork, un mosaico di significati che tappezzava ampie fasce della corteccia – era “una cosa davvero nuova” a questa scala e dimensionalità, ricorda Gallant. “Nessuno la stava cercando.”

Con queste due mappe corticali in mano, si sono resi conto che gli studi avevano coivolto alcuni degli stessi partecipanti. “È stato solo un felice incidente”, nota Huth, che ora è professore assistente di neuroscienze e informatica all’Università del Texas ad Austin. Ma ha indicato loro la strada per chiedersi: come sono collegate le rappresentazioni visive e linguistiche?

Precedenti studi di imaging avevano identificato regioni approssimative di sovrapposizione, il che aveva senso: noi esseri umani assegniamo etichette a ciò che percepiamo nel mondo, quindi è giusto che il nostro cervello combini queste rappresentazioni. Ma Huth e i suoi colleghi hanno adottato un approccio più preciso. Hanno modellizzato ciò a cui ogni singolo voxel aveva risposto tra quasi 1000 categorie semantiche trovate sia nei video che negli stimoli linguistici.

Come nella ricerca precedente, hanno trovato prove di sovrapposizione. Ma poi Huth ha notato qualcosa di strano.

Aveva realizzato una visualizzazione dei dati del 2016 che gli permetteva di “toccare” ogni voxel per vedere a quali categorie linguistiche rispondeva. Quando ha ingrandito su una regione selettiva per i luoghi, si è reso conto che solo i voxel sul bordo anteriore della regione, più vicino alla parte anteriore del cervello, rappresentavano parole di luogo: appartamento, casa, auto, pavimento, fattoria, California. La parte posteriore della regione non rappresentava affatto quelle informazioni linguistiche.

“Questo ci ha portato a pensare che forse c’era qualcosa di più interessante che stava succedendo lì”, dice Huth.

Una zona di transizione ordinata

Così Huth ha ripreso in mano i dati dei suoi esperimenti di visione del 2012 e ha visto che in questa zona selettiva della corteccia, la parte posteriore rispondeva esclusivamente a immagini relative al luogo. Quando ha guardato nelle aree più vicine alla parte anteriore, erano rappresentate sia le immagini sia le parole del luogo, fino a quando, al confine della regione, solo le parole evocavano l’attività cerebrale, proprio come aveva visto quando giocherellava con la sua visualizzazione del 2016. Sembrava che in appena un paio di centimetri di corteccia ci fosse un passaggio graduale e continuo dalle rappresentazioni visive dei luoghi alle rappresentazioni linguistiche.

“Era sorprendentemente chiaro”, osserva Huth. “È stato questo l’eccitante momento ‘aha’, quando si è visto saltar fuori questo modello.”

Per testare quanto sistematico potesse essere il modello, Sara Popham, allora specializzanda nel laboratorio di Gallant, ha sviluppato per il gruppo un’analisi statistica che ha cercato questi gradienti lungo il confine della corteccia visiva. Li ha trovati ovunque. Per ognuna delle centinaia di categorie studiate negli esperimenti, le rappresentazioni si allineavano in zone di transizione che formavano un nastro quasi perfetto intorno all’intera corteccia visiva. “C’è una corrispondenza tra ciò che accade dietro il confine e ciò che accade davanti al confine”, dice Gallant.

Già da solo questo allineamento era notevole. “Di fatto è raro vedere confini e regioni delineati nel cervello”, ricorda Wilma Bainbridge, psicologo all’Università di Chicago, che non è stata coinvolta nello studio. “Non ho mai visto nulla di simile.”

Anche il modello si presentava sistematicamente nei diversi soggetti, apparendo più e più volte per ogni partecipante. “Questo confine reale nel cervello sembra essere un principio organizzativo generale”, aggiunge Adam Steel, borsista post-dottorato che studia la percezione e la memoria al Dartmouth College.

Il modello mostra come la corteccia visiva si interfaccia con il resto della corteccia attraverso questi gradienti: molti canali paralleli sembrano preservare il significato nei diversi tipi di rappresentazioni. Nei modelli gerarchici di elaborazione visiva, il cervello estrae prima caratteristiche specifiche come i bordi e i contorni, poi le combina per costruire rappresentazioni più complesse. Ma non è chiaro come queste rappresentazioni complesse diventino sempre più astratte. Certo, i dettagli visivi potrebbero essere messi insieme per creare un’immagine, per esempio, di un gatto. Ma come fa quell’immagine finale a essere assegnata alla categoria concettuale dei “gatti”?

Ora, questo lavoro suggerisce come questa progressione da specificità visive ad astrazioni più spinte potrebbe iniziare ad avvenire a un livello più “granulare”. “Stiamo incollando una parte del cervello che comprendiamo davvero bene a un’altra che capiamo a malapena”, dice Gallant. “E quello che vediamo è che i principi del design non stanno cambiando molto.”

Infatti, una teoria tradizionale dell’organizzazione del cervello postula che le rappresentazioni della conoscenza semantica avvengano in una regione dedicata, un centro di comando simile a un hub che riceve informazioni da vari sistemi, compresi quelli percettivi. Ma i risultati del gruppo di Gallant suggeriscono che queste diverse reti potrebbero essere troppo intimamente intrecciate per essere separabili. “La nostra comprensione, la nostra conoscenza delle cose, è in realtà in qualche modo incorporata nei sistemi percettivi”, spiega Chris Baker del National Institute of Mental Health.

Questa scoperta potrebbe avere implicazioni su come si sviluppa la conoscenza astratta del mondo da parte degli esseri umani. Forse, dice Huth, le rappresentazioni basate sul linguaggio sono in parte modellate su quelle percettive, e questo allineamento è funzionale a un meccanismo utile a farle emergere. Le capacità percettive di varie regioni del cervello potrebbero in effetti “dettare la struttura emergente di uno spazio concettuale più ampio”, osserva Ev Fedorenko, neuroscienziato cognitivo al Massachusetts Institute of Technology. Forse questo potrebbe anche dirci qualcosa sulla natura del significato stesso. “Che cos’è il significato?”, si chiede. “Forse è più ‘incarnato’ di quanto alcuni abbiano sostenuto.”

Ma la cosa più affascinante è che questa transizione graduale tra tipi di rappresentazioni nella corteccia riecheggia recenti scoperte sul rapporto tra percezione e memoria.

Registrazioni di significati, non di percezioni

Nel 2013, Christopher Baldassano, neuroscienziato cognitivo alla Columbia University, ha trovato un modello suggestivo quando ha osservato l’attività neurale in un’area nota per rispondere selettivamente ai luoghi. I modelli di attività verso la parte posteriore della regione erano correlati a modelli che caratterizzavano una rete visiva nota, mentre l’attività nella parte anteriore della regione sembrava essere più legata all’attività di una rete di memoria.

Ciò ha suggerito che le rappresentazioni mnemoniche potrebbero comportare non una riattivazione esatta, ma piuttosto un sottile spostamento attraverso il “patrimonio immobiliare” della corteccia, in una posizione immediatamente adiacente a quella in cui si trova la corrispondente rappresentazione visiva.

Nell’ultimo anno, diversi nuovi studi – tra cui la ricerca di Bainbridge, Baker, Steel e Caroline Robertson del Dartmouth College – hanno rafforzato questa scoperta confrontando direttamente l’attività cerebrale delle persone mentre guardavano e poi ricordavano o immaginavano varie figure. In tutti i casi, una trasformazione spaziale sistematica segnava la differenza tra le rappresentazioni sensoriali e mnemoniche del cervello. E le rappresentazioni visive apparivano appena dietro quelle mnemoniche associate, proprio come nello studio di Huth basato sul linguaggio.

Come quello studio, anche questo sembrava indicare che la percezione e la memoria sono profondamente intrecciate. “Non ha senso pensare al nostro sistema di memoria come a uno spazio di lavoro totalmente separato”, dice Baldassano.

“Molte persone hanno l’idea intuitiva che l’esperienza percettiva sia come una fiamma ruggente, e l’esperienza della memoria sia come una candela tremolante”, nota Brice Kuhl, neuroscienziato dell’Università dell’Oregon. Ma i ricordi chiaramente non sono solo un’eco più debole dell’esperienza originale. Gli spostamenti fisici visti in questi recenti esperimenti suggeriscono invece che i cambiamenti sistematici nelle rappresentazioni stesse codificano un’esperienza che è completamente distinta ma ancora legata all’originale.