Immagine concettuale del cervello umano che elabora musica, con note musicali e onde cerebrali interconnesse. Stile fotorealistico, obiettivo prime 50mm, profondità di campo, illuminazione drammatica per evidenziare le connessioni neurali.

Il Cervello Svela il Suo Codice: Come Azione e Percezione Parlano la Stessa Lingua (Musicale!)

Avete mai pensato a come il nostro cervello riesca a fare cose apparentemente semplici, come battere le mani a tempo o immaginare il suono di una melodia che stiamo per suonare? Sembra quasi magia, vero? Eppure, dietro questa “magia” c’è un meccanismo incredibilmente sofisticato che gli scienziati chiamano accoppiamento azione-percezione. In pratica, è la capacità del nostro cervello di collegare ciò che facciamo (un’azione) con ciò che ne consegue a livello sensoriale (una percezione). Pensate a un musicista esperto: quando osserva qualcuno suonare il pianoforte, anche senza sentire il suono, la sua corteccia uditiva si attiva! È un po’ come se il cervello “sentisse” la musica solo guardando i movimenti.

Ebbene, con un team di ricercatori, ci siamo tuffati in questa affascinante domanda: ma questo legame si basa su rappresentazioni neurali condivise? Esiste, per così dire, un “codice comune” nel cervello per l’azione e la percezione? Per scoprirlo, abbiamo pensato di usare la musica, un linguaggio universale e un modello perfetto per studiare queste connessioni.

La Musica Come Chiave di Volta

Imparare a suonare uno strumento musicale è un esempio lampante di come azione e percezione si intreccino. I musicisti, con anni di pratica, sviluppano associazioni fortissime e bidirezionali tra i movimenti delle dita e i suoni prodotti. Possono “sentire” la musica che stanno per suonare e, viceversa, ascoltare una melodia può quasi far muovere le loro dita. È un po’ come se il cervello avesse una scorciatoia neurale super efficiente.

Studi precedenti hanno già mostrato cose incredibili. Ad esempio, se si fa ascoltare a dei non musicisti, dopo un breve addestramento al pianoforte, una melodia che hanno imparato, la loro corteccia premotoria (un’area legata al movimento) si attiva di più rispetto a quando ascoltano musica nuova. Questo ci dice che l’allenamento è fondamentale per creare questi legami. E non solo: l’immaginazione gioca un ruolo cruciale. Pensate agli atleti che visualizzano la loro performance o ai musicisti che provano mentalmente un brano. Questa “prova mentale” attiva circuiti neurali simili a quelli usati durante l’azione reale.

Ma la domanda da un milione di dollari rimaneva: questa sovrapposizione di attività cerebrale significa che c’è una rappresentazione condivisa, un vero e proprio “codice comune” per, diciamo, suonare una nota e ascoltare quella stessa nota? Per rispondere, abbiamo dovuto spingerci oltre le analisi tradizionali.

L’Esperimento: Melodie Appena Imparate Sotto la Lente dell’fMRI

Ecco cosa abbiamo combinato. Abbiamo reclutato un gruppo di partecipanti, tutti rigorosamente non musicisti, per evitare che esperienze pregresse influenzassero i risultati. Il primo giorno, li abbiamo addestrati a suonare due melodie specifiche al pianoforte, composte apposta per il nostro studio. Erano melodie semplici, da suonare con una mano, ma distinte tra loro. I partecipanti si sono esercitati finché non sono stati in grado di suonarle a memoria, senza guardare i tasti e persino immaginando il suono mentre suonavano senza feedback uditivo.

Il giorno dopo, li abbiamo messi comodi in una macchina per la risonanza magnetica funzionale (fMRI), uno strumento che ci permette di vedere quali aree del cervello si attivano misurando il flusso sanguigno. Dentro lo scanner, i partecipanti avevano una piccola tastiera da pianoforte compatibile con la fMRI. A questo punto, abbiamo creato due condizioni principali:

  • Condizione “Suonare”: I partecipanti suonavano le melodie imparate, ma senza alcun suono proveniente dal pianoforte. Dovevano però immaginare intensamente il suono che stavano producendo.
  • Condizione “Ascoltare”: I partecipanti ascoltavano le stesse melodie (questa volta con il suono!), ma senza muovere le dita. Dovevano, però, immaginare i movimenti delle dita necessari per suonarle.

L’idea era di vedere se il cervello “parlava la stessa lingua” in entrambe le situazioni.

Visualizzazione artistica di un cervello umano con onde sonore colorate che emanano dalla corteccia uditiva e motoria, simboleggiando l'integrazione azione-percezione. Illuminazione controllata, dettagli elevati, obiettivo macro 90mm.

Cosa Abbiamo Scoperto: Il “Codice Comune” Esiste!

Per analizzare i dati dell’fMRI, non ci siamo limitati a vedere quali aree si accendevano, ma come si accendevano. Abbiamo usato una tecnica chiamata Analisi Multivariata dei Pattern (MVPA). Pensatela come un investigatore super intelligente (un algoritmo di machine learning) a cui insegniamo a riconoscere i “disegni” di attività cerebrale specifici per ciascuna melodia. Se l’investigatore riesce a distinguere le due melodie basandosi solo sull’attività cerebrale, significa che quella regione del cervello contiene informazioni specifiche su quella melodia.

E i risultati sono stati entusiasmanti!
Innanzitutto, come ci aspettavamo, abbiamo visto una sovrapposizione di attività in aree uditive e motorie (come il giro temporale superiore – STG, e la corteccia premotoria dorsale e ventrale – PMD e PMV) in entrambe le condizioni. Questo già ci diceva che queste aree erano coinvolte sia nell’ascolto con immaginazione motoria sia nel suonare con immaginazione uditiva.

Ma il vero colpo di scena è arrivato con la classificazione incrociata (cross-modale). Qui abbiamo fatto un passo in più: abbiamo addestrato il nostro “investigatore” (l’algoritmo) a riconoscere le melodie basandosi sull’attività cerebrale durante, ad esempio, la condizione “Ascoltare”. Poi, gli abbiamo chiesto di provare a indovinare quale melodia il partecipante stesse processando guardando l’attività cerebrale della condizione “Suonare” (e viceversa). Se l’investigatore ci riusciva (cioè, se la classificazione era significativamente superiore al caso), significava che il “disegno” di attivazione, il codice neurale per quella melodia, era simile in entrambe le condizioni!

Ebbene, è successo! In particolare, nella corteccia premotoria destra (PMD e PMV destre), siamo riusciti a classificare le melodie in modo incrociato. Questo è un forte indizio che in queste aree si è formato un “codice comune” per l’azione (suonare) e la percezione (ascoltare) delle melodie appena imparate. È come se, dopo l’addestramento, il cervello avesse creato una rappresentazione astratta della melodia che può essere “letta” sia quando la si ascolta immaginando di suonarla, sia quando la si suona immaginando di ascoltarla.

Curiosamente, questo effetto era più marcato nell’emisfero destro. Anche se i partecipanti suonavano con la mano destra (controllata principalmente dall’emisfero sinistro), l’integrazione tra suono e movimento per queste sequenze melodiche sembrava fare più affidamento sull’emisfero destro, noto per essere più coinvolto nell’elaborazione musicale.

Implicazioni e Prospettive Future

Questi risultati sono importanti perché non solo confermano il principio del “common coding”, ma lo estendono a sequenze di azioni più complesse, come suonare una melodia, e non solo a singole azioni isolate, come era stato fatto in molti studi precedenti. Dimostra che il nostro cervello è incredibilmente plastico e può creare queste rappresentazioni condivise anche con un addestramento relativamente breve.

Certo, abbiamo notato delle differenze individuali. Non tutti i partecipanti mostravano questo effetto di “codice comune” con la stessa forza o nelle stesse identiche aree, e questo non sembrava dipendere dalla loro abilità uditiva di base. Forse un periodo di addestramento più lungo potrebbe consolidare queste associazioni in modo più robusto e omogeneo. È anche possibile che, all’inizio dell’apprendimento, azione e percezione abbiano codici separati, e che solo con la pratica e la co-attivazione ripetuta questi circuiti si “uniscano” per formare un codice più astratto e integrato, un po’ come suggeriva la vecchia ma sempre valida teoria di Donald Hebb (“neuroni che scaricano insieme, si legano insieme”).

Interno di uno scanner fMRI con una tastiera di pianoforte compatibile con la RM posizionata per un partecipante. Focus preciso sulla tastiera e sull'ambiente high-tech dello scanner. Obiettivo prime 35mm, profondità di campo.

Un altro aspetto interessante è che, mentre la corteccia premotoria sinistra era attiva e mostrava pattern specifici per le melodie all’interno di ciascuna condizione (ascolto o suono), non mostrava questa generalizzazione cross-modale. Questo potrebbe suggerire che il cervello mantiene in parallelo sia codici specifici per la modalità (come ascolto o azione) sia codici condivisi, magari lateralizzando queste diverse forme di rappresentazione. Una strategia intelligente per integrare ma non confondere azione e percezione!

Le aree uditive (STG) mostravano pattern distinti per le melodie durante l’ascolto, ma non durante il “suonare immaginando il suono”. Forse l’immaginazione uditiva è più “rumorosa” o variabile, specialmente nei non musicisti e con il rumore dello scanner, rendendo più difficile per il nostro algoritmo trovare pattern consistenti.

In sintesi, il nostro studio aggiunge un tassello importante alla comprensione di come il cervello impari nuove abilità e di come integri le informazioni provenienti dai sensi con le azioni motorie. Abbiamo dimostrato che è possibile stabilire rappresentazioni specifiche per sequenze complesse con un breve addestramento e, soprattutto, che nella corteccia premotoria destra emerge un vero e proprio “codice comune” tra l’ascoltare e il suonare (immaginato) queste sequenze.

La strada della ricerca è ancora lunga. Sarebbe affascinante esplorare come queste rappresentazioni si evolvono con un addestramento più prolungato, o in musicisti esperti, e come fattori individuali possano influenzare la formazione di questi codici neurali. Ma per ora, possiamo dire con un po’ più di certezza che quando impariamo qualcosa di nuovo, specialmente se coinvolge azione e percezione come la musica, il nostro cervello non si limita a creare due “file” separati, ma cerca di trovare un linguaggio comune, un codice elegante ed efficiente per navigare il mondo. E questo, lasciatemelo dire, è davvero affascinante!

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *