Concetto astratto di scienza rappresentata in modo problematico, una lente d'ingrandimento che distorce un testo scientifico su una scrivania, o un grafico complesso semplificato su un post-it colorato, obiettivo macro 60mm, illuminazione drammatica laterale per creare ombre lunghe, alta definizione.

Rappresentare la Scienza: Un Autogol?

Introduzione: La Scienza come Bacchetta Magica?

Parliamoci chiaro: chi non vorrebbe una formula magica per migliorare l’educazione? Negli ultimi tempi, sentiamo spesso parlare di “scienza dell’apprendimento”, quasi fosse la risposta definitiva a tutti i problemi della scuola. In Australia, come già successo in Inghilterra, c’è una spinta enorme per basare la formazione dei futuri insegnanti su principi scientifici ben definiti, presentati come universalmente validi. L’idea è quella di creare insegnanti “più efficaci” fin da subito, armati di strategie “evidence-based”. Bello, no? Forse. Ma come spesso accade, quando si gratta un po’ la superficie, le cose si fanno più complesse e, lasciatemelo dire, decisamente più interessanti.

Mi sono imbattuto in un dibattito acceso che ruota attorno al recente Scott Report australiano e al lavoro dell’Australian Education Research Organisation (AERO). Questi documenti spingono forte su concetti come l’istruzione esplicita, la gestione del carico cognitivo, il mastery learning, presentandoli come il Vangelo scientifico per ogni insegnante, in ogni materia e con ogni tipo di studente. Il tutto nasce da quella che ormai viene definita la “PISA panic”, l’ansia da risultati scolastici internazionali in calo, che porta a cercare colpevoli (spesso insegnanti e scuole) e soluzioni rapide.

Il Contesto: Riforme Globali e Colpe Facili

Non è un segreto che l’Australia, come molti altri paesi, sia da tempo influenzata dal Global Education Reform Movement (GERM). Questo approccio, diciamolo, ha un sapore molto neoliberista: spinge verso la mercatizzazione dell’istruzione, favorisce consulenti privati e think-tank conservatori a discapito della ricerca accademica tradizionale, e vede l’educazione più come un bene individuale per farsi strada che come un bene sociale. Si punta tutto sui test standardizzati, ignorandone spesso i danni, e si finisce per dare la colpa dei fallimenti sistemici (come la carenza di insegnanti qualificati o l’aumento delle disuguaglianze) proprio a chi sta in prima linea: scuole e docenti.

In questo quadro, lo Scott Report propone un approccio “bastone e carota”: le università che formano gli insegnanti dovranno adottare queste pratiche “evidence-based” dettate da AERO, altrimenti rischiano di perdere l’accreditamento. Un bel modo per standardizzare e, secondo alcuni critici come Lupton e Hayes, per de-professionalizzare ulteriormente il lavoro docente, prescrivendo cosa e come insegnare in modo molto rigido.

Le Prove “Fondamentali”: Davvero Così Solide?

Ma veniamo al dunque. Su cosa si basa questa ferrea convinzione nell’efficacia universale di questi metodi didattici derivati dalle scienze cognitive? Il rapporto Scott e il suo documento preparatorio (il Discussion Paper) citano AERO come fonte principale e nominano cinque lavori “seminali” che dovrebbero costituire la prova regina. Questi lavori includono:

  • Perry et al. (2021) Cognitive science in the classroom: Evidence and practice review.
  • Deans for Impact (2015) The science of learning.
  • CESE (2017) Cognitive load theory: Research that teachers really need to understand.
  • OECD (2002) Understanding the brain: Towards a new learning science.
  • Kirschner and Hendrick (2020) How learning happens: Seminal works in educational psychology and what they mean in practice.

Uno si aspetterebbe, leggendo questi titoli, di trovare conferme schiaccianti, ricerche inattaccabili che giustifichino un’imposizione così forte nella formazione degli insegnanti. Ma, e qui viene il bello, le cose non stanno esattamente così.

Ricercatore perplesso legge documento scientifico complesso in un ufficio moderno, luce soffusa, obiettivo prime 35mm, profondità di campo per sfocare lo sfondo, bianco e nero.

L’Autogol: Quando le Prove dicono Altro

Se andiamo a leggere davvero questi lavori “seminali”, scopriamo una realtà molto più sfumata e, per certi versi, problematica per chi li cita a sostegno di pratiche universali. Prendiamo il lavoro più completo e accademicamente rigoroso tra i cinque, la review di Perry et al. (2021), che analizza quasi 500 studi. Cosa dicono questi autori? Certo, riconoscono il valore potenziale dei principi delle scienze cognitive per l’apprendimento, ma mettono subito le mani avanti con una serie di caveat pesantissimi.

Ecco alcuni dei loro “headline findings” (risultati principali), che mi sembrano parlare da soli:

  • Sì, i principi delle scienze cognitive possono avere un impatto, MA gli insegnanti devono essere consapevoli delle “serie lacune e limitazioni nella base di prove applicate”, delle “incertezze sull’applicabilità di principi specifici tra materie e fasce d’età” e delle “sfide dell’implementazione nella pratica”.
  • C’è una grossa disconnessione tra le prove della scienza cognitiva di base (fatta in laboratorio) e quella applicata (in classe). Quest’ultima è “molto più limitata e fornisce un quadro meno positivo e più complesso”.
  • La letteratura applicata ha molte lacune relative a materie specifiche e gruppi di età (spesso si concentra su matematica e scienze nelle scuole secondarie).
  • La ricerca applicata incontra molti problemi teorici e pratici non presenti in laboratorio.
  • Le prove supportano i principi generali, ma non determinano strategie specifiche né approcci particolari all’implementazione.

Perry e colleghi sono caustici: “il contrasto tra il livello di fiducia e la forza delle prove applicate e la maggior parte dei resoconti sulla scienza cognitiva rivolti ai professionisti è netto”. E ancora: “la nostra opinione è che l’implicazione di ciò sia che sono necessarie cautela, sfumatura e riflessione piuttosto che prescrizione, semplificazione e l’imposizione generalizzata delle concezioni prevalenti di best practice tra materie, fasce d’età e contesti”.

Avete letto bene? Lo studio più autorevole citato come “seminale” dallo Scott Report mette esplicitamente in guardia contro proprio ciò che il rapporto stesso raccomanda: l’imposizione di pratiche specifiche come universalmente valide, “indipendentemente dalla specializzazione o dalla fascia d’età degli studenti”. Sembra quasi uno scherzo, o meglio, un clamoroso autogol.

Anche altri lavori citati sollevano dubbi simili. Il documento CESE (2017) sulla teoria del carico cognitivo, pur sostenendone l’utilità, specifica che è “particolarmente rilevante per l’insegnamento a studenti principianti in domini ‘tecnici’ come matematica, scienze e tecnologia” e che “molta meno ricerca è stata fatta sull’efficacia per l’insegnamento in aree disciplinari meno tecniche o più creative – come letteratura, storia, arte e altre materie umanistiche”. Addirittura il documento OECD del 2002, pur entusiasta delle neuroscienze cognitive, avvertiva che “potrebbero volerci anni prima che le scoperte di questa nuova scienza possano essere applicate in modo sicuro e pronto nell’educazione” e che i metodi di ricerca limitano le domande affrontabili, rendendo più facili da studiare compiti semplici (come riconoscere parole scritte) rispetto a quelli complessi (come comparare temi di storie diverse).

Primo piano macro di un'etichetta con la parola 'SCIENZA' attaccata in modo un po' storto su una pila disordinata di documenti di ricerca, obiettivo macro 90mm, illuminazione controllata per enfatizzare la texture della carta e dell'etichetta, alta definizione.

Scienza o Etichetta? Il Problema della Rappresentazione

Qui emerge il vero nodo della questione: il problema non è la scienza in sé, ma come viene rappresentata e usata. Sembra che l’etichetta “scientifico” o “evidence-based” venga usata come uno strumento per dare legittimità a determinate politiche educative, anche quando le prove scientifiche citate sono molto più caute, complesse e piene di distinguo.

Non è la prima volta che assistiamo a fenomeni simili. Ricordate il dibattito sulla “scienza della lettura” (science of reading)? Anche lì, in Inghilterra, si spinse per un metodo specifico (la fonetica sintetica) come l’unico scientificamente valido, citando studi che, a un’analisi più attenta, non supportavano affermazioni così nette o addirittura suggerivano approcci più bilanciati.

Usare la parola “scienza” diventa così uno “stratagemma nominativo”, un modo per mettere a tacere il dibattito e imporre una visione, ignorando le sfumature, i contesti, le complessità che la scienza stessa (quella vera, fatta di dubbi e verifiche continue) mette in luce. Si cooptano risultati presentati in modo cauto e problematico (come quelli di Perry et al.) per sostenere affermazioni prescrittive e generalizzanti.

Cosa Resta? Credibilità a Rischio

In un’epoca in cui abbiamo un disperato bisogno di affidarci alla scienza per affrontare sfide enormi, dal cambiamento climatico alle pandemie, questo modo di “rappresentare” la scienza in campo educativo è preoccupante. Rischia di minare la credibilità stessa del discorso scientifico applicato all’educazione.

Quando sentiamo proclami forti su “scienza”, “rigore” e “prove” in educazione, forse dovremmo fermarci un attimo e chiederci: stiamo parlando di un’analisi scientifica seria e completa, con tutte le sue cautele e i suoi limiti, o stiamo assistendo all’uso di un’etichetta potente per spingere un’agenda politica predefinita?

L’impressione, leggendo tra le righe di questo dibattito australiano, è che più si sbandierano queste parole d’ordine, più si rischi un cortocircuito con la credibilità. E questo, per l’educazione e per la scienza stessa, potrebbe essere davvero un autogol difficile da recuperare.

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *