Un gruppo eterogeneo di studenti K-12 in un'aula moderna e luminosa, alcuni interagiscono con tablet e laptop che mostrano interfacce chatbot, altri discutono tra loro. Fotografia di ritratto di gruppo, obiettivo zoom 24-35mm, luce naturale brillante, colori vividi ma realistici, profondità di campo che sfoca leggermente lo sfondo per concentrarsi sugli studenti.

ChatGPT e Scuola: Facile Iniziare, Ma Sfruttarlo Davvero è un’Altra Storia?

Ammettiamolo, chi non ha provato almeno una volta a fare una domanda a ChatGPT o a un altro chatbot basato su IA generativa? Sembra quasi magia: scrivi una richiesta e voilà, una risposta! Ma c’è un “ma” grande come una casa, soprattutto quando parliamo di apprendimento, specialmente per i più giovani, gli studenti delle scuole medie e superiori (quelli che gli esperti chiamano K-12). Usare questi strumenti è un gioco da ragazzi, ma usarli efficacemente per imparare? Ah, quella è tutta un’altra musica, e forse un po’ più “stonata” di quanto pensiamo.

Recentemente mi sono imbattuto in uno studio affascinante che ha cercato di vederci chiaro proprio su questo punto. Il titolo originale, un po’ accademico, era “Using ChatGPT is easy, using it effectively is tough? A mixed methods study on K-12 students’ perceptions, interaction patterns, and support for learning with generative AI chatbots”. Tradotto: i chatbot con IA generativa sono facili da usare, ma è difficile usarli bene? Uno studio che ha mescolato numeri e parole per capire come la pensano gli studenti K-12, come ci interagiscono e se un piccolo aiuto può fare la differenza nel loro apprendimento.

L’illusione della facilità: un’arma a doppio taglio?

Una delle cose che emerge subito è che sì, i ragazzi trovano questi chatbot super intuitivi. D’altronde, l’interfaccia assomiglia a una chat di messaggistica o a una barra di ricerca, cose con cui sono cresciuti. Il problema, come suggeriva già uno studio di Salomon nel lontano 1984 (parlando della TV rispetto alla carta stampata), è che se percepiamo qualcosa come “facile”, tendiamo a investirci meno impegno mentale. E se investi meno impegno, impari di meno. Un po’ come guardare un film distrattamente invece di leggere un testo con attenzione. Con i chatbot, il rischio è che questa familiarità e apparente semplicità portino a un utilizzo superficiale, senza sfruttare tutte le potenzialità nascoste.

Perché, diciamocelo, questi strumenti possono fare molto più che rispondere a domande dirette. Possono adattare i contenuti al nostro livello, riassumere testi lunghi, creare esempi, persino simulare dialoghi o generare test di autovalutazione. Ma se non lo sai, o se non ti viene in mente di chiederglielo, ti perdi un sacco di opportunità. È come avere una Ferrari e usarla solo per andare a fare la spesa al supermercato dietro l’angolo.

Lo studio: cosa abbiamo cercato di capire?

I ricercatori hanno coinvolto 106 studenti tedeschi di terza e quarta superiore. Li hanno divisi in due gruppi: entrambi dovevano fare una ricerca su un argomento specifico (“bias cognitivi”) usando un chatbot per 20 minuti. La differenza? Un gruppo, quello “sperimentale”, ha ricevuto una piccola “spintarella”:

  • Una breve introduzione (2 minuti e mezzo!) su come usare i “prompt di adattamento” (tipo “Spiegamelo più facile”, “Fammi un riassunto”, “Quali aspetti non abbiamo ancora toccato?”).
  • Suggerimenti di prompt che apparivano dopo ogni risposta del chatbot.
  • Opzioni per modificare la lunghezza delle risposte e il livello di linguaggio del chatbot.

L’altro gruppo, quello “di controllo”, ha usato il chatbot senza questi aiuti. L’idea era vedere se questa guida, semplice da implementare, potesse cambiare il modo in cui gli studenti usavano il chatbot e, magari, anche i risultati dell’apprendimento.

Uno studente adolescente seduto a una scrivania con un laptop aperto, espressione concentrata e curiosa mentre interagisce con un'interfaccia chatbot visibile sullo schermo. Luce soffusa da una finestra laterale, stile film noir, duotone blu e grigio, obiettivo da 35mm, profondità di campo che mette a fuoco lo studente e sfoca leggermente lo sfondo.

Prima e dopo la ricerca, gli studenti hanno risposto a questionari sulla loro esperienza pregressa con i chatbot, sulle loro capacità di apprendimento autoregolato, sulle conoscenze pregresse dell’argomento, sul carico cognitivo percepito e, ovviamente, su quanto avevano imparato sull’argomento dei bias cognitivi. E, cosa importantissima, i ricercatori hanno analizzato tutte le chat per vedere come esattamente gli studenti avevano interagito con lo strumento.

Guidare o non guidare? Questo è il dilemma (risolto!)

I risultati sono stati illuminanti! Partiamo dalla domanda chiave: la guida ha fatto la differenza nell’uso delle funzionalità di adattamento? Assolutamente sì! Il gruppo sperimentale ha usato il doppio dei prompt di adattamento (una media di 6 a sessione) rispetto al gruppo di controllo (media di 2,5). Addirittura, un terzo degli studenti nel gruppo di controllo non ha usato nessun prompt di adattamento, nemmeno un semplice “Fammi un esempio”. Questo ci dice che, lasciati a sé stessi, molti studenti non sfruttano queste capacità del chatbot, nonostante le ritengano facili da usare.

La cosa interessante è che questa maggiore interazione “intelligente” non ha comportato un aumento del carico cognitivo. Cioè, gli studenti con la guida non si sono sentiti più “appesantiti” mentalmente. Anzi, forse proprio perché guidati, hanno trovato più semplice gestire la complessità. E un altro dato curioso: il gruppo con la guida ha fatto più domande in generale, soprattutto domande di approfondimento (follow-up), e si è perso meno in chiacchiere “off-topic” (tipo chiedere al chatbot qual è la marca migliore di qualcosa o come diventare ricchi in fretta!).

Ma allora, si impara di più con la guida? Non così in fretta…

Qui arriva la parte un po’ spiazzante. Nonostante il gruppo sperimentale abbia usato il chatbot in modo più “sofisticato”, non ci sono state differenze significative nei punteggi di apprendimento tra i due gruppi. Entrambi hanno mostrato miglioramenti simili nelle conoscenze sull’argomento. Come mai? Gli autori dello studio avanzano qualche ipotesi. Forse 20 minuti sono troppo pochi per vedere un impatto sull’apprendimento. O forse, le risposte “adattate” (più semplici, più brevi) potrebbero aver reso i contenuti più leggibili ma meno “sfidanti”, portando a un apprendimento più superficiale in alcuni casi. È un po’ come se, chiedendo sempre la via più facile, non si allenassero certi “muscoli” cognitivi. Però, attenzione: la guida non ha nemmeno portato a un apprendimento inferiore, il che è già una buona notizia se si temeva che semplificare troppo potesse essere controproducente.

Anche per quanto riguarda il carico cognitivo, non ci sono state differenze significative. Questo suggerisce che l’interfaccia intuitiva del chatbot di per sé non sovraccarica gli studenti, e nemmeno i piccoli aiuti forniti. Forse gli studenti, non percependo l’intera gamma di possibilità offerte dal chatbot, non si sentono sopraffatti dalla scelta.

Primo piano sulle mani di uno studente che digitano sulla tastiera di un laptop. Sullo schermo del laptop è visibile un'interfaccia di un chatbot con suggerimenti di prompt per l'utente. Illuminazione controllata e precisa, alto dettaglio, obiettivo macro da 100mm, che mette a fuoco le dita e la tastiera.

Percezioni e soddisfazione: tutti contenti, ma…

Un altro aspetto interessante riguarda la percezione degli studenti. Entrambi i gruppi hanno riportato alti livelli di soddisfazione e facilità d’uso. Anche se avevano poca esperienza pregressa con i chatbot (li usavano poche volte al mese e solo una volta avevano ricevuto istruzioni a scuola), si sentivano competenti nell’utilizzarli. Questo potrebbe essere un classico caso di “doppia maledizione dell’incompetenza” (come la chiamano Dunning e Kruger): chi è meno esperto tende a sovrastimare le proprie capacità, proprio perché gli mancano gli strumenti per valutarsi correttamente. Senza uno standard chiaro di “uso efficace”, è facile accontentarsi di un’interazione superficiale.

Il gruppo sperimentale, comunque, ha valutato positivamente le funzionalità di supporto ricevute. Questo ci dice che, anche se magari non si traduce immediatamente in voti più alti, un aiuto mirato è apprezzato e può migliorare la qualità dell’interazione.

Come interagiscono davvero gli studenti con i chatbot?

Analizzando le chat, è emerso uno stile di interazione che potremmo definire “enciclopedico”. Gli studenti, in generale, non trattano il chatbot come un motore di ricerca (cioè, non inseriscono solo parole chiave), ma nemmeno come un interlocutore umano in una vera conversazione. Piuttosto, pongono una serie di domande per coprire gli aspetti generali di un argomento (cos’è, esempi, cause, conseguenze, rimedi), come se stessero “costruendo” un articolo di enciclopedia. Il chatbot, d’altronde, è spesso impostato per dare risposte verbose e complete, da “assistente”.

Le attività di apprendimento autoregolato più complesse e interattive, quelle che i chatbot potrebbero supportare (come pianificare lo studio, monitorare la comprensione, valutare le strategie), erano poco presenti nel gruppo di controllo e solo in parte in quello con la guida. Questo conferma che c’è ancora molta strada da fare per trasformare questi strumenti in veri partner di apprendimento personalizzato.

Cosa ci portiamo a casa da questa ricerca?

La morale della favola? Anche un piccolo intervento, come una breve istruzione sui prompt di adattamento e qualche suggerimento nell’interfaccia, può fare una grande differenza nel modo in cui gli studenti usano i chatbot. Li spinge a esplorare di più le capacità dello strumento, a personalizzare le risposte, a rimanere più concentrati sul compito. E tutto questo senza appesantirli mentalmente.

Questo significa che non servono chissà quali “corsi di addestramento per prompt” lunghi e complessi. Bastano interventi mirati e integrati nell’esperienza d’uso. Per esempio, i suggerimenti di prompt automatici sono stati usati (ma non abusati) e percepiti come utili. Curiosamente, l’opzione per cambiare lunghezza e linguaggio di tutte le risposte successive è stata usata meno. Forse perché gli studenti preferiscono adattare messaggi specifici, o forse c’è un aspetto di “autocensura” nel dichiarare di volere sempre risposte “semplici”.

Un'aula scolastica vista da un'angolazione ampia, con studenti di diverse età che lavorano individualmente e in piccoli gruppi sui loro laptop e tablet. L'ambiente è moderno e collaborativo. Fotografia di paesaggio, obiettivo grandangolare da 10-24mm, messa a fuoco nitida su tutta la scena, luce naturale brillante che entra dalle finestre.

Uno sguardo al futuro: cosa c’è ancora da scoprire?

Certo, questo studio ha i suoi limiti. È durato poco (solo 20 minuti di interazione), quindi non sappiamo quali potrebbero essere gli effetti a lungo termine. E gli studenti potevano usare solo il chatbot, mentre nella vita reale probabilmente lo combinerebbero con ricerche sul web e altri strumenti.

Però, ci apre una finestra importante. Ci dice che aiutare gli studenti a usare i chatbot in modo più efficace non è una missione impossibile. Anzi, è alla nostra portata. E ci spinge a continuare a cercare modi per rendere l’IA generativa non solo uno strumento “facile”, ma un vero e proprio alleato per un apprendimento più profondo, consapevole e personalizzato.

Insomma, la strada per sfruttare appieno il potenziale dei chatbot a scuola è ancora in salita, ma studi come questo ci forniscono mappe e bussole preziose per orientarci. E chissà, magari la prossima volta che uno studente chiederà “Spiegamelo più facile” a un chatbot, sarà l’inizio di un’avventura di apprendimento davvero su misura per lui.

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *