Due schermi di computer affiancati: uno mostra un documento Word con commenti evidenziati, l'altro un'interfaccia utente pulita di una piattaforma di feedback online dedicata. Al centro, una mano che sembra scegliere tra i due. Prime lens 50mm, depth of field, illuminazione da studio bilanciata che enfatizza i dettagli degli schermi.

Feedback Online: La Piattaforma Fa Davvero la Differenza? Scopriamolo Insieme!

Ciao a tutti! Oggi voglio parlarvi di un argomento che mi sta particolarmente a cuore, soprattutto da quando il mondo dell’istruzione si è tuffato a capofitto nel digitale: il feedback tra pari online. Sappiamo tutti quanto sia importante ricevere commenti costruttivi sul nostro lavoro, ma vi siete mai chiesti se la piattaforma che usiamo per dare e ricevere questi feedback possa cambiare le carte in tavola? Beh, io sì, e ho scovato uno studio super interessante che mette a confronto due modi diversi di gestire questa faccenda online. Preparatevi, perché i risultati potrebbero sorprendervi!

Perché il feedback tra pari è una bomba (anche online!)

Prima di addentrarci nei meandri delle piattaforme, facciamo un piccolo ripasso. Il feedback tra pari, cioè quando noi studenti ci valutiamo a vicenda, è una vera e propria miniera d’oro per l’apprendimento. Pensateci: ci costringe a metterci nei panni di chi valuta, a riflettere criticamente e, diciamocelo, a volte i commenti dei nostri “colleghi” ci sembrano meno intimidatori e più diretti di quelli di un professore. Anzi, alcune ricerche suggeriscono che può avere un impatto sull’apprendimento pari, se non superiore, a quello del feedback dei docenti! Questo perché tendiamo a mettere più in discussione i commenti dei pari, il che ci spinge a un apprendimento più profondo anziché a copiare passivamente i suggerimenti.

In più, dare e ricevere feedback è un’abilità fondamentale nel mondo del lavoro. E con classi universitarie sempre più numerose, il peer feedback aiuta tantissimo i docenti a gestire il carico di lavoro. L’avvento delle tecnologie online ha poi aperto un mondo di possibilità, permettendo di organizzare queste attività anche fuori dall’aula. Diversi studi hanno già dimostrato che il feedback online può essere più efficace di quello tradizionale “offline” per i risultati di apprendimento. Immaginate la comodità: niente più foglietti svolazzanti, ma tutto tracciato e accessibile. La modalità asincrona, poi, ci dà più tempo per pensare e formulare commenti ponderati, magari riducendo quell биологическая ansietta da “devo dire qualcosa di intelligente subito!”. Alcuni strumenti offrono persino l’anonimato, che può farci sentire più liberi di essere onesti.

Ma tutte le piattaforme online sono uguali? Spoiler: NO!

Ed eccoci al dunque. Se il feedback online è così fico, basta una piattaforma qualsiasi per farlo funzionare al meglio? La risposta breve è: probabilmente no. C’è un vuoto nella ricerca quando si tratta di confrontare diversi ambienti di feedback online. Questo studio cerca proprio di colmare questa lacuna, analizzando come la struttura di una piattaforma di peer feedback online influenzi i commenti dati, le percezioni di noi studenti e i risultati di apprendimento.

Pensate al carico cognitivo: se una piattaforma è macchinosa, con informazioni sparse ovunque, il nostro cervello va in tilt e la qualità del feedback ne risente. È fondamentale capire cosa renda un feedback “di alta qualità”. Anche se non c’è un consenso unanime, molti concordano su due tipi principali di commenti:

  • Verifica o valutazione: quelli che dicono “questo c’è”, “questo manca”, “questo è fatto bene”, “questo è sbagliato”.
  • Elaborazione o suggerimento: quelli che ci guidano su come migliorare.

Un feedback efficace dovrebbe bilanciare entrambi. Liu e Sadler (2003) hanno ulteriormente dettagliato questa classificazione, considerando l’area (globale, su idee generali e organizzazione, o locale, a livello di frase, grammatica, punteggiatura) e la natura (orientato alla revisione o meno) dei commenti. Infine, i commenti possono essere di tipo: valutazione, chiarimento (richiesta di spiegazioni), suggerimento (indicazioni per modifiche) o alterazione (proposte di modifiche specifiche). Commenti su questioni di alto livello (sviluppo delle idee, forza argomentativa) e con spiegazioni sono particolarmente utili. Al contrario, troppe lodi, sebbene ben intenzionate, possono diluire la consapevolezza dei problemi.

Studenti che collaborano online utilizzando laptop in un ambiente di apprendimento moderno e luminoso, prime lens 35mm, depth of field, luce naturale, colori vivaci e atmosfera positiva.

La scelta della piattaforma online giusta è cruciale, perché piattaforme diverse possono servire obiettivi di feedback diversi. Un forum di discussione potrebbe incoraggiare il dialogo, mentre un blog potrebbe essere migliore per feedback su saggi argomentativi. Ma cosa succede se confrontiamo un approccio “tradizionale” online (tipo Word e email) con uno strumento super strutturato, pensato apposta per il feedback?

L’esperimento: mettiamo alla prova Word/Email contro uno strumento Pro

Lo studio ha coinvolto 38 studenti universitari di scienze farmaceutiche, divisi in due gruppi. Hanno partecipato a due attività di peer feedback, una usando il metodo “tradizionale” (Word ed email) e l’altra uno strumento online specializzato (chiamato FeedbackFruits, integrato nel loro sistema di gestione dell’apprendimento, Canvas). Il design era “crossover”, il che significa che ogni studente ha provato entrambe le condizioni, ma in momenti diversi. Ad esempio, per il primo compito (P3), il Gruppo A usava Word/email e il Gruppo B lo strumento online; per il secondo compito (P4), si invertivano.

In entrambi i casi, gli studenti dovevano fornire feedback su un report scritto da una coppia di compagni, basandosi su una lista di 20 domande guida (relative a contenuto, editing, aspetto). Era richiesto un minimo di 20 commenti.
Ecco le differenze chiave tra i due ambienti:

  • Approccio Tradizionale (Word/Email): Gli studenti usavano la funzione commenti di Word e poi inviavano il file via email ai revisori. Dovevano gestire più file (istruzioni, domande guida, report) e cercare gli indirizzi email. Non c’era un controllo automatico sul numero minimo di commenti o sulla qualità.
  • Strumento Online Dedicato (FeedbackFruits): Tutto in un unico posto! Caricavano il report, le domande guida erano visualizzate accanto al testo da revisionare, e i commenti venivano inseriti direttamente lì. Lo strumento imponeva i 20 commenti e li collegava alle domande guida. C’erano anche dei promemoria sulla qualità del feedback prima dell’invio. Nonostante lo strumento permettesse l’anonimato, per rendere le due condizioni confrontabili, il feedback era nominale in entrambi i casi.

I ricercatori hanno poi raccolto e analizzato i commenti di feedback, i voti ottenuti dagli studenti sui report (dopo la revisione) e le loro percezioni tramite un questionario.

Cosa abbiamo scoperto? I risultati che non ti aspetti!

E qui viene il bello! Tenetevi forte.

Tipologia dei Commenti:
La piattaforma ha fatto una bella differenza!

  • Con lo strumento online strutturato, gli studenti hanno fornito più commenti di “valutazione” (cioè lodi o semplici constatazioni) e più commenti a livello “locale” (errori di battitura, grammatica) e “globale-non-revisione” (commenti generali che non spingono a cambiare). Sembra che la struttura rigida e la richiesta di un numero minimo di commenti abbiano spinto a cercare “cose facili” da commentare.
  • Con l’approccio Word ed email, invece, sono emersi più commenti orientati alla “revisione-globale”, cioè suggerimenti più ampi e focalizzati su come migliorare il contenuto e la struttura generale del testo. C’era anche una tendenza a dare più suggerimenti e richieste di chiarimento, anche se non statisticamente significativa.

Sorprendentemente, il numero totale di commenti e di “unità significative” (cioè singoli concetti all’interno di un commento) non è cambiato molto tra le due condizioni. Gli studenti, bravi loro, hanno seguito l’indicazione dei 20 commenti in entrambi i casi.

Interfaccia utente di una piattaforma di feedback online stilizzata su uno schermo di computer, con grafici e commenti visibili, macro lens 80mm, high detail, controlled lighting, colori neutri e design pulito.

Risultati di Apprendimento (Voti):
Qui, colpo di scena: nessuna differenza significativa! I voti finali dei report non sono cambiati in base alla piattaforma usata per il feedback. Sembra che, almeno in questo studio, il tipo di piattaforma non abbia impattato direttamente su quanto gli studenti abbiano imparato o migliorato il loro elaborato finale in termini di valutazione del docente.

Percezioni degli Studenti: Qui la vera sorpresa!
In generale, gli studenti hanno valutato positivamente l’attività di peer feedback, a prescindere dalla piattaforma. Si sentivano competenti nel dare feedback e fiduciosi nella qualità di quello ricevuto.
Quando però si è andati a vedere le risposte alle domande aperte del questionario, è emersa una preferenza schiacciante per lo strumento online strutturato! Ben l’81% degli studenti lo ha preferito. Perché? Principalmente per la sua facilità d’uso e perché aveva tutto integrato: niente più caccia agli indirizzi email o destreggiarsi tra mille file. Era tutto lì, ordinato e chiaro.
D’altro canto, l’approccio email è stato criticato per essere macchinoso. Alcuni studenti, però, si sono lamentati che nello strumento online l’obbligo dei 20 commenti sembrava forzato e portava a feedback superficiali, tipo “sì, questo requisito è soddisfatto”. Una minoranza ha preferito l’email per il contatto più personale o per la maggiore libertà di commentare senza una struttura così rigida.

Tiriamo le somme: quale piattaforma scegliere e perché?

Allora, che ci portiamo a casa da tutto questo? Beh, la prima cosa è che il design della piattaforma conta eccome, ma forse non dove ce lo aspettavamo. Non tanto per i voti finali, quanto per il tipo di feedback che viene generato e per come noi studenti viviamo l’esperienza.

Sembra esserci un piccolo paradosso: preferiamo la comodità e la struttura di uno strumento dedicato, ma questo potrebbe spingerci verso commenti un po’ più superficiali, più “da spunta” che da riflessione profonda. L’approccio “vecchia scuola” con Word ed email, seppur più scomodo, sembra aver stimolato un feedback più orientato alla revisione sostanziale del testo. Forse perché, dovendo fare più fatica “logistica”, ci si concentra di più sulla qualità del contenuto?

Questo non significa che una sia meglio dell’altra in assoluto. Dipende dagli obiettivi! Se l’obiettivo primario è far familiarizzare gli studenti con il processo di feedback in modo semplice e guidato, uno strumento strutturato è fantastico. Se invece si vuole spingere verso una critica più approfondita e globale, forse un ambiente meno strutturato, che richiede più autonomia, potrebbe dare risultati diversi (anche se a costo di qualche lamentela sulla praticità!).

Una cosa è certa: bisogna fare attenzione a come si impostano certe funzionalità. Ad esempio, il numero minimo di commenti obbligatori. Forse, invece di un numero fisso, si potrebbero dare indicazioni più qualitative? E le istruzioni sono F-O-N-D-A-M-E-N-T-A-L-I: spiegare bene lo scopo dell’attività e come commentare efficacemente è cruciale, magari evitando domande guida che portino a risposte sì/no.

Gruppo diversificato di studenti universitari che discutono animatamente e sorridono mentre guardano uno schermo di tablet, zoom lens 24-70mm, luce calda da interno, espressioni coinvolte e concentrate, ambiente collaborativo.

E adesso? Qualche spunto per il futuro

Questo studio è un ottimo punto di partenza, ma come sempre nella ricerca, apre più domande di quante ne chiuda! Ad esempio, è stato condotto durante la pandemia COVID-19, con tutta la didattica online, e questo potrebbe aver influenzato le cose. Inoltre, solo circa la metà degli studenti del corso ha partecipato, quindi i risultati vanno presi con le pinze prima di generalizzare. E poi, non si è indagato su come il feedback sia stato effettivamente usato dagli studenti per migliorare i loro elaborati.

Sarebbe fantastico vedere più ricerche che confrontano altre piattaforme (penso al feedback video, ad esempio!) e che esplorino più a fondo l’effetto di funzionalità specifiche come il numero minimo di commenti. Magari si scopre che un numero obbligatorio di commenti porta davvero a un feedback meno orientato alla revisione, chissà!

In conclusione, la scelta della piattaforma per il feedback online non è banale. Anche se noi studenti potremmo preferire la via più “liscia” e strutturata, è importante che chi progetta queste attività consideri bene l’impatto sul tipo di interazione e sulla qualità del feedback che si vuole promuovere. Non c’è una soluzione unica, ma capire queste dinamiche ci aiuta a sfruttare al meglio le potenzialità del digitale per imparare sempre di più, e meglio!

Spero che questa “chiacchierata” vi sia piaciuta e vi abbia dato qualche spunto di riflessione. Alla prossima!

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *