Un gruppo eterogeneo di docenti e tecnologi educativi collabora attorno a un tavolo luminoso in un ufficio moderno, discutendo strategie di integrazione dell'IA nell'insegnamento. Utilizzano tablet e diagrammi che illustrano il framework PIER. Stile fotorealistico, luce soffusa, obiettivo prime 35mm, profondità di campo controllata.

IA in Aula? Il Framework PIER è la Bussola che Ti Serve!

Viviamo in un’epoca affascinante e, diciamocelo, un po’ frenetica, soprattutto quando si parla di Intelligenza Artificiale (IA) generativa. Sembra che ogni giorno ci sia una novità: un aggiornamento, un nuovo strumento, nuove funzionalità, ma anche nuove paure e malintesi. È davvero difficile stare al passo! Non c’è da stupirsi se studenti, docenti e intere istituzioni faticano a definire una linea chiara sull’uso dell’IA.

Ecco perché oggi voglio parlarti di uno strumento che trovo incredibilmente utile per mettere un po’ d’ordine in questo caos e facilitare discussioni costruttive sull’uso etico dell’IA: il framework PIER. Che tu sia un instructional designer, uno sviluppatore educativo o semplicemente un curioso del mondo tech applicato alla didattica, questo approccio ti darà spunti preziosi.

Il punto è questo: non possiamo affrontare la rivoluzione AI da soli, come isole sperdute. Abbiamo bisogno di collaborare, di condividere scoperte e risorse, di riflettere insieme sull’impatto dell’IA sull’istruzione superiore e di lavorare fianco a fianco per creare percorsi didattici, programmi e policy che siano “resilienti”. E per resilienza, qui, non intendo insegnare a usare *quel* particolare tool che magari domani sarà obsoleto. Intendo piuttosto sviluppare un’etica, un set di competenze che ci permetta – a noi e ai nostri studenti – di scegliere se, come e quando usare i vari strumenti AI, in base agli obiettivi di apprendimento e al compito specifico (come suggerisce Beethan, 2024).

Il Framework PIER: Una Guida Etica per l’IA

Il framework PIER (Logan e Tapp, 2024), che abbiamo adattato dal lavoro di Hanlon (2023), nasce proprio per questo: offrire a studenti e docenti una guida per prendere decisioni etiche sull’uso dell’IA. È una strategia che punta a costruire solide basi di alfabetizzazione AI e pensiero critico, aiutando tutti a fare scelte consapevoli.

PIER è un acronimo che sta per:

  • Permesso
  • Integrità
  • Empowerment (Potenziamento)
  • Riflessione

Per ogni componente, abbiamo creato una serie di domande mirate sia ai docenti che agli studenti, pensate per stimolare una riflessione più profonda sull’uso dell’IA. Vediamole insieme!

P come Permesso

Questo punto ricorda agli studenti di chiedere se l’IA è permessa in un determinato contesto e come documentarne l’eventuale utilizzo. Ma è anche un invito importante per i docenti a fermarsi un attimo e chiedersi: perché sto introducendo questo strumento? Qual è il suo legame con gli obiettivi didattici?

  • Domande per gli studenti: Qual è la policy del tuo docente sull’uso dell’IA per questo compito? Quale stile di citazione devi usare?
  • Domande per i docenti: Riesci a collegare l’uso dell’IA ai tuoi obiettivi di apprendimento? Come vuoi che gli studenti documentino il loro scambio con l’IA? Questa richiesta cambia a seconda del compito?

I come Integrità

Qui il focus è sul contributo intellettuale e sul ruolo dell’IA: uno strumento di supporto, non un sostituto o un co-autore alla pari. Vogliamo anche ricordare le tante questioni etiche che circondano l’IA, come i bias o la privacy.

  • Domande per gli studenti: L’IA non è neutrale e può produrre informazioni inaccurate o viziate da pregiudizi. Che strategie hai messo in atto per verificare l’accuratezza delle informazioni generate dall’IA?
  • Domande per i docenti: I tuoi studenti sono consapevoli dei potenziali rischi per la privacy quando usano l’IA? Richiedere l’uso dell’IA potrebbe creare disparità tra studenti con più accesso/risorse e studenti meno attrezzati?

Primo piano di uno studente universitario che interagisce con un'interfaccia AI su un tablet, con espressione concentrata e riflessiva, mentre sullo sfondo sfocato si intravede un'aula moderna. Stile fotorealistico, obiettivo macro 85mm, illuminazione controllata, alta definizione.

E come Empowerment (Potenziamento)

Con questo punto, invitiamo gli studenti a vedere l’IA come un potenziamento per i loro studi, qualcosa che può aumentare le loro capacità, non sostituirle. Allo stesso tempo, sfidiamo i docenti a spiegare chiaramente il “perché” dei loro compiti, enfatizzando lo sviluppo cognitivo e il processo di apprendimento, più che il prodotto finale.

  • Domande per gli studenti: Come può l’IA potenziare (e non produrre al posto tuo!) il tuo lavoro su questo compito? Come puoi scrivere un prompt efficace per dire all’IA esattamente ciò che ti serve?
  • Domande per i docenti: Come stai usando l’IA nella tua ricerca e nelle tue attività quotidiane? Lo hai condiviso con gli studenti? Stai spiegando lo scopo dei tuoi compiti? Dici esplicitamente quali competenze o conoscenze ne deriveranno e come questo li aiuterà in futuro, nei prossimi corsi o nella carriera? (Per approfondire questo aspetto, consiglio il framework TILT: www.tilthighered.com)

R come Riflessione

Infine, la riflessione. Chiediamo a studenti e docenti di impegnarsi intenzionalmente in un processo riflessivo durante tutto il percorso, sia come parte integrante del compito stesso, sia nella valutazione finale.

  • Domande per gli studenti: Cosa hai trovato utile (o inutile) nel lavorare con l’IA? In che modo l’IA ti ha aiutato/ostacolato come studente in questo compito o attività?
  • Domande per i docenti: Cosa hai imparato dall’uso che i tuoi studenti hanno fatto dell’IA? Cosa faresti diversamente la prossima volta?

Il Nostro Ruolo come Facilitatori

Questo framework e le domande associate sono pensati per aiutare tutti – docenti e studenti – a diventare consumatori critici di IA. Strumenti come il PIER offrono un punto di partenza fondamentale per avviare conversazioni sull’IA, prima ancora di definire policy specifiche per l’aula o parlare di singoli tool.

A volte, queste conversazioni riflessive nascono spontaneamente, quando un docente viene da noi con domande sull’IA. Altre volte, spetta a noi, come sviluppatori educativi e instructional designer, avviare la discussione per aiutare i docenti a chiarire le loro convinzioni e approcci.

Che ce ne rendiamo conto o no, nel nostro lavoro raccogliamo e interpretiamo dati continuamente. Quando parliamo di IA e ascoltiamo l’entusiasmo o le preoccupazioni dei docenti, è utilissimo avere a portata di mano domande mirate, come quelle del PIER. Proseguendo la conversazione, possiamo far emergere aree che meritano più attenzione.

Per esempio, parlando con un docente sempre desideroso di adottare l’ultima tecnologia, potrebbe essere importante aiutarlo a rallentare e a verificare l’allineamento con gli obiettivi di apprendimento. Oppure, con chi è comprensibilmente focalizzato sui problemi di integrità accademica, domande sull’equità o sulla sua stessa esperienza con l’IA potrebbero aiutarlo a vedere che l’IA non è necessariamente “il male” e può anzi contribuire agli obiettivi formativi.

La nostra capacità di ascoltare e guidare le conversazioni, ponendo domande e fornendo risorse per colmare le lacune, può davvero dare ai docenti il potere di prendere decisioni più informate sul ruolo dell’IA nel loro insegnamento.

Un docente universitario che modifica il syllabus del corso su un laptop, integrando una policy sull'uso dell'IA, con accanto una tazza di caffè e alcuni libri accademici. Stile fotorealistico, obiettivo prime 50mm, luce naturale da finestra, profondità di campo ridotta.

Dal Dialogo alla Policy: Il Syllabus

Dopo aver aiutato i docenti a riflettere sulla loro percezione dell’IA e su come chiedono agli studenti di considerarla, è fondamentale supportarli nell’articolare formalmente queste convinzioni e aspettative. Il syllabus è lo strumento principe per comunicare obiettivi, valutazioni, requisiti e aspettative.

Anche se a volte ci chiediamo se gli studenti lo leggano davvero, per i docenti il syllabus è la guida del corso. Suggeriamo caldamente che tutti i docenti, anche quelli convinti che i loro corsi o compiti non si prestino all’uso dell’IA, includano una dichiarazione sull’IA nel syllabus (Gannon, 2023) e ne parlino apertamente con gli studenti.

Alcuni docenti riusciranno a scrivere facilmente una policy inclusiva, ma altri potrebbero aver bisogno di ulteriore riflessione. Gannon (2023) suggerisce che i docenti debbano prima familiarizzare con gli strumenti AI prima di tentare di scrivere una policy, e qui noi instructional designer e sviluppatori educativi possiamo davvero fare la differenza, unendo le nostre competenze.

Questo focus sulla ricerca preliminare e sulla familiarità con gli strumenti è supportato anche da Chan (2023) e WCET (2023), che chiariscono come i docenti dovranno acquisire una certa expertise per determinare come l’IA possa supportare al meglio l’apprendimento, aiutando al contempo gli studenti a comprenderne le implicazioni per l’integrità accademica.

Per aiutare i docenti a scrivere policy che tengano conto del ruolo dell’IA per i loro studenti come futuri professionisti, potremmo porre domande come:

  • Domande da porre agli studenti: Come vi stanno parlando dell’IA gli altri docenti? Che ruolo pensate dovrebbe avere l’IA in questo corso? Come vedete l’IA rilevante per un professionista in questo campo?
  • Domande per i docenti: Quali strumenti AI dovranno conoscere gli studenti per avere successo nel tuo settore? Come puoi integrarli nel tuo corso? Come si inserisce l’IA nel tuo programma accademico? Come viene utilizzata nell’industria? Come puoi trasmettere al meglio le buone pratiche e l’alfabetizzazione AI ai tuoi studenti?

Oltre il Semaforo: Scale di Valutazione AI Evolute

Mentre i docenti riflettono sulle loro policy, può essere utile fare riferimento a framework noti. Perkins et al. (2024) hanno identificato una scala di valutazione AI basata su tre categorie ampie, paragonate a un semaforo (rosso, giallo, verde):

  1. Nessun uso di IA consentito.
  2. Uso limitato di IA consentito per compiti specifici.
  3. Uso di IA consentito.

Molti campus hanno adottato questa categorizzazione. Tuttavia, con l’evoluzione dell’IA, Furze (2024) ha introdotto una versione 2.0 della scala, meno gerarchica e più orientata alla partnership:

  1. No AI: Nessun uso di IA.
  2. AI Planning: IA usata per la pianificazione.
  3. AI Collaboration: Collaborazione con l’IA.
  4. Full AI: Pieno utilizzo dell’IA.
  5. AI Exploration: Esplorazione libera dell’IA.

Questo aggiornamento riconosce che l’enfasi si sta spostando dall’integrità accademica alla collaborazione tra IA, studenti e docenti. Ad esempio, nella versione aggiornata, Furze sottolinea che se si decide per una policy “No AI”, è fondamentale spiegare perché l’IA viene esclusa.

Per aiutare i docenti a chiarire le loro policy in quest’ottica, potremmo usare domande come:

  • Domande per i docenti: In che modo affidarsi all’IA per questo compito limiterà la crescita dello studente? Queste informazioni sono fondamentali per gli studenti? In che modo imparare senza l’uso dell’IA permette lo sviluppo del pensiero critico?

Raccomandiamo che i docenti espandano questa discussione in classe, usando strumenti come il PIER per conversazioni più ampie sugli obiettivi di apprendimento o sulle sfide etiche associate all’IA (bias, copyright, impatto climatico, tossicità generale). Queste riflessioni, unite all’enfasi sull’integrità dello studente e sullo scopo del compito, possono aiutare a creare policy che siano molto più di una lista di regole o di una dichiarazione dimenticata nel syllabus, tirata fuori solo in caso di cattiva condotta accademica.

Come instructional designer e sviluppatori educativi, possiamo supportare i nostri colleghi docenti nel considerare il ruolo dell’IA non solo pensando a quale tecnologia si adatti o ostacoli i loro obiettivi, ma lavorando insieme per enfatizzare il “perché” e creare linee guida che servano agli studenti ben oltre un singolo compito o corso.

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *