Navigare l’Equità nell’IA: Vi presento la scala multidimensionale AIM-FAIR!
Ciao a tutti! Oggi voglio parlarvi di un tema che mi sta particolarmente a cuore e che, ne sono certo, tocca le vite di tutti noi, anche se non ce ne rendiamo conto: l’**intelligenza artificiale (IA)** e le sue decisioni. Pensateci un attimo: l’IA è ovunque! Determina se ci concedono un prestito, ci aiuta (o meno) a trovare lavoro, seleziona le notizie che leggiamo e i video che guardiamo. Impressionante, vero? Ma con questo potere crescente, sorge spontanea una domanda cruciale: **queste decisioni sono eque?**
La Giustizia non è solo Tecnica: la Percezione Conta!
Sentiamo spesso parlare di metriche tecniche per misurare la “fairness” algoritmica, come l’impatto disparato o l’uguaglianza predittiva. Certo, sono fondamentali. Ma c’è un altro lato della medaglia, forse ancora più importante per l’adozione e la fiducia in queste tecnologie: **come noi percepiamo questa equità**. Diciamocelo, se un sistema IA, pur tecnicamente “corretto”, ci sembra ingiusto, finiremo per non fidarci e non volerlo usare. È un po’ come avere un arbitro super preciso ma che tutti percepiscono come di parte: la sua legittimità crolla.
Il problema è che, fino ad ora, misurare questa percezione soggettiva è stato un bel rompicapo. Molti studi usano domande singole tipo “Quanto ti sembra giusto questo sistema?” oppure adattano scale pensate per la giustizia nelle organizzazioni umane. Ma queste soluzioni hanno dei limiti enormi. Una domanda singola non ci dice *cosa* la persona intende per “giusto”, e le scale organizzative non colgono le sfumature uniche dell’IA, come ad esempio la **discriminazione di gruppo**, un rischio concreto quando gli algoritmi vengono addestrati su dati “viziati” (biased). Spesso, noi “non addetti ai lavori” tendiamo a vedere l’IA come più coerente e meno manipolabile di quanto non sia in realtà.
Serve uno Strumento Migliore: Nasce AIM-FAIR
Proprio per colmare questa lacuna, insieme ai miei colleghi, abbiamo lavorato sodo per sviluppare uno strumento nuovo di zecca: la scala **AIM-FAIR** (che sta per ‘Assessing Impartiality and Multidimensional Fairness in AI decision-making’, ovvero Valutare l’Imparzialità e l’Equità Multidimensionale nelle decisioni IA). L’obiettivo? Offrire un modo robusto e sfaccettato per misurare come le persone percepiscono l’equità delle decisioni prese da un’IA, con un occhio di riguardo proprio alla spesso trascurata **Percezione della Discriminazione di Gruppo**.
Come l’abbiamo costruita? Ci siamo basati sulla solida **teoria classica dei test** (roba da psicometristi, ma garantisce affidabilità e validità!) e abbiamo usato la classica **scala Likert** (quella da “per niente d’accordo” a “completamente d’accordo”) perché è perfetta per catturare le sfumature delle opinioni soggettive. L’idea di fondo è che l’equità percepita non è un blocco unico, ma un costrutto complesso che si manifesta attraverso diverse dimensioni interconnesse.
Le Cinque Dimensioni dell’Equità Percepita secondo AIM-FAIR
Ma quali sono queste dimensioni che AIM-FAIR va a indagare? Eccole qui:
- Percezione di Coerenza (Perceived Consistency): L’IA tratta casi simili in modo uniforme nel tempo e applica gli stessi criteri?
- Percezione di Equità (Perceived Equity): L’IA tratta tutti gli individui allo stesso modo, offrendo opportunità simili? Cerca di essere equa per tutti i gruppi?
- Percezione di Bias di Gruppo (Perceived Group Bias): Si ha l’impressione che l’IA discrimini sistematicamente certi gruppi (basati su etnia, genere, età, ecc.)?
- Percezione di Manipolabilità (Perceived Manipulability): Quanto è facile influenzare o “imbrogliare” il processo decisionale dell’IA?
- Percezione di Trasparenza (Spiegabile) (Perceived [Explanatory] Transparency): Il processo decisionale dell’IA è comprensibile? Si capisce perché è stata presa una certa decisione?

Noterete che abbiamo distinto *Equità* e *Bias di Gruppo*. Inizialmente pensavamo fossero un’unica dimensione legata alla discriminazione, ma le nostre analisi (condotte su ben 1777 partecipanti tra Regno Unito e Germania!) hanno rivelato che le persone distinguono tra un senso generale di pari trattamento (Equità) e la percezione più specifica di uno svantaggio sistematico per certi gruppi (Bias di Gruppo). Una scoperta affascinante che rende la scala ancora più precisa!
Dalla Teoria alla Pratica: Come Abbiamo Validato AIM-FAIR
Non ci siamo fermati alla teoria, ovviamente! Abbiamo condotto **quattro studi diversi** (S1-S4) reclutando partecipanti online sia nel Regno Unito che in Germania. Abbiamo iniziato con un pool iniziale di domande, le abbiamo testate, tradotte, affinate grazie ai feedback dei partecipanti e alle analisi statistiche (come l’Analisi Fattoriale Esplorativa e Confermatoria – EFA e CFA).
Abbiamo sottoposto i partecipanti a diversi scenari: alcuni descrivevano un’IA tendenzialmente equa, altri un’IA palesemente discriminatoria verso certi gruppi, altri ancora un’IA con un alto tasso di errore. Questo ci ha permesso di verificare se la nostra scala fosse “sensibile”, cioè se le diverse sub-scale reagissero in modo appropriato alle diverse situazioni. E indovinate? Ha funzionato alla grande!
Ad esempio, nello scenario discriminatorio, i punteggi della sub-scala *Percezione di Bias di Gruppo* schizzavano alle stelle, mentre quelli di *Percezione di Equità* crollavano, proprio come ci aspettavamo. Nello scenario con alto tasso di errore, invece, erano soprattutto la *Percezione di Coerenza* e la *Percezione di Trasparenza* a ottenere i punteggi più bassi.
Abbiamo anche verificato la cosiddetta **invarianza di misurazione**. Sembra complicato, ma significa semplicemente assicurarsi che la scala misuri le stesse cose nello stesso modo indipendentemente dalla lingua (inglese o tedesco), dal background dei partecipanti o dalle condizioni sperimentali. Anche qui, AIM-FAIR ha superato il test a pieni voti! Questo è fondamentale per poter confrontare i risultati tra studi e culture diverse.
Infine, abbiamo controllato la **validità convergente**: abbiamo visto se i punteggi della scala AIM-FAIR fossero correlati in modo sensato con altre misure psicologiche, come la propensione generale a fidarsi, l’atteggiamento verso l’IA e la sensibilità all’ingiustizia. Anche in questo caso, i risultati sono stati coerenti: ad esempio, chi ha un atteggiamento più positivo verso l’IA tende a percepirla come più equa, a meno che non venga esplicitamente detto che è discriminatoria o fallace.

Cosa Ce Ne Facciamo di AIM-FAIR? Implicazioni Pratiche
Ok, tutto molto interessante, direte voi, ma a cosa serve concretamente questa scala? Beh, le implicazioni sono tante! Per chi sviluppa IA, per le aziende che la implementano e per i decisori politici, AIM-FAIR offre uno strumento prezioso per:
- Diagnosticare le preoccupazioni specifiche: Invece di un generico “la gente non si fida”, si può capire *perché*. È un problema di trasparenza? Si teme la manipolabilità? O c’è una forte percezione di bias verso certi gruppi?
- Guidare interventi mirati: Se il problema è la trasparenza, si può lavorare per rendere l’algoritmo più spiegabile. Se è il bias, bisogna intervenire sui dati di addestramento o sull’algoritmo stesso.
- Monitorare l’impatto nel tempo: Si può usare la scala per vedere come cambia la percezione dell’equità dopo aver introdotto delle modifiche al sistema IA.
- Facilitare la ricerca cross-culturale: Essendo validata in diverse lingue e contesti, permette confronti più affidabili a livello internazionale.
Pensate a un’azienda che introduce un sistema IA per la selezione del personale. Usando AIM-FAIR, potrebbe scoprire che i dipendenti sono preoccupati soprattutto per la possibile manipolabilità del sistema. A quel punto, l’azienda potrebbe concentrare la comunicazione sul rassicurare il personale riguardo ai meccanismi di controllo e alla resistenza del sistema a influenze esterne.
Qualche Cautela e Prossimi Passi
Come ogni strumento, anche AIM-FAIR ha i suoi limiti. Alcuni dati sono stati raccolti durante esperimenti più ampi, il che potrebbe aver introdotto qualche “rumore”. Una delle sub-scale (Bias di Gruppo) ha solo due item, e idealmente tre sarebbero meglio per la precisione. Inoltre, alcune sub-scale sono abbastanza correlate tra loro, il che richiede attenzione nell’analisi statistica, specialmente in studi complessi.
Nonostante questo, siamo convinti che AIM-FAIR rappresenti un passo avanti significativo. Ci permette di andare oltre le misure semplicistiche e di catturare la complessità di come le persone vivono e giudicano l’equità dell’IA nella loro vita quotidiana. La sua struttura modulare permette anche ai ricercatori di selezionare solo le sub-scale più rilevanti per i loro specifici obiettivi, bilanciando rigore e carico sui partecipanti.
Il viaggio per garantire un’IA veramente equa è ancora lungo, ma avere gli strumenti giusti per capire come viene percepita è fondamentale. Spero che AIM-FAIR possa dare un contributo in questa direzione! E voi, cosa ne pensate? Quanto vi fidate delle decisioni prese da un algoritmo? Fatemelo sapere!

Fonte: Springer
