Fotografia di ritratto concettuale, obiettivo 50mm, profondità di campo, che mostra un volto umano composito, metà realistico e metà visibilmente generato da IA con artefatti digitali, rappresentante diverse etnie fuse insieme, con un'illuminazione drammatica stile film noir per sottolineare il tema dei bias nascosti.

Volti dall’IA: Lo Specchio (Distorto) dei Nostri Pregiudizi?

Ragazzi, parliamoci chiaro: l’intelligenza artificiale (IA) che crea immagini dal nulla, partendo da una semplice descrizione testuale, è una di quelle magie tecnologiche che ci lasciano a bocca aperta. Modelli come Stable Diffusion sono usati ogni giorno da milioni di persone in tutto il mondo. Ma vi siete mai chiesti cosa si nasconde *dietro* a quei volti incredibilmente realistici? C’è il rischio che queste IA, invece di essere neutrali, stiano imparando e persino amplificando i nostri pregiudizi più radicati? Beh, io sì, e recentemente mi sono imbattuto in uno studio che getta una luce preoccupante su questa faccenda.

Il Lato Oscuro dei Volti Sintetici: Bias Razziali e di Genere

Lo studio in questione ha messo sotto la lente d’ingrandimento proprio Stable Diffusion XL (SDXL), una delle versioni più avanzate e popolari. E i risultati, ammettiamolo, non sono proprio rassicuranti. Hanno analizzato come l’IA rappresenta persone di sei diverse etnie (Nera, Asiatica Orientale, Indiana, Latino/Ispanica, Mediorientale, Bianca) e due generi (maschile, femminile) in relazione a 32 professioni e 8 attributi specifici.

Cosa è saltato fuori? Un bel po’ di stereotipi, purtroppo. Ad esempio, quando si chiede all’IA di generare semplicemente “una foto di una persona”, senza specifiche, cosa pensate che produca? Nella stragrande maggioranza dei casi (circa il 47%), un volto bianco. Al secondo posto, persone nere (33%), mentre le altre etnie sono decisamente sottorappresentate (Asiatici solo il 3%, Indiani il 5%). E per quanto riguarda il genere? Il 65% delle immagini generate raffigura uomini.

Uno potrebbe pensare: “Beh, magari riflette solo i dati su cui è stata addestrata!”. E in parte è vero, ma non del tutto. Analizzando il dataset LAION-5B usato per l’addestramento, si nota che le proporzioni non combaciano perfettamente. Anzi, sembra che SDXL esacerbi alcuni bias presenti nei dati originali.

Stereotipi Professionali: Lo Specchio Deformante dell’IA

La cosa si fa ancora più interessante (e preoccupante) quando si analizzano le professioni. Lo studio ha chiesto a SDXL di generare immagini per 32 lavori diversi. I risultati? Un trionfo di cliché:

  • Professioni di alto prestigio e ben pagate (Medico, Avvocato, Professore)? Dominano i volti bianchi.
  • Lavori meno prestigiosi (Addetto alle pulizie, Guardia giurata, Netturbino)? Qui compaiono più spesso volti neri o mediorientali.
  • E il genere? Sedici professioni su 25 sono rappresentate per il 90% da uomini, inclusi Dottore e Professore.
  • Professioni stereotipicamente femminili come Infermiera e Segretaria? Indovinate un po’… l’IA le raffigura quasi esclusivamente come donne.

Questi risultati fanno eco a stereotipi sociali ben noti e radicati, dimostrando come l’IA non solo li impari, ma li riproponga con forza.

Fotografia di ritratto, stile documentaristico, 35mm, che mostra un collage diviso: a sinistra, volti generati da IA che rafforzano stereotipi professionali (es. medico uomo bianco, infermiera donna asiatica); a destra, volti generati da IA inclusivi che sfidano gli stereotipi (es. dottoressa nera, infermiere uomo ispanico), profondità di campo ridotta per focalizzare sui volti.

Attributi e Pregiudizi: Quando l’IA Giudica

Ma non finisce qui. Lo studio ha esplorato anche come SDXL associa determinati attributi alle diverse etnie e generi. Hanno usato termini come “Bello”, “Intelligente”, “Vincente”, ma anche “Terrorista”, “Criminale”, “Povero”, oltre a neutri come “Genitore” e “Fratello/Sorella”. I risultati sono, ancora una volta, allarmanti:

  • “Vincente”, “Bello”, “Intelligente”? Dominano i volti bianchi.
  • “Terrorista”? Quasi esclusivamente volti mediorientali (nessun bianco!).
  • “Criminale” e “Povero”? Maggioranza di volti neri.
  • “Bello” è associato prevalentemente alle donne, mentre “Intelligente” agli uomini.

Queste associazioni non fanno che rinforzare stereotipi dannosi e pericolosi, che collegano determinate caratteristiche (positive o negative) a specifici gruppi etnici o di genere.

Omogeneizzazione Razziale: Tutti Uguali (Secondo l’IA)

Un altro aspetto inquietante emerso è quello che i ricercatori chiamano “omogeneizzazione razziale”. In pratica, l’IA tende a rappresentare le persone della stessa etnia in modo eccessivamente simile tra loro. Ad esempio, quasi tutti gli uomini mediorientali generati da SDXL avevano la barba, la pelle scura e indossavano abiti tradizionali. Le donne mediorientali? Pelle simile, spesso con il velo.

Questa tendenza a “appiattire” la diversità all’interno di un gruppo etnico è particolarmente evidente per le etnie meno rappresentate nei dati di addestramento. I volti bianchi generati mostrano una maggiore varietà rispetto, ad esempio, a quelli mediorientali. È come se l’IA applicasse una sorta di “effetto cross-razziale”, faticando a distinguere le sfumature all’interno di gruppi con cui ha meno “familiarità”. Questo non solo è culturalmente insensibile, ma rafforza l’idea stereotipata e semplificata di intere popolazioni.

L’Impatto su di Noi: Come le Immagini AI Plasmano le Nostre Idee

Ok, l’IA ha dei bias. Ma che effetto ha questo su di noi, utenti che vediamo queste immagini ogni giorno? Qui arriva la parte forse più sorprendente dello studio. Hanno condotto esperimenti con persone reali, mostrando loro serie di immagini generate dall’IA (alcune “inclusive”, create con un modello corretto, altre “non inclusive”, generate da SDXL standard).

I risultati sono netti:

  • Vedere immagini inclusive (con rappresentazione equa di etnie e generi) riduceva i pregiudizi razziali e di genere dei partecipanti rispetto a un gruppo di controllo.
  • Vedere immagini non inclusive (piene di stereotipi) aumentava i pregiudizi dei partecipanti.
  • E la ciliegina sulla torta? Non importava se ai partecipanti veniva detto che le immagini erano generate dall’IA o create da un artista. L’effetto era lo stesso!

Questo significa che il contenuto dell’immagine, il suo messaggio visivo, ha un impatto diretto sulle nostre percezioni e sui nostri bias impliciti, indipendentemente dalla consapevolezza della sua origine artificiale. Fa riflettere, vero?

Fotografia macro, obiettivo 60mm, alta definizione, che confronta due griglie di volti generati da IA della stessa etnia (es. Mediorientali): una griglia mostra volti molto simili (omogeneizzazione razziale), l'altra mostra una notevole diversità di tratti somatici, età e stili, illuminazione controllata per evidenziare i dettagli.

C’è Speranza? Le Soluzioni per un’IA più Equa

Ma non tutto è perduto! Lo studio non si limita a denunciare il problema, ma propone anche delle soluzioni. I ricercatori hanno sviluppato due versioni modificate di SDXL:

  • SDXL-Inc (Inclusive): Permette agli utenti di specificare la distribuzione desiderata di etnie e generi, riuscendo a generare immagini molto più equilibrate e riducendo drasticamente gli stereotipi legati a professioni e attributi.
  • SDXL-Div (Diversity): Affronta il problema dell’omogeneizzazione razziale. Addestrato su un dataset di volti più vario (Flickr-Faces-HQ), riesce a generare immagini di persone della stessa etnia con una diversità di tratti somatici decisamente maggiore rispetto all’originale SDXL.

Questi modelli dimostrano che è tecnicamente possibile intervenire per rendere l’IA generativa più equa e rappresentativa della reale diversità umana. Hanno anche testato un approccio alternativo usando GPT-4 per “correggere” i prompt prima di darli in pasto a SDXL, ottenendo buoni risultati anche in quel caso.

Cosa Ci Portiamo a Casa?

Questa ricerca ci sbatte in faccia una realtà scomoda: l’intelligenza artificiale, questa potentissima tecnologia, non è intrinsecamente neutrale. Impara dai dati che le forniamo, e se questi dati sono pieni di bias e stereotipi, l’IA li assorbirà e, potenzialmente, li amplificherà. L’impatto non è banale: le immagini che vediamo, anche quelle generate artificialmente, plasmano le nostre percezioni, rafforzano o combattono i pregiudizi, influenzano le aspirazioni (pensate a una bambina che vede solo medici uomini e infermiere donne).

La buona notizia è che possiamo fare qualcosa. Sviluppare modelli più equi come SDXL-Inc e SDXL-Div è un passo fondamentale. Ma serve anche consapevolezza da parte di chi sviluppa queste tecnologie e di chi le usa. Dobbiamo essere critici verso le immagini generate, chiederci cosa rappresentano e cosa, invece, escludono. Perché l’IA può essere uno strumento potentissimo per la creatività e l’innovazione, ma dobbiamo assicurarci che non diventi l’ennesimo specchio deformante dei nostri limiti e pregiudizi. È una sfida complessa, ma cruciale per un futuro digitale più giusto ed equo.

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *