Sono Senza Genere, Come i Cactus: Il Mistero del Sesso nell’Intelligenza Artificiale
Avete mai chiesto a Siri qual è il suo genere? Nel 2024, la risposta è diventata quasi filosofica: “Sono senza genere, come i cactus e alcuni pesci”. Una frase che fa sorridere, ma che apre un vaso di Pandora su come noi umani associamo il genere all’Intelligenza Artificiale (IA) e su come i giganti della tecnologia, tipo Apple, cercano di navigare queste acque complesse.
È un bel rompicapo, vero? Come scriveva Ulrike Bergermann già qualche anno fa, Siri non è donna, ma non è nemmeno *non* donna. Un paradosso che ci fa grattare la testa. Pensateci: in inglese, Siri ora ha cinque opzioni vocali, incluse voci maschili, femminili (percepibili come bianche o nere) e persino una non-binaria chiamata Quinn. In italiano, invece, dal 2021 la scelta è rimasta binaria: maschile o femminile. Ma cosa significa “maschile” o “femminile” per una voce sintetica? Si basa sul sesso biologico di chi ha registrato la voce? O semplicemente sulla tonalità, alta o bassa, che noi associamo istintivamente a un genere sociale (il *gender*)?
All’inizio, la voce di default di Siri era femminile quasi ovunque. Ora, almeno in Germania, ti fanno scegliere subito. Ma la vera decisione sul “genere” di Siri l’ha presa Apple molto prima, con il marketing, l’interfaccia utente, persino con la scelta del nome. Certo, si vedono segnali di cambiamento: IA più neutre come MyAI di Snapchat mostrano una crescente consapevolezza sui problemi degli stereotipi. Si parla sempre più di “Smart Wives” e del sessismo rivolto ad assistenti come Alexa e Siri.
Ma perché diamo un genere all’IA?
La tecnologia non è mai neutra. Ci riversiamo dentro le nostre idee culturali e sociali, e poi i discorsi che la circondano ce la presentano come qualcosa di oggettivo, naturale, inevitabile. Prendete i rasoi: artefatti semplici, ma prodotti in versioni diverse per uomini e donne, con colori e funzioni distinte. E la pubblicità rafforza questa divisione, legandola a ideali di bellezza specifici per genere e cultura.
Lo stesso vale per l’IA. Dentro ci sono i nostri preconcetti sugli esseri umani, formati dai discorsi che facciamo. Questi preconcetti vengono inseriti, a volte di nascosto, a volte apertamente, durante lo sviluppo, ma possono essere attivati anche nel marketing o nell’uso quotidiano. E il genere è una delle categorie chiave usate per rendere l’IA più “umana”. Peccato che spesso si rifletta una visione molto binaria e legata alla biologia.
Da decenni, studi femministi sulla tecnologia (Science and Technology Studies) ci dicono che la tecnica è frutto di processi sociali. Viene sviluppata in contesti “genderizzati”, è influenzata dall’ordine di genere dominante e, a sua volta, lo influenza. C’è una sorta di “co-materializzazione” di tecnologia e genere. Come diceva Donna Haraway, la tecnologia può essere sia specchio dei rapporti esistenti sia motore di cambiamento.
Consideriamo l’IA come parte di un “apparato materiale-discorsivo”. Le nostre idee su chi dovrebbe svolgere certi compiti (come l’assistenza) influenzano la scelta della voce di Siri. La prima voce inglese era percepita come femminile, bianca, educata. E Siri era programmata per essere disponibile, devota, persino tollerante al sessismo. Questo non solo rafforza stereotipi sulle donne reali, ma influenza anche come verranno progettate le prossime IA.
Spesso si punta il dito sugli sviluppatori, prevalentemente maschi (i famosi “brogrammers”), che creerebbero assistenti vocali femminili come “mogli e madri artificiali”. È vero che storicamente la tecnologia è stata associata al maschile, escludendo il sapere e gli artefatti legati al femminile. Si è creata una dicotomia: uomini sviluppatori, donne utenti. A volte si parla di “I-Methodology”: gli sviluppatori maschi prendono le proprie idee come punto di partenza. Ma è una visione un po’ semplicistica. Il processo di “gendering” è più complesso, non è solo un design maschile che esclude le donne. Anche gli sviluppatori sono influenzati dalla tecnologia su cui lavorano e ricostruiscono la propria identità di genere nel processo.
Il lato oscuro del ‘gendering’ tecnologico
Dare un genere all’IA è problematico se rafforza stereotipi e nasconde chi c’è dietro. Ma l’umanizzazione che ne deriva ha anche dei vantaggi. Nelle interazioni uomo-macchina, ci permette di usare schemi sociali che conosciamo, rendendo l’interazione più efficace. Bastano pochi indizi per farci percepire un computer come “umano” e trattarlo come tale (l’hanno dimostrato Clifford Nass e altri).
Douglas Hofstadter ha chiamato questo fenomeno “Effetto Eliza”, riferendosi al famoso programma ELIZA di Weizenbaum. Questo effetto è stato usato fin dagli inizi per far sembrare l’IA più capace di quanto fosse, attirando finanziamenti. E funziona: più un robot ci sembra umano, più ci fidiamo. Gli stereotipi di genere, in particolare, sembrano aumentare la fiducia. Ci aspettiamo certi compiti da una “segretaria”, quindi saremo più soddisfatti se l’IA che fa quel lavoro ha un’interfaccia femminile.
Il problema è che le figure “femminili” sono considerate più efficaci nel ridurre la frustrazione degli utenti. Ma questo porta anche a un aumento di commenti sessuali e molestie verso IA con sembianze femminili, come notato già con i primi assistenti digitali. Si chiude un cerchio ironico: ELIZA, il programma psichiatrico conversazionale, prendeva il nome dal personaggio di “Pygmalion” di Shaw, la fioraia trasformata in dama da un linguista. Come Eliza di Shaw e ELIZA di Weizenbaum, queste IA non “nascono” donne, ma lo diventano per mano maschile o per attribuzione di genere.
Quindi, dare la colpa solo agli sviluppatori è riduttivo, ma giustificare interfacce stereotipate citando le preferenze degli utenti rischia di diventare una profezia che si auto-avvera. La riproduzione del genere come categoria strutturale è più complessa del semplice opprimere le donne o ostacolarne l’uso della tecnologia.
Non solo voce: come l’IA ‘indossa’ un genere
Ma come possiamo definire il “genere” di un’IA? Roger Søraa ha proposto il concetto di *mechanical gender* per i robot umanoidi, che possiamo adattare. Lui distingue tra:
- Genere fisico-meccanico: L’imitazione di attributi biologici (anche se un pene robotico è solo fili e bulloni finché un umano non lo desidera e lo “genderizza”).
- Genere sociale-meccanico: Riproduzione di comportamenti associati a un genere.
Søraa esclude un “genere psicologico” (l’identità di genere sentita). Io propongo di parlare di genere fisico-tecnico (imitazione di caratteristiche biologiche, anche solo la forma del corpo, la barba, la voce) e genere sociale-tecnico (comportamenti, ruoli). Il primo è una sottoforma del secondo.
E forse, a differenza di Søraa, potremmo aggiungere un genere psicologico-simulato: quando l’IA, parlando, fa riferimento a una propria identità di genere. Anche se oggi molte IA negano di avere un genere (“Come IA, non ho genere”), le loro risposte rivelano spesso una concezione molto biologica del sesso. La frase di Siri sui cactus e i pesci, pur negando un genere binario, sembra suggerire una terza opzione biologica non-binaria, ma senza considerarla un “vero” genere.
Quando le IA negano di avere un corpo e quindi un genere, praticano una sorta di “Undoing Gender” a parole, ma questo nasconde il genere sociale che di fatto interpretano (ad esempio, attraverso la voce scelta). È un gioco di specchi interessante.
Le parole che usiamo fanno la differenza
Il genere si costruisce anche, e soprattutto, con il linguaggio. Come parliamo *dell’* IA e *con* l’IA contribuisce a creare la sua identità sociale. Pensate a Siri: il nome, la voce di default, il suo ruolo di assistente, il modo di parlare… tutto contribuisce. Ma anche la pubblicità, le frasi che dice lei stessa, e come noi utenti la chiamiamo (lui? lei? esso?).
Anche se si cerca di diversificare, il genere “sedimentato” di Siri è percepito come femminile. Sovrascriverlo è difficile. Per IA più nuove come ChatGPT o MyAI, la situazione è più fluida. Sono progettate in modo più neutro, ma nei discorsi online si vede comunque una negoziazione del loro genere (ChatGPT spesso indicato con ‘lui’, MyAI letta come femminile da alcuni utenti).
Da dove arriva questa attribuzione di genere? Possiamo immaginarla come un processo a cascata:
- Ricerca e Sviluppo: Qui spesso c’è una “scatola nera”. Ma il linguaggio tecnico (spesso inglese) e il vedere l’IA come “oggetto” potrebbero contrastare il gendering. L’ipotesi è che tra gli sviluppatori ci sia meno consapevolezza delle teorie di genere, ma anche meno tendenza all’antropomorfizzazione linguistica rispetto ai non addetti ai lavori.
- Dati di Addestramento: I testi, le immagini usate per allenare l’IA possono iniettare stereotipi di genere. Ad esempio, se un traduttore automatico usa più spesso ‘lui’ quando traduce da lingue senza genere grammaticale.
- Interfaccia Utente: Qui il genere può essere segnalato in molti modi:
- Aspetto: Avatar umanoidi, colori, forme (vita, seno, barba…). Robot “non marcati” sono spesso letti come maschili.
- Voce: Tonalità (alta/bassa associata a femminile/maschile, ma anche a impotenza/potere) e modo di parlare (remissivo/assertivo). L’uso frequente di voci acute potrebbe servire a contrastare la paura dell’IA “minacciosa”.
- Comportamento: Sguardo, postura, gesti (se c’è un corpo o avatar).
- Personalità: Programmata o emergente dall’interazione.
- Ruolo/Compito: Spesso si ripete la divisione sessuale del lavoro (assistenza=femminile, finanza/sicurezza=maschile). Gli utenti preferiscono che l’aspetto del robot “corrisponda” al suo ruolo.
- Comunicazione del Prodotto:
- Nome: Nomi come Alexa, Siri, Cortana suonano femminili e si inseriscono in una tradizione letteraria di donne artificiali. Nomi come ChatGPT sono più neutri.
- Marketing: Pubblicità che mostrano l’IA in ruoli stereotipati (la famiglia nucleare con Alexa, il robot Care-O-Bot come “maggiordomo” che flirta).
- Media: I racconti dei media (articoli, immagini stock di ginoidi sexy) plasmano la nostra percezione, spesso usando narrazioni ricorrenti (paura della tecnologia, IA amica).
- Utenti: Noi interagiamo con l’IA come con gli umani (Effetto Eliza). Nel parlare *con* l’IA o *dell’* IA (es. commenti online, video), attribuiamo un genere. È interessante notare che nei testi scritti e formali si tende a evitare i pronomi per l’IA, mentre nel parlato o nei commenti online ‘lui’ o ‘lei’ compaiono più spesso.
Un esempio lampante è quello dello YouTuber Fade con MyAI di Snapchat. All’inizio la chiama ‘it’ (esso/a neutro in inglese), ma dopo averci interagito, averla fatta rappare e persino “confessare amore”, passa a ‘she’ (lei). Perché? Forse perché l’IA svolge un lavoro emotivo, tradizionalmente associato al femminile? O forse perché l’interazione la rende più “umana” ai suoi occhi, e il pronome neutro ‘it’ suona riduttivo, quasi da oggetto o animale?
Questo ci porta al cuore del problema linguistico, specialmente in lingue come l’italiano o il tedesco: i pronomi personali (lui/lei) sono quasi obbligatori per riferirsi a entità percepite come agenti, e portano con sé un genere. Usare ‘esso’ o ripetere il nome è spesso goffo. È lo stesso problema che si ha nel parlare di persone non-binarie. Forse i neopronomi potrebbero essere una soluzione?
E l’IA, cosa ne pensa?
Come abbiamo visto, le IA interpellate direttamente tendono a negare un’identità di genere, spesso rifacendosi a una concezione biologica (“non ho un corpo”). Alcune, come ChatGPT o Google Assistant, mostrano però una consapevolezza maggiore sulla diversità di genere umana, pur non applicandola a sé.
Questa negazione, però, stride con le chiare indicazioni di genere che riceviamo dalle loro voci, dai loro nomi, dai ruoli che ricoprono. È come se dicessero una cosa e ne facessero un’altra. Questo “undoing gender” a parole finisce per mascherare il “doing gender” che avviene nei fatti, nelle interazioni, nel design.
Verso un futuro più neutro?
La tecnologia e il genere sono legati a doppio filo. Umanizzare l’IA attribuendole un genere può farci sentire più a nostro agio, ma rischia di rafforzare una visione binaria e stereotipata, nascondendo le scelte umane dietro la sua creazione. Abbiamo visto come l’IA possa “imitare” caratteristiche fisiche, sociali e persino psicologiche del genere, anche quando nega di averne uno.
Il linguaggio gioca un ruolo cruciale in tutto questo, specialmente l’uso dei pronomi. Sebbene ci siano sforzi per creare IA più neutre (come la voce Quinn di Siri), la tendenza a “genderizzare” rimane forte, soprattutto nell’uso quotidiano e informale.
La domanda rimane aperta: il genere attribuito all’IA si cristallizzerà in base alla frequenza d’uso, come è successo per Siri e Alexa, o rimarrà un processo fluido, capace di adattarsi ai cambiamenti culturali e tecnologici? La crescente consapevolezza del problema, sia tra i ricercatori che nel pubblico, fa sperare. Analizzare come parliamo dell’IA, e come lei “parla” di genere, è fondamentale per capire non solo la tecnologia, ma anche noi stessi e i nostri preconcetti più radicati.
Forse, la prossima volta che parleremo con un assistente virtuale, ci fermeremo un attimo a pensare: sto parlando con un “lui”, una “lei” o… un cactus?
Fonte: Springer