Un'immagine concettuale che mostra un'onda sonora astratta trasformarsi nel profilo stilizzato di un volto maschile e femminile, simboleggiando la voce dell'IA e il genere, con un'auto a guida autonoma sfocata sullo sfondo. Obiettivo da 50mm, profondità di campo, colori duotone blu e grigio.

Voce dell’IA in Auto: Maschile o Femminile? Una Questione di Fiducia (e Stereotipi!)

Sapete, ogni volta che sento una voce artificiale – che sia quella del navigatore, dell’assistente sul telefono o, chissà, un giorno quella della mia auto a guida autonoma – mi chiedo sempre: chi ha deciso che voce dovesse avere? E perché proprio quella? Sembra una domanda da poco, ma vi assicuro che dietro c’è un mondo di psicologia, design e, udite udite, anche di stereotipi sociali.

Mi sono imbattuto di recente in uno studio affascinante, pubblicato su Scientific Reports, che si intitola “Artificial intelligence voice gender, gender role congruity, and trust in automated vehicles”. Un titolone, lo so, ma il succo è intrigante: come il genere della voce dell’intelligenza artificiale (IA) nei veicoli autonomi e la sua coerenza con i ruoli di genere che ci aspettiamo influenzano la nostra fiducia in queste macchine futuristiche. E credetemi, i risultati aprono scenari davvero curiosi!

Ma la voce dell’IA ha un sesso? E perché dovrebbe importarci?

Partiamo da un presupposto: i veicoli a guida autonoma (VGA) sono una promessa incredibile per il futuro dei trasporti. Più sicurezza, efficienza, comodità… chi non li vorrebbe? Eppure, c’è un grosso scoglio: la nostra diffidenza. Ci fideremo mai abbastanza da lasciar guidare un computer al posto nostro? La fiducia è la parola chiave. E indovinate un po’? La comunicazione uditiva, cioè come l’auto “parla” con noi, gioca un ruolo fondamentale, anche se finora si è badato più al contenuto dei messaggi che alle caratteristiche della voce stessa.

Ora, pensateci: Siri di Apple, Alexa di Amazon… spesso hanno voci femminili di default. Vi siete mai chiesti perché? Una teoria, detta “similarity attraction theory”, suggerisce che tendiamo a fidarci di più di voci simili alla nostra. Quindi, in teoria, dovremmo poter personalizzare la voce dell’IA della nostra auto per farla assomigliare alla nostra. Eppure, molti non lo fanno. Strano, no?

Stereotipi di genere al volante: un copilota inaspettato

Qui entrano in gioco gli stereotipi di genere e la “congruenza di ruolo di genere”. In parole povere, la società ci ha abituati ad associare certi tratti e ruoli agli uomini e altri alle donne. Gli uomini? Assertivi, competitivi, logici. Le donne? Premurose, empatiche, emotive. Questi preconcetti, che ci piaccia o no, influenzano come percepiamo il mondo, e sì, anche come valutiamo una voce artificiale.

Se una voce (o una persona, o un’IA!) si comporta in linea con questi ruoli tradizionali, tendiamo a valutarla più positivamente. Se si discosta, potremmo storcere il naso o, nel caso delle auto autonome, fidarci di meno. Immaginate un’IA con voce maschile che vi dà consigli finanziari (ruolo autorevole, spesso associato al maschile) contro una con voce femminile che vi offre supporto emotivo (ruolo di cura, spesso associato al femminile). Molti studi dicono che preferiremmo così.

E questo ci porta a una domanda cruciale per i progettisti di auto del futuro: come bilanciare la preferenza per voci “familiari” (simili alla nostra) con queste aspettative basate su stereotipi?

Fiducia: una questione di testa o di cuore?

Prima di svelarvi cosa hanno scoperto i ricercatori, c’è un’altra distinzione importante da fare. La fiducia non è tutta uguale. C’è la fiducia cognitiva, quella basata sulla logica, sulla valutazione razionale dell’affidabilità di qualcuno (o qualcosa). E poi c’è la fiducia affettiva, quella che nasce da una connessione emotiva, dal sentirsi capiti e supportati.

Una voce che ci somiglia potrebbe farci sentire più a nostro agio (fiducia affettiva), ma non necessariamente convincerci della sua competenza (fiducia cognitiva). Capire queste dinamiche è fondamentale per progettare tecnologie che ispirino davvero confidenza.

Lo studio si è posto due obiettivi principali:

  • Capire se la somiglianza di genere tra la voce dell’IA dell’auto e l’utente influenzi la fiducia cognitiva e affettiva.
  • Esaminare come la percezione del ruolo dell’IA (e gli stereotipi di genere associati) moderi questa relazione.

Per farlo, hanno condotto un esperimento online con un bel po’ di partecipanti. E i risultati, ve lo anticipo, sono piuttosto illuminanti!

Un primo piano del volante di un'auto moderna con un display olografico che mostra un'interfaccia utente vocale, illuminazione interna soffusa, obiettivo da 35mm, profondità di campo per mettere a fuoco l'interfaccia.

Quando parliamo di IA, spesso le attribuiamo tratti umani. È un processo naturale chiamato antropomorfizzazione. Basta una voce per farci immaginare un genere, un’età, persino una personalità. E il genere della voce è uno degli elementi più discussi. Come dicevo, molte IA hanno voci femminili di default, forse perché associate a calore e cooperazione, o semplicemente perché siamo abituati alle voci femminili nei sistemi di navigazione. Ma questa scelta è sempre più sotto esame.

L’esperimento: metti alla prova la fiducia

I ricercatori hanno coinvolto 326 conducenti statunitensi, bilanciati per genere ed età (giovani adulti 18-25 e adulti più maturi over 55). Hanno usato un disegno sperimentale 2×2, incrociando due fattori: la somiglianza di genere (la voce dell’IA corrispondeva o meno al genere del partecipante) e la congruenza di ruolo di genere. Quest’ultima è stata definita in base a come i partecipanti percepivano il ruolo dell’IA: “assistente alla guida” (stereotipicamente più femminile) o “supervisore alla guida” (stereotipicamente più maschile). Se un partecipante percepiva l’IA come assistente e sentiva una voce femminile, era nel gruppo “congruenza di ruolo”. Se sentiva una voce maschile, era nel gruppo “incongruenza”.

Per creare le voci, hanno usato piattaforme text-to-speech, generando voci maschili e femminili, giovani e mature, con accento americano standard. Ai partecipanti venivano mostrati sei scenari video di guida (urbana, autostradale, rurale) in cui l’IA spiegava le sue azioni (“cosa” stava facendo e “perché”). Dopo ogni video, i partecipanti valutavano la loro fiducia cognitiva e affettiva verso l’IA.

I risultati: quando la somiglianza (e il ruolo) fanno la differenza

E qui, amici miei, le cose si fanno interessanti! Ecco cosa è emerso:

  • Somiglianza di genere e fiducia cognitiva: Contrariamente a quanto si potrebbe pensare, sentire una voce IA dello stesso genere non ha avuto un impatto significativo sulla fiducia cognitiva. Insomma, la “testa” non si lascia influenzare solo dalla somiglianza di genere.
  • Somiglianza di genere e fiducia affettiva: Qui le cose cambiano! I partecipanti hanno mostrato una maggiore fiducia affettiva quando la voce dell’IA corrispondeva al loro genere. Il “cuore”, a quanto pare, apprezza la familiarità.

Ma il vero colpo di scena arriva quando entra in gioco la congruenza di ruolo di genere. Questa ha moderato l’effetto della somiglianza di genere su entrambi i tipi di fiducia:

  • Quando c’era congruenza di ruolo (es. voce femminile per ruolo di assistente, voce maschile per ruolo di supervisore):
    • La somiglianza di genere ha aumentato significativamente sia la fiducia cognitiva che quella affettiva. In pratica, se la voce dell’IA non solo mi somiglia, ma si comporta anche come “mi aspetto” in base al suo genere, allora mi fido di più, sia con la testa che col cuore. L’effetto era particolarmente forte sulla fiducia affettiva.
  • Quando c’era incongruenza di ruolo (es. voce maschile per ruolo di assistente, voce femminile per ruolo di supervisore):
    • L’effetto positivo della somiglianza di genere sulla fiducia (sia cognitiva che affettiva) svaniva. Anzi, per la fiducia cognitiva, non c’era differenza significativa tra sentire una voce simile o dissimile al proprio genere. Per la fiducia affettiva, l’effetto della somiglianza si annullava.

In sintesi: la somiglianza di genere da sola può scaldare un po’ il cuore (più fiducia affettiva), ma per conquistare anche la testa (fiducia cognitiva), serve che la voce dell’IA e il suo ruolo siano allineati con le nostre aspettative stereotipate. Se questo allineamento manca, anche il beneficio della somiglianza si perde.

Una persona seduta sul sedile del passeggero di un'auto a guida autonoma, guarda con fiducia la strada davanti a sé mentre l'auto guida, luce naturale del giorno che entra dal finestrino, obiettivo da 24mm, effetto leggermente mosso per indicare il movimento dell'auto.

Cosa significa tutto questo per le auto del futuro (e per noi)?

Questi risultati sono una miniera d’oro per chi progetta le interfacce vocali delle auto autonome. Ci dicono che c’è una tensione interessante: da un lato, sfruttare gli stereotipi di genere esistenti potrebbe aiutare a costruire più rapidamente la fiducia degli utenti. Dall’altro, però, c’è il rischio di rafforzare questi stessi stereotipi, che molti di noi vorrebbero superare.

Allora, che fare? Gli autori dello studio suggeriscono alcune strade:

  • Personalizzazione e opzioni neutre: Invece di imporre voci maschili o femminili di default, perché non offrire un’ampia gamma di personalizzazioni, incluse voci di genere neutro? Lasciamo che sia l’utente a scegliere.
  • Strategie adattive: L’IA potrebbe adattare le caratteristiche della sua voce in base alle interazioni con l’utente, piuttosto che basarsi su assegnazioni di genere statiche.
  • Oltre le voci antropomorfiche: Si potrebbero usare segnali uditivi non vocali, come toni o indicatori visivi, per spostare l’attenzione dalle aspettative di genere alla funzionalità della comunicazione.
  • Voci adattate alla situazione, non al genere: Invece di pensare che certi ruoli richiedano voci maschili o femminili, si potrebbero sviluppare caratteristiche vocali che si adattano alle esigenze della situazione, costruendo fiducia sulla funzionalità piuttosto che su aspettative di genere.
  • Ripensare il ruolo dell’IA: Forse l’IA non deve essere né un “assistente subordinato” né un “decisore autoritario”. Un approccio collaborativo potrebbe ridefinire la relazione uomo-macchina come una partnership, non una gerarchia.

L’obiettivo, insomma, è progettare sistemi che siano affidabili e socialmente responsabili, capaci di guadagnarsi la nostra fiducia attraverso la loro funzionalità e rilevanza contestuale, non perpetuando vecchi schemi.

Limiti e prospettive future: la strada è ancora lunga

Come ogni studio scientifico, anche questo ha i suoi limiti. I partecipanti erano reclutati online e potrebbero non rappresentare la popolazione generale. L’esperimento, seppur robusto, è avvenuto in un ambiente controllato, quindi serviranno studi sul campo per confermare i risultati. Inoltre, ci si è concentrati solo sulla dimensione del genere della voce, tralasciando altri aspetti come personalità, età percepita (anche se controllata), accento o etnia. E, cosa importante, si sono considerate solo categorie di genere binarie (maschile e femminile), mentre ricerche future dovrebbero includere identità di genere non binarie e diverse per una comprensione più inclusiva.

Nonostante ciò, questo studio è un passo avanti importantissimo. È uno dei primi a esplorare così a fondo come le caratteristiche della voce influenzino l’efficacia delle spiegazioni fornite dalle auto a guida autonoma di Livello 5 (quelle completamente autonome).

In conclusione, la prossima volta che sentirete una voce IA, pensate a quanto lavoro e quante considerazioni ci sono dietro. E se un giorno la vostra auto vi parlerà, saprete che la sua voce non è scelta a caso, ma è il risultato di un complesso equilibrio tra tecnologia, psicologia e, sì, anche un pizzico di quegli stereotipi che, volenti o nolenti, fanno ancora parte del nostro bagaglio culturale. La sfida è usarli con consapevolezza, o meglio ancora, trovare modi per superarli costruendo un futuro tecnologico più inclusivo per tutti.

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *