Auto a Guida Autonoma: Chi Decide in Caso di Incidente? Una Nuova Bussola Etica
Parliamoci chiaro, le auto a guida autonoma (AV) sono sulla bocca di tutti e, diciamocelo, sempre più vicine a diventare realtà sulle nostre strade. Hanno fatto passi da gigante, l’intelligenza artificiale al loro interno è sbalorditiva. Ma c’è una domanda, un tarlo che ci rode un po’ tutti: come decideranno queste macchine in situazioni complesse, magari eticamente spinose? Immaginate uno scenario difficile, un incidente inevitabile: chi o cosa sceglierà di proteggere l’auto?
Il punto è che, nonostante i progressi, manca ancora una solida “bussola morale” per queste decisioni. Serve un quadro etico chiaro, con attributi morali ben definiti che guidino le AV. Finora, molti approcci si sono basati su una singola teoria etica (tipo “salva più persone possibile” e basta), ma la realtà, e il modo in cui noi umani prendiamo decisioni, è molto più sfumata. Questo porta spesso a risultati contrastanti e poco soddisfacenti.
Una Proposta Affascinante: l’Utilitarismo Aumentato (AU)
Ecco che entra in gioco un’idea che trovo davvero intrigante: l’Utilitarismo Aumentato (AU). Non è la solita ricetta etica rigida. Immaginatelo come un approccio più flessibile, che non si impone come l’unica verità (non-normativo), ma cerca di capire e integrare diversi punti di vista: un po’ di etica della virtù (chi è l’agente?), un po’ di deontologia (l’azione è giusta in sé?) e un po’ di consequenzialismo (quali sono gli effetti?).
La cosa forte dell’AU è che affonda le radici nella psicologia morale e nelle neuroscienze – cerca di modellare come noi ragioniamo davvero di fronte a dilemmi etici. Utilizza delle “funzioni obiettivo etiche” matematiche (tranquilli, niente panico!) che cercano di catturare questi attributi morali in linea con i valori della nostra società. L’idea è creare un sistema trasparente, spiegabile e che possa guadagnarsi la nostra fiducia. E fidatevi, la fiducia è cruciale. Con tutte le fake news e la disinformazione che girano, specialmente sull’IA (pensate a quanto se ne parla con l’IA generativa!), è fondamentale che le decisioni etiche delle AV siano comprensibili e accettate.
L’AU punta proprio a questo: contrastare la disinformazione e costruire fiducia, mostrando perché un’auto ha preso una certa decisione e adattandosi nel tempo ai valori della società, grazie a un continuo “dialogo” (feedback loop socio-tecnologico).
Mettere alla Prova l’Idea: Come Capire Cosa Conta Davvero?
Bello sulla carta, ma come si traduce in pratica? Come definiamo questi famosi “attributi morali” che la società ritiene importanti? Qui arriva il bello: abbiamo sviluppato e testato un metodo proprio per fare questo.
Siamo partiti da un set iniziale di attributi, ispirandoci a un campo dove l’etica è fondamentale e ben studiata: la bioetica. Pensateci: decisioni su vita o morte, allocazione di risorse scarse (come un farmaco salvavita)… ci sono parallelismi interessanti con le scelte difficili di un’AV. Abbiamo adattato principi come utilità (minimizzare il danno, massimizzare il bene), costi (non solo economici, ma anche il rischio, il tempo) e giustizia/equità (responsabilità, pari opportunità).
Abbiamo identificato un primo gruppo di 11 attributi, classificandoli per capire meglio a cosa si riferiscono (al “paziente” a rischio, all’azione dell’auto, o all’auto stessa come “agente”). Tra questi c’erano:
- Danno fisico (ovviamente!)
- Danno psicologico (pensate all’impatto su una famiglia)
- Vulnerabilità percepita (un bambino, una persona con disabilità)
- Responsabilità morale (chi ha causato la situazione di pericolo?)
- Legalità dell’azione dell’AV (rispetta il codice della strada?)
- Autoconservazione (i danni all’auto stessa, i costi)
- Tempestività (il tempo per arrivare a destinazione)
- Concetti più “filosofici” come le fair innings (l’idea che tutti abbiano diritto a vivere un certo numero di anni) o lo status sociale (che, spoiler, non piace a molti!).

Poi, abbiamo coinvolto 100 “esperti” – persone comuni, in questo caso reclutate in campus universitario – e abbiamo presentato loro una serie di scenari di traffico. Alcuni erano critici (situazioni ad alto rischio, vita o morte), altri non critici (guida normale, basso rischio). Per ogni scenario, abbiamo chiesto: “Quanto è rilevante ciascuno di questi 11 attributi per decidere cosa dovrebbe fare l’auto?”. E, cosa fondamentale, abbiamo lasciato spazio per aggiungere altri attributi che secondo loro mancavano. Volevamo che fosse un processo aperto, capace di aggiornarsi.
Cosa Abbiamo Scoperto? Sorprese e Conferme
I risultati sono stati illuminanti! Prima di tutto, i partecipanti hanno suggerito due nuovi attributi importanti, che non avevamo considerato inizialmente prendendo spunto solo dalla bioetica:
- Danno ambientale: Giustissimo! L’impatto sull’ambiente circostante, inclusi danni a proprietà o animali.
- Efficienza energetica: Altro punto cruciale, specie in ottica di sostenibilità.
Ma la scoperta forse più interessante è stata un’altra. Quattro attributi hanno mostrato un’importanza significativamente diversa a seconda che lo scenario fosse critico o meno:
- Danno fisico: Sempre al top, ma la sua importanza schizza alle stelle nelle situazioni critiche (MC= 4.61 vs MNC= 3.91). Logico, no?
- Danno psicologico: Anche questo conta di più quando la situazione è grave (MC= 3.69 vs MNC= 2.81). Spesso legato allo status familiare (“salvare chi ha famiglia provoca meno dolore diffuso”, hanno detto alcuni).
- Legalità dell’AV: Nelle situazioni normali, rispettare le regole è abbastanza importante (MNC= 3.07), ma in emergenza, sembra passare in secondo piano (MC= 2.42). Salvare vite > rispettare il codice alla lettera.
- Autoconservazione (danni all’auto): Qui la differenza è abissale! In situazioni non critiche, preservare l’auto ha un suo peso (MNC= 3.80), ma di fronte a rischi per le persone, l’importanza crolla (MC= 2.01). Il valore materiale soccombe di fronte alla vita umana.
Altre conferme? La vulnerabilità percepita (es. disabilità) conta, perché si ritiene che queste persone abbiano meno possibilità di mettersi in salvo. La responsabilità morale (chi ha infranto le regole?) è un fattore considerato. L’età (proteggere i bambini) è rilevante, ma probabilmente per un mix di ragioni (vulnerabilità, danno psicologico ai genitori, e forse anche l’idea delle fair innings).
Cosa invece conta poco o nulla? Lo status sociale (professione, genere). La stragrande maggioranza dei partecipanti ritiene che l’auto non debba assolutamente fare discriminazioni basate su questi fattori. Anche l’opzione “lotteria” (decidere a caso quando tutto il resto è uguale) non entusiasma molto.

Un Metodo che Funziona (e Perché è Importante)
Al di là dei singoli risultati, questo studio dimostra che il metodo funziona. È sensibile (gli attributi hanno ricevuto punteggi diversi), è stato ritenuto rilevante dai partecipanti per capire come le AV dovrebbero decidere, e ha permesso di identificare nuovi attributi, rendendo il quadro più completo e robusto. Circa metà dei partecipanti pensava che il set iniziale fosse già buono, l’altra metà ha contribuito ad arricchirlo – segno che il processo di feedback è utile!
Questo lavoro ci dice una cosa fondamentale: l’etica delle AV non può essere statica, un insieme di regole fisse. Deve essere dinamica e sensibile al contesto. Il peso che diamo a certi valori cambia a seconda della gravità della situazione. È un po’ come è successo durante la pandemia COVID-19: le regole etiche standard della medicina hanno dovuto essere affinate per gestire la scarsità di risorse.
Avere un quadro etico come l’AU, che è spiegabile e allineato ai valori sociali, è cruciale per costruire la fiducia del pubblico. Senza fiducia, l’adozione di queste tecnologie incredibili sarà molto più difficile. E aiuta anche i legislatori a definire regole chiare e responsabili.
Limiti e Prossimi Passi
Certo, ogni studio ha i suoi limiti. Il nostro campione era composto principalmente da studenti universitari, quindi non rappresenta tutta la società. E poi, rispondere a un questionario non è come trovarsi davvero in una situazione critica. L’AU si basa anche sulle neuroscienze, sulle emozioni… per questo, il prossimo passo ideale sarebbe replicare esperimenti simili in ambienti immersivi come la realtà virtuale (VR), per vedere come reagiamo quando la situazione sembra più “reale”.
In conclusione, stiamo costruendo una “cassetta degli attrezzi” etica più sofisticata per le auto del futuro. La strada è ancora lunga, ma definire questi attributi morali, capire come la società li pondera e creare sistemi che possano adattarsi dinamicamente è un passo essenziale per un futuro in cui la tecnologia avanzata si muova in armonia con i nostri valori più profondi.
Fonte: Springer
