Intelligenza Artificiale ed Etica: La Mia Bussola per Navigare Acque Agitate
Amici, parliamoci chiaro: l’Intelligenza Artificiale (IA) è sulla bocca di tutti. Un giorno ci sbalordisce scrivendo temi da far invidia a uno studente modello o superando esami da avvocato, il giorno dopo ci fa tremare i polsi con scenari degni di un film di fantascienza. Da un lato, una potenza incredibile; dall’altro, una valanga di preoccupazioni sul suo impiego e sui possibili danni. E non sono l’unico a pensarla così.
Pensatori come Yuval Noah Harari ci mettono in guardia: l’IA potrebbe trasformarsi in uno strumento di sorveglianza e controllo senza precedenti, capace di manipolare i cittadini o di scatenare una nuova corsa agli armamenti con guerre ancora più devastanti. E che dire della possibile perdita di posti di lavoro? Non è un caso se oltre 30.000 persone hanno firmato una lettera aperta per chiedere una moratoria di sei mesi sullo sviluppo dell’IA e se 28 nazioni, inclusi colossi come Cina e Stati Uniti, hanno siglato la Dichiarazione di Bletchley per affrontare insieme i rischi.
Certo, al momento molte di queste paure sono speculative. Si parla di IA che sfugge al controllo, ma per ora sembra saldamente nelle mani dell’uomo. Il punto è che aspettare che i danni siano evidenti potrebbe essere troppo tardi. È il classico “dilemma di Collingridge”: quando una tecnologia è nuova, potremmo controllarla, ma non ne conosciamo gli effetti negativi; quando gli effetti negativi sono chiari, la tecnologia è così radicata che controllarla diventa un’impresa titanica. Ecco perché, secondo me, un codice etico per l’IA non è solo utile, ma fondamentale per prevenire o almeno mitigare i guai.
Ma i codici etici esistenti funzionano? Non proprio.
Di linee guida e codici etici sull’IA ne esistono a bizzeffe. Già nel 2019, prima dell’avvento di ChatGPT, se ne contavano 84! E cosa dicono? Principi sacrosanti come trasparenza, giustizia, equità, non maleficenza. Il problema è che spesso sono scritti a un livello talmente astratto da risultare poco pratici. Prendiamo la trasparenza: come si fa ad essere totalmente trasparenti con un algoritmo di IA generativa che è una “scatola nera” persino per i suoi creatori? Nessuno sa spiegare fino in fondo come un programma che “digerisce” testi per predire la parola successiva possa diventare potente come ChatGPT. Certo, un minimo di trasparenza è possibile, e aziende come IBM con Watson ci provano, soprattutto in campo medico dove i pazienti vogliono capire come si è arrivati a una diagnosi. Ma la trasparenza totale si scontra con i segreti industriali e con l’istinto dei programmatori, che puntano alla massima accuratezza, anche a scapito della chiarezza.
Questa frustrazione verso codici etici “inutili” è palpabile. Luke Munn, ad esempio, parla di “principi senza senso, isolati e senza denti”. Senza senso perché termini come “equità” o “privacy” sono ambigui. Isolati perché manca una vera educazione etica nel settore. Senza denti perché non c’è un meccanismo che ne imponga il rispetto. Ma qui, permettetemi di dissentire in parte. L’etica, come diceva Lord Moulton, è “obbedienza all’ineseguibile”. Si aderisce a un codice etico per il proprio miglioramento, non per paura di una multa. Spingere l’etica verso la legge, quando i danni non sono ancora chiari, è prematuro.
Allora, come possiamo rendere l’etica dell’IA qualcosa di concreto? Innanzitutto, dobbiamo distinguere le situazioni.
Tentazioni Morali vs. Veri Dilemmi Etici: Il Metodo Kidder
Per orientarmi, trovo utilissimo il framework di Rushworth Kidder. Lui distingue tra tentazioni morali (giusto contro sbagliato) e veri dilemmi etici (giusto contro giusto). Una tentazione morale è, ad esempio, pagare una tangente per non perdere il lavoro. Non è un dilemma etico, perché corrompere è sbagliato punto e basta. Lo stesso vale per le frodi contabili o le violazioni delle norme di sicurezza. Nel mondo dell’IA, i bias e le discriminazioni algoritmiche sono tentazioni morali: nessuno vuole un’IA ingiusta. Se l’Autopilot di Tesla si affida a linee stradali sbiadite causando incidenti, continuare così è una tentazione morale, perché esistono tecnologie (come il LiDAR) che potrebbero evitare il problema.
I veri dilemmi etici, quelli “giusto contro giusto”, sono più rari ma molto più complessi. Immaginate un’app di tracciamento contatti usata durante una pandemia, con la promessa che i dati serviranno solo per la salute pubblica. Poi, però, le forze dell’ordine accedono a quei dati per risolvere un crimine grave, magari un rapimento, salvando una vita. Qui il dilemma è tosto: è giusto proteggere la privacy degli utenti (altrimenti nessuno userà più l’app), ma è anche giusto usare i dati per risolvere crimini efferati e salvare persone. Come se ne esce? Kidder suggerisce tre vie: evitare la tentazione morale (se c’è), fare una scelta difendibile tra le due opzioni giuste, o trovare una “terza via” creativa che minimizzi il danno per tutti.
L’Etica nelle Applicazioni Specifiche dell’IA
Ogni applicazione IA ha le sue specificità etiche. Anni fa, con una startup, sviluppammo un’app per aiutare i ragazzini a scrivere temi. Decidemmo che sarebbe stato non etico far dare i voti dall’IA. Perché? Perché gli studenti avrebbero potuto “fregare” il sistema per ottenere voti alti senza migliorare davvero, ritrovandosi poi impreparati agli esami veri. Una scelta difficile, perché un’app con i voti si sarebbe venduta meglio, ma a lungo termine controproducente.
Un altro esempio è il “surge pricing” delle compagnie di ride-sharing. Da un lato, in un mercato capitalista, un’azienda è libera di fissare i prezzi. Dall’altro, i fattori usati per questi aumenti spesso non sono chiari. Io credo che dovrebbero essere trasparenti sulle variabili che usano, non svelare il codice, ma dimostrare che la logica dietro gli aumenti è ragionevole. Agli inizi di Uber, c’era il sospetto che le donne in situazioni vulnerabili pagassero di più. Anche se negato, il capo economista di Uber ammise che le persone erano più disposte a pagare tariffe maggiorate con la batteria del telefono scarica. Sfruttare una debolezza umana, anche se l’utente non se ne accorge, è etico? La reazione istintiva quando si scopre di essere stati “manipolati” suggerisce di no.
Perché Essere Etici? Aristotele e il “Mercato dei Limoni”
Ma se l’etica non è legalmente vincolante, cosa ci spinge a comportarci bene? Aristotele diceva che l’etica non è solo distinguere il bene dal male, ma vivere una vita “felice”, e si è più realizzati agendo eticamente. È un po’ come seguire una dottrina religiosa sperando in una ricompensa ultraterrena. E se uno non crede a queste cose? Beh, ci sono conseguenze più immediate: la reputazione. Qui entra in gioco la teoria del “Mercato dei Limoni” di George Akerlof. In breve: se c’è asimmetria informativa (il venditore sa la qualità, il compratore no), il mercato rischia il collasso perché nessuno si fida più. Pensate all’IA: se gli utenti non sono sicuri della qualità dell’algoritmo (per mancanza di trasparenza o non conformità a linee guida etiche), potrebbero smettere di usarla, portando al fallimento dell’azienda o dell’intero settore. Un codice etico, riducendo l’incertezza, agisce come una garanzia, un marchio di qualità, una sorta di “licenza” che previene questo tracollo.
Quale Teoria Etica per l’IA? La Mia Scelta è Aristotele
Per affrontare i dilemmi etici, gli esperti suggeriscono di usare le teorie etiche. Le più note sono:
- Utilitarismo: massimizzare il bene per il maggior numero di persone. Difficile da applicare all’IA oggi, perché le conseguenze a lungo termine sono incerte.
- Etica Deontologica (del Dovere): concentrarsi su obblighi e responsabilità. Utile, ma definire i doveri specifici nell’IA è complicato.
- Velo di Ignoranza di Rawls: mettersi nei panni di tutti gli stakeholder e creare regole eque. Nobile, ma richiede che ogni stakeholder possa articolare l’impatto dell’IA, cosa oggi difficile.
- Regola Aurea di Aristotele: cercare una soluzione equilibrata e creativa che eviti gli estremi.
Per me, la Regola Aurea di Aristotele è la più adatta al momento attuale dell’IA. Non va vista come un semplice compromesso, ma come una soluzione creativa che cerca di accomodare al meglio entrambe le parti di un dilemma. Nell’esempio dell’app di tracciamento, la polizia potrebbe limitare l’accesso ai dati solo per reati gravissimi, con meccanismi di controllo e limiti temporali. È una soluzione pragmatica che sposa lo spirito della Regola Aurea, navigando tra posizioni contrastanti per conciliare gli obiettivi.
Questioni Spinose: Licenziamenti e Disagio
E la perdita di posti di lavoro a causa dell’IA? È un problema etico? Molti dicono di no, che è il progresso. Ma se l’IA può ridurre un reparto da 50 a 5 persone, l’impatto sul benessere umano è innegabile. L’etica mira a una migliore qualità della vita. Quindi, se il licenziamento porta a disoccupazione e insicurezza, diventa una questione etica. Non significa che ogni licenziamento sia non etico, ma dipende da come le aziende gestiscono la transizione: offrono riqualificazione? Ricollocamento? Ignorare il benessere dei dipendenti è una falla etica. E c’è un incentivo per le aziende: i dipendenti, inclusi i manager intermedi spesso preoccupati per il loro ruolo, saranno più propensi ad adottare l’IA se si sentono tutelati e valorizzati.
A volte, il problema etico potrebbe essere non usare l’IA. Ho visto professionisti della comunicazione rifiutare strumenti di analisi del sentiment perché temevano mostrassero l’inefficacia delle loro campagne. Ma se l’obiettivo è un cambiamento positivo nel pubblico, non sarebbe etico usare strumenti che, seppur imperfetti, possono dare un’idea dell’impatto?
Infine, c’è una distinzione importante: il disagio non è sempre un problema etico. Creare un avatar digitale di una persona cara defunta per conversarci può turbare molti, ma se non c’è un danno dimostrabile (dipendenza emotiva patologica, incapacità di elaborare il lutto), non è di per sé una questione etica. Il disagio da solo non basta.
Il Mio Framework Pratico per l’Etica nell’IA
Quindi, tirando le somme, ecco il mio approccio:
- Linee Guida Aziendali: Le aziende che offrono servizi IA dovrebbero avere linee guida etiche chiare (trasparenza, equità, ecc.). Chi non lo fa, rischia il “mercato dei limoni”.
- Kidder per i Conflitti: Quando sorge un problema, usare il framework di Kidder per distinguere tentazioni morali (da eliminare) da veri dilemmi etici “giusto vs giusto”.
- Aristotele come Faro: Per i veri dilemmi, la Regola Aurea di Aristotele, intesa come ricerca di una soluzione creativa, è la migliore bussola nell’incertezza attuale dell’IA.
- Etica di Prodotto: Ogni prodotto IA ha le sue specificità. Gli sviluppatori devono considerare i possibili problemi etici unici del loro prodotto (come l’app per i temi).
- Cautela con l’Impatto Umano: In caso di dubbio, se una questione (come i licenziamenti) impatta negativamente un essere umano, è più prudente considerarla etica.
- Disagio vs. Danno: Non confondere il semplice disagio con un problema etico. Ci deve essere un danno reale o potenziale.
I codici etici sono necessari, ma non devono essere carta straccia. Le aziende devono adottarli e farli rispettare. La formazione etica, anche se non rende automaticamente le persone più etiche, aumenta la sensibilità ai problemi. E con un potere trasformativo come quello dell’IA, la vigilanza etica non è un optional, ma una necessità assoluta. Spero che questo mio modo di vedere le cose possa essere un piccolo passo per pensare, discutere e, soprattutto, applicare concretamente l’etica all’IA.
Fonte: Springer