Etica IA: Principi Belli Ma Inutili? Lezioni (Ignorate?) dalle Carte dei Diritti di Internet
Ciao a tutti! Oggi voglio parlarvi di un argomento che mi sta particolarmente a cuore e che, ne sono certo, incuriosisce (e forse un po’ preoccupa) molti di noi: l’etica dell’Intelligenza Artificiale. Siamo circondati da un’esplosione di IA, dalle cose più semplici che usiamo ogni giorno a sistemi incredibilmente complessi che prendono decisioni importanti. Ma come ci assicuriamo che tutto questo potere sia usato per il bene?
Ecco, negli ultimi anni è nato quello che gli esperti chiamano “approccio principialista” all’etica dell’IA. Sembra un parolone, ma l’idea è semplice: definire una serie di principi, di linee guida etiche, per progettare, sviluppare e utilizzare l’IA in modo responsabile. Organizzazioni internazionali, governi, giganti della tecnologia, gruppi della società civile… tutti si sono messi a scrivere la loro lista di “buoni propositi” per l’IA. Un vero e proprio boom!
Il punto è: basta scrivere dei principi su un pezzo di carta (o su una pagina web) per risolvere i dilemmi etici dell’IA? Mentre riflettevo su questo, mi è venuto in mente un parallelo interessante, qualcosa che abbiamo già visto nel mondo digitale: le cosiddette Carte dei Diritti di Internet (IBRs – Internet Bills of Rights). Vi ricordate? Anche lì, c’è stato un periodo in cui tutti proponevano dichiarazioni e carte per definire diritti e norme per il web. L’obiettivo era simile: mettere dei paletti etici e normativi in un territorio nuovo e in rapida evoluzione.
E qui casca l’asino, come si suol dire. Perché, diciamocelo, queste Carte dei Diritti di Internet, pur partendo da ottime intenzioni, non hanno avuto proprio il successo sperato. Spesso sono rimaste dichiarazioni di principio, frammentate, a volte nate sull’onda emotiva di qualche scandalo (come le rivelazioni di Snowden sulla sorveglianza di massa) per poi finire un po’ nel dimenticatoio.
La domanda che mi pongo, e che voglio esplorare con voi oggi, è: l’approccio principialista all’etica dell’IA rischia di fare la stessa fine? Possiamo imparare qualcosa dagli errori (e anche dai successi, perché no?) delle Carte dei Diritti di Internet per evitare che le nostre belle linee guida sull’IA diventino solo parole al vento? Secondo me, sì. E credo che il futuro dell’etica dell’IA dipenda proprio dalla nostra capacità di imparare queste lezioni.
Cos’è questo “Approccio Principialista” all’Etica dell’IA?
Prima di tuffarci nelle lezioni dal passato, capiamo meglio di cosa parliamo. L’approccio principialista, come accennavo, cerca di distillare un piccolo set di principi fondamentali per guidare le decisioni etiche sull’IA. Pensate a concetti come:
- Equità (Fairness)
- Trasparenza
- Responsabilità (Accountability)
- Privacy
- Non maleficenza (non fare danni)
- Beneficenza (fare del bene)
- Autonomia umana
Questi principi compaiono, con varie sfumature, in centinaia di documenti prodotti da attori diversissimi. Ci sono approcci generalisti, come le linee guida dell’Unione Europea per un’IA affidabile, che cercano di valere per tutti i settori. E ci sono approcci specifici per dominio, come i principi di Microsoft sul riconoscimento facciale, pensati per un’applicazione particolare.
Il problema? Questa proliferazione è avvenuta in modo abbastanza caotico. Centinaia di iniziative, spesso slegate tra loro, ognuna con le sue priorità. Si dice che siano nate per riempire un vuoto normativo, in attesa di leggi vere e proprie come l’AI Act europeo. E in parte è vero. Ma non spiega tutto. Queste linee guida hanno anche altri scopi: influenzare le policy, guidare gli sviluppatori, stimolare il dibattito pubblico. Obiettivi nobili, certo, ma senza un coordinamento e un processo chiaro, rischiano di rimanere lettera morta. È un po’ un far west di buone intenzioni.

E le Carte dei Diritti di Internet (IBRs)? Un Déjà Vu?
Facciamo un salto indietro. Le IBRs sono state un tentativo, a più livelli, di adattare i diritti umani e i principi legali esistenti alla nuova realtà digitale. Anche qui, l’idea era creare degli standard per governare Internet e le tecnologie connesse. Molte di queste carte, come la Dichiarazione Universale dei Diritti Digitali di Article 19, non si limitavano a “ribadire” i diritti esistenti, ma provavano anche a introdurne di nuovi o quasi, come il “diritto all’anonimato”, il “diritto alla crittografia” o il “diritto a non essere sorvegliati”.
Anche le IBRs sono state prodotte da governi (pochi, come il Brasile col suo Marco Civil da Internet), organizzazioni internazionali, aziende e, soprattutto, dalla società civile. Spesso, come dicevo, sono nate come reazione a eventi specifici, tipo lo scandalo NSA/Snowden nel 2013, che diede un’enorme spinta a queste iniziative. Ricordate l’appello di Tim Berners-Lee per una “Magna Carta digitale”? Ecco.
Il problema è che questo slancio è stato, appunto, momentaneo. L’hype è scemato, l’attenzione si è spostata altrove (magari proprio sull’IA!), e molte di queste carte sono rimaste lì, senza un vero impatto duraturo o un meccanismo per farle rispettare. Un’occasione persa? Forse. Ma sicuramente una lezione preziosa per noi oggi, alle prese con l’etica dell’IA.
Lezioni dal Passato: Cosa Possiamo Imparare dagli IBRs?
Ok, arriviamo al dunque. Cosa ci insegnano le vicende delle Carte dei Diritti di Internet? Ho identificato quattro lezioni fondamentali che l’approccio principialista all’IA dovrebbe assolutamente tenere a mente.
1. La Normatività Durevole – Evitiamo l’Effetto Fuoco di Paglia
Le IBRs sono state spesso fiammate momentanee, legate a eventi specifici. Mancava una visione a lungo termine, un processo continuo. Il rischio per l’etica dell’IA è identico: una miriade di principi lanciati senza un coordinamento, senza un dialogo tra chi li propone, destinati a essere superati dalla prossima “emergenza” tecnologica. Se vogliamo che questi principi abbiano un impatto reale, devono diventare parte di un processo normativo sostenuto nel tempo, non solo una reazione estemporanea. Dobbiamo smettere di lanciare documenti isolati e iniziare a costruire una conversazione strutturata e duratura.
2. La Questione della Legittimità – Chi Decide Cosa è Giusto (e Come)?
Un’altra sfida enorme. Perché dovremmo accettare i principi proposti da Google, dal governo X o dall’ONG Y? Le IBRs hanno provato a darsi una legittimità “sostanziale” agganciandosi ai diritti umani internazionali e a principi legali già riconosciuti. Questo è un punto a loro favore da cui l’etica IA può imparare: ancorare i principi a standard legali e valori condivisi esistenti può dare loro più peso.
Ma c’è anche la legittimità “procedurale”: chi partecipa alla creazione di questi principi e come? Qui le IBRs hanno sperimentato approcci interessanti come il “multi-stakeholderismo” (coinvolgere tutti gli attori) e il crowdsourcing, cercando di essere inclusive. Tuttavia, sia le IBRs che, ancora di più, l’attuale dibattito sull’etica IA soffrono di un grosso problema: sono dominate dalle voci del “Nord Globale”, escludendo di fatto prospettive culturali e bisogni di gran parte del mondo. Se i principi IA vogliono essere davvero universali e legittimi, devono nascere da un processo realmente inclusivo e rappresentativo. Altrimenti, rischiamo un “colonialismo etico”, dove pochi impongono la loro visione a tutti.

3. Serve un Processo Istituzionale – Mettiamo Ordine nel Caos
Questo punto è cruciale e lega insieme i precedenti. La frammentazione, la mancanza di durata, i problemi di legittimità delle IBRs derivano in gran parte dall’assenza di un processo istituzionale, di un’ancora organizzativa che guidasse il tutto. Le iniziative erano spesso isolate, senza una struttura che le coordinasse, le chiarisse, le aggiornasse.
L’etica dell’IA ha disperatamente bisogno di questo. Non basta elencare principi; serve un meccanismo, una piattaforma, un’istituzione (o più d’una) che:
- Definisca obiettivi chiari e condivisi per l’approccio principialista.
- Aiuti a chiarire concetti ambigui (cosa significa “equità” in pratica?).
- Risolva le tensioni tra principi diversi (trasparenza vs privacy).
- Assicuri che i principi affrontino le questioni etiche più urgenti.
- Faciliti il passaggio dai principi alla pratica (come tradurli in codice o in leggi?).
- Garantisca l’inclusività e la legittimità del processo (vedi punto 2).
Chi dovrebbe farlo? Organismi internazionali come l’UNESCO o l’OCSE, che già lavorano su questi temi, potrebbero avere un ruolo chiave nel facilitare questo processo a livello globale.
4. Un Pizzico di Novità – Osare per Migliorare
Nonostante i loro limiti, le IBRs hanno avuto anche spunti innovativi da cui possiamo trarre ispirazione. Uno è stato il tentativo di rendere i diritti più concreti e specifici per il contesto digitale. Invece di parlare genericamente di “privacy”, hanno provato a definire sotto-diritti come “diritto alla crittografia” o “libertà dalla sorveglianza”. L’etica dell’IA soffre dello stesso problema di eccessiva genericità ereditato, tra l’altro, dall’etica medica da cui spesso trae ispirazione. Principi come “beneficenza” o “autonomia” sono troppo vaghi. Dovremmo imparare dalle IBRs e sforzarci di rendere i principi IA più dettagliati, contestualizzati e operativi.
Un altro aspetto innovativo delle IBRs è stato l’aver provato ad attribuire responsabilità dirette alle aziende tecnologiche, non solo agli Stati. Anche questo è fondamentale per l’IA. Dobbiamo definire chiaramente chi fa cosa nel ciclo di vita dell’IA: quali sono i doveri degli sviluppatori, delle aziende che vendono IA, degli utenti, dei governi? Specificare ruoli e responsabilità renderebbe i principi molto più efficaci. Anche qui, un processo istituzionale potrebbe guidare questo sforzo di “unpacking” dei principi.

Dai Principi al Processo: La Vera Sfida per l’Etica dell’IA
Tirando le somme, la mia sensazione è che l’approccio principialista all’etica dell’IA, pur essendo nato da ottime intenzioni, sia ancora “metodologicamente adolescente”, come dice qualche studioso. Rischia di rimanere una bella facciata se non impariamo in fretta le lezioni che ci arrivano dall’esperienza, non sempre felice, delle Carte dei Diritti di Internet.
La vera sfida, secondo me, non è più (o non solo) scrivere l’ennesima lista di principi. La sfida è costruire il processo: un processo duraturo, legittimo, istituzionalizzato e capace di innovare, che dia vita a quei principi, li chiarisca, li sostenga nel tempo e li renda davvero capaci di guidare lo sviluppo e l’uso dell’Intelligenza Artificiale verso un futuro più giusto e umano per tutti.
Iniziative recenti, come quelle in seno al Consiglio per i Diritti Umani dell’ONU, sembrano muoversi in questa direzione, sottolineando l’importanza di meccanismi istituzionali. Speriamo sia l’inizio di un cambio di passo: dall’ossessione per i “principi” alla costruzione paziente del “processo”. Solo così, forse, eviteremo che l’etica dell’IA faccia la fine di tante altre buone intenzioni digitali.
Fonte: Springer
