Immagine fotorealistica di una rete neurale astratta e luminosa sovrapposta a mani umane che interagiscono con uno schermo digitale trasparente, simboleggiando l'approccio socio-tecnologico all'IA. Obiettivo prime, 35mm, profondità di campo, toni blu e argento duotone.

Etica IA: Smettiamola di Pensare ai Robot, Guardiamo al Sistema!

Ciao a tutti! Oggi voglio parlarvi di Intelligenza Artificiale, ma da una prospettiva un po’ diversa dal solito. Spesso, quando pensiamo all’IA, ci vengono in mente robot super intelligenti, magari un po’ inquietanti, che prendono decisioni da soli. Film e libri ci hanno bombardato con questa immagine, quella che potremmo chiamare la “concezione robotica” dell’IA. Ma se vi dicessi che questa visione, oltre a essere un po’ limitata, ci sta portando fuori strada nelle discussioni importanti, come quelle sull’etica e la sicurezza?

Ecco, il punto è questo: gli algoritmi di IA, anche i più avanzati, non nascono dal nulla né operano nel vuoto. Hanno bisogno di input umani per funzionare e raggiungere i loro scopi. Sembra banale, ma ce ne dimentichiamo spesso, soprattutto quando parliamo di sistemi “autonomi”. Invece di focalizzarci solo sulla macchina, sull’artefatto tecnologico in sé, dovremmo iniziare a pensare all’IA come a sistemi socio-tecnologici. Che parolona, eh? Ma significa semplicemente sistemi complessi fatti sia di componenti umane che di artefatti (hardware, software, algoritmi).

In questo articolo, voglio provare a spostare l’attenzione: basta guardare solo le proprietà intrinseche dei “robot”, iniziamo a considerare le relazioni tra tutti gli elementi che compongono questi sistemi socio-tecnologici che coinvolgono l’IA. Vi dimostrerò che questa prospettiva non solo descrive meglio l’IA moderna, ma ci aiuta anche a evitare alcuni vicoli ciechi in cui il dibattito sull’etica dell’IA si è infilato.

Cos’è questo approccio socio-tecnologico?

L’idea non è nuovissima, viene dagli studi su Scienza, Tecnologia e Società (STS) e dall’ingegneria dei fattori umani. Già negli anni ’50 si parlava di “sistema sociotecnico”. In pratica, si riconosce che la tecnologia non è solo l’oggetto fisico (il computer, il software), ma un insieme complesso che include le persone che la progettano, la usano, la mantengono, le organizzazioni coinvolte, persino i valori sociali.

Pensateci: un’app sul telefono è solo codice? No, siete voi che la usate, sono gli sviluppatori che l’aggiornano, sono le infrastrutture di rete che la fanno funzionare. È un sistema! L’approccio socio-tecnologico applicato all’IA vede quindi questi sistemi come strutture distribuite composte da umani e algoritmi IA, spesso insieme ad altri componenti (robot fisici, sensori, reti di comunicazione come il 5G).

La differenza chiave con la “concezione robotica” è che quest’ultima vede l’IA come un’entità indipendente, progettata per sostituire l’agente umano. L’approccio socio-tecnologico, invece, vede l’IA come qualcosa che modifica e interagisce con l’azione umana, all’interno di un sistema più ampio dove gli umani sono parti integranti e necessarie. Non si tratta di definire quale sia la definizione “giusta” in assoluto, ma di scegliere il livello di analisi più utile per affrontare le sfide etiche dell’IA. E io credo fermamente che guardare al sistema sia molto più produttivo.

Perché l’approccio “robotico” ci porta fuori strada?

Questa idea che l’IA sia fatta di robot autonomi pronti a sostituirci ha avuto conseguenze un po’ strane nel dibattito etico. Pensiamo ai “killer robots”, un termine che evoca scenari apocalittici. C’è chi immagina droni che decidono di violare le leggi di guerra per vendicare compagni robot caduti (davvero!). O chi sostiene che le auto autonome debbano replicare perfettamente il processo decisionale umano. O ancora, chi afferma che le macchine intelligenti siano progettate per “prendere il posto dell’agente umano”.

Queste idee condividono un presupposto sbagliato: che l’IA sia un’entità indipendente creata per rimpiazzarci. Ma lo scopo della ricerca sull’IA non è (o non dovrebbe essere) necessariamente questo. Non abbiamo bisogno di replicare il ragionamento umano in tutto e per tutto, e ci sono ottime ragioni per non costruire armi autonome capaci di esercitare un’autonomia morale stile “Terminator”.

La concezione robotica ci ha fatto concentrare su questioni come:

  • L’ossessione per i “killer robots” come entità quasi senzienti.
  • La centralità dei dilemmi del carrello (“trolley problem”) per le auto autonome, come se fossero situazioni quotidiane e non esperimenti mentali estremi.
  • La ricerca, a mio avviso fuorviante, di creare “agenti morali artificiali” (AMA) come unica soluzione per garantire la sicurezza dell’IA.

Questi percorsi rischiano di essere improduttivi, se non addirittura pericolosi. Spostando il focus sul sistema socio-tecnologico, invece, possiamo vedere soluzioni più realistiche e già in atto.

Immagine fotorealistica di un team diversificato di ricercatori in un laboratorio high-tech che collaborano attorno a uno schermo olografico tridimensionale che visualizza complesse strutture molecolari generate da un'IA. L'illuminazione è controllata e focalizzata sullo schermo e sui volti concentrati dei ricercatori. Obiettivo macro, 100mm, alto dettaglio, messa a fuoco precisa.

L’IA di oggi è già socio-tecnologica: ecco le prove!

Ma parliamo di esempi concreti. Prendiamo le armi autonome. Il termine “killer robot” fa pensare a R2-D2 con un mitragliatore, ma la realtà è diversa. Prendiamo il sistema di combattimento Aegis della Marina USA, progettato per difendere le navi dai missili. Ha modalità semi-autonome e supervisionate. In certi casi, il cannone Phalanx può sparare automaticamente contro minacce che rientrano nei parametri impostati. Ma attenzione: questi parametri, la “dottrina” del sistema, sono definiti mesi prima da un comitato di ufficiali e personale specializzato, basandosi su missioni previste, intelligence, ecc. Durante la battaglia, è il capitano della nave ad avere l’autorità di attivare la dottrina e scegliere le modalità operative.

Vedete? Aegis non è un robot indipendente. È un sistema incredibilmente complesso con hardware, software (la “dottrina” modificabile), operatori umani, il comitato di revisione, ecc. Gli umani sono elementi ineliminabili; il loro input è necessario perché il sistema raggiunga i suoi obiettivi. L’autonomia funzionale di alcune parti non elimina il controllo umano, anzi, lo rende più sofisticato.

Un altro esempio? La scoperta dell’antibiotico Halacin da parte di ricercatori del MIT usando tecniche di apprendimento supervisionato. Hanno “addestrato” una rete neurale con dati su migliaia di molecole note, etichettate dagli umani. Poi, hanno lasciato che il modello analizzasse altre migliaia di molecole. Ma chi ha scelto i dati di addestramento? Chi ha definito i criteri di ricerca (efficacia, novità strutturale, non tossicità)? Chi ha interpretato i risultati e verificato la scoperta? Gli umani! Il sistema che ha “scoperto” l’antibiotico era un team uomo-macchina. L’IA ha ampliato le capacità umane, non le ha sostituite.

E che dire dell’Internet of Things (IoT)? Quella rete crescente di oggetti quotidiani connessi. Qualcuno l’ha definita “un robot (o un insieme di robot) distribuito”. Ma è una forzatura. L’IoT è intrinsecamente socio-tecnologico: siamo noi a usare i dispositivi, a impostarli, a beneficiare (o subire) le loro azioni. L’input umano è fondamentale. Chiamarlo “robot” oscura questo fatto cruciale.

Persino i Large Language Models come ChatGPT, così impressionanti, da soli fanno ben poco. Siamo noi, in team con la macchina, a scrivere email, codice, a fare brainstorming. L’output è una rielaborazione statistica del linguaggio che noi gli forniamo.

Quindi, vedete? Molte delle IA più avanzate e di successo oggi sono, nei fatti, sistemi socio-tecnologici.

E l’IA del futuro? Non servono “Terminator” morali!

Okay, potreste obiettare: “Va bene per l’IA di oggi, che è ‘stretta’, specializzata. Ma l’IA diventerà sempre più generale e autonoma. Lì la concezione robotica tornerà utile!”. Chiamiamola l’Obiezione dell’IA Futura.

Ho due risposte a questa obiezione, una pragmatica e una morale.

La Risposta Pragmatica: La Sicurezza Innanzitutto
Abbiamo una ragione pratica fortissima per continuare a progettare sistemi IA socio-tecnologici invece di agenti totalmente indipendenti: la sicurezza. La concezione robotica, portandoci verso gli Agenti Morali Artificiali (AMA) e i dilemmi del carrello, ci distrae dalle soluzioni reali per la sicurezza, ad esempio, delle auto autonome (AC).

Pensate alle AC. C’è chi dice che per essere sicure debbano “replicare il processo decisionale umano”. Ma perché? Non basta che ottengano risultati migliori degli umani, anche se in modo diverso? L’idea di dover replicare il ragionamento umano porta dritti agli AMA e ai trolley problem. “Se l’auto deve sostituire l’umano, dovrà fare le stesse scelte morali!”. Ma è un falso problema.

Le AC non devono per forza essere agenti isolati come i guidatori umani. Possiamo (e stiamo iniziando a) creare sistemi di traffico intelligenti: auto che comunicano tra loro (V2V), con le infrastrutture (V2I), con il cloud (V2C). Possiamo integrare anche gli umani in questi network, con centri di monitoraggio. In un sistema così connesso, molti scenari da “trolley problem” semplicemente non si verificherebbero! Se l’auto “sa” che un camion sta arrivando troppo veloce dietro di lei, può avvisare il camion, o altre auto, o segnalare il pericolo all’infrastruttura, molto prima di trovarsi a dover scegliere se investire pedoni o sacrificare i passeggeri.

La vera strategia per la sicurezza non è insegnare alle auto a fare la scelta “moralmente giusta” in casi estremi (su cui peraltro non siamo nemmeno d’accordo tra noi umani!), ma progettare sistemi che prevengano il verificarsi di quelle situazioni. Questo si fa con il networking, con il controllo condiviso uomo-artefatto (pensate ai sistemi di assistenza alla guida attuali), con la supervisione umana dove serve. L’approccio socio-tecnologico ci fa vedere queste soluzioni, mentre quello robotico ci fa incartare su dilemmi filosofici poco pratici.

Immagine fotorealistica grandangolare di una città notturna vista dall'alto, con flussi luminosi di dati che collegano auto autonome, infrastrutture stradali intelligenti (semafori, sensori) e un centro di controllo centrale. L'immagine evoca connettività e sicurezza orchestrata. Obiettivo grandangolare, 10mm, lunga esposizione per scie luminose, messa a fuoco nitida, colori freddi (blu, ciano, viola).

La Risposta Morale: Non Creiamo Mostri Incontrollabili
C’è un motivo ancora più profondo per diffidare della concezione robotica e della sua spinta verso gli AMA: è moralmente avventato. Il progetto AMA mira a dare alle macchine principi etici o procedure per risolvere dilemmi morali, rendendole “eticamente responsabili”. Qualcuno parla addirittura di dare una “coscienza” alle macchine.

Ma qui c’è un grosso problema. Cosa significa “agente morale artificiale”? Se intendiamo macchine che agiscono “come se” fossero morali ma senza vera coscienza o autonomia (quella che Wallach e Allen chiamano “moralità funzionale”), allora non sono veri agenti morali. Non possiamo biasimarli o lodarli se non metaforicamente.

Il vero pericolo sorge se, inseguendo l’idea di replicare l’intelligenza umana (funzionalismo spinto), finiamo per creare macchine che sono davvero moralmente autonome. Un agente moralmente autonomo è uno che sceglie i propri principi e guida la propria vita in base ad essi. E sapete una cosa? Gli agenti moralmente autonomi, per definizione, non possono essere controllati! Scelgono da soli, per le loro ragioni. Basta vedere come gli umani, che sono moralmente autonomi, a volte compiano azioni terribili pur conoscendo le regole.

Vogliamo davvero creare IA super intelligenti che potrebbero sviluppare una propria morale e decidere, magari, che gli umani sono un ostacolo? Sembra fantascienza, ma inseguire l’obiettivo di AMA che replicano perfettamente l’agire morale umano ci mette su quella china scivolosa. È molto più saggio, e moralmente responsabile, evitare di creare macchine moralmente autonome.

Invece di “insegnare l’etica” alle macchine, dovremmo concentrarci sull’allineamento dei valori (value alignment), ad esempio tramite tecniche come l’Inverse Reinforcement Learning (IRL). L’obiettivo qui è far sì che le macchine imparino e agiscano secondo le nostre preferenze e i nostri obiettivi, anche quelli morali. Questo approccio mantiene un legame stretto tra l’intenzionalità umana e il comportamento della macchina, spesso richiedendo feedback e supervisione continui. Anche un’IA generale super intelligente, se sviluppata con questo approccio (come suggerisce Stuart Russell), rimarrebbe parte di un sistema socio-tecnologico, perché la sua stessa sicurezza dipenderebbe dal suo “deferire” agli umani, chiedere permesso, accettare correzioni.

Tiriamo le somme: un futuro più sicuro e umano con l’IA

Quindi, ricapitolando: l’approccio socio-tecnologico descrive l’IA attuale molto meglio della vecchia concezione robotica. Ci apre strade più promettenti e realistiche per la sicurezza, facendoci concentrare su networking, controllo condiviso e allineamento dei valori, invece che su improbabili robot killer o dilemmi del carrello. Ci mette in guardia contro la creazione moralmente rischiosa di agenti artificiali moralmente autonomi. E si sposa perfettamente con la spinta verso un’IA “human-centered”, centrata sull’uomo.

Per tutte queste ragioni, credo davvero che sia ora di cambiare prospettiva. Smettiamola di farci affascinare (o spaventare) dall’idea del robot solitario e iniziamo a pensare all’IA per quello che è e dovrebbe essere: una componente potente all’interno di sistemi complessi in cui noi umani abbiamo, e dobbiamo mantenere, un ruolo centrale. È così che possiamo guidare lo sviluppo dell’IA verso un futuro che sia davvero vantaggioso e sicuro per tutti noi.

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *