Fake News e Intelligenza Artificiale: I Limiti che (Forse) Nessuno Vi Dice
Ammettiamolo, l’idea di un’intelligenza artificiale (IA) che scova le fake news come un segugio infallibile è affascinante, vero? Ne sentiamo parlare ovunque: governi, aziende, cittadini sperano che gli algoritmi possano ripulire il web dalla marea di disinformazione. Io stesso, da appassionato di tecnologia e di come essa plasmi la nostra società, mi sono immerso in questo argomento, scoprendo che la realtà è un tantino più complessa e, oserei dire, più intrigante di quanto sembri.
I cosiddetti “Modelli di Machine Learning per la Disinformazione” (MMMs) sono al centro di questo dibattito. Promettono di automatizzare l’identificazione di testi e immagini ingannevoli. Paesi come Malta e l’Arabia Saudita stanno addirittura valutando di usarli per regolare i loro ecosistemi informativi. Eppure, nonostante punteggi altissimi nei test standard di accuratezza, precisione e richiamo, la loro reale efficacia è ancora molto discussa. E credetemi, c’è un perché.
Ma cos’è davvero la “Disinformazione”? Non è così semplice come “Falso”
Prima di tuffarci nei meandri degli algoritmi, facciamo un passo indietro. Cos’è davvero la disinformazione? Spesso, i giudizi su cosa sia disinformazione dipendono dalle preferenze e dalle norme della comunità che li esprime. E queste norme, amici miei, cambiano nel tempo. Pensateci: ciò che oggi consideriamo una bufala, ieri poteva essere una credenza diffusa, e viceversa. Questo crea dei veri e propri “spostamenti di distribuzione” (distribution shifts, in gergo tecnico) che mettono a dura prova l’affidabilità dei nostri modelli IA.
Vi faccio qualche esempio per capirci meglio:
- Informazione falsa: Durante la prima metà del XX secolo, il governo giapponese insegnava distorsioni delle dottrine buddiste e shintoiste per convincere i cittadini della loro superiorità razziale e giustificare l’imperialismo. Qui, si tratta di proposizioni palesemente false diffuse sistematicamente.
- Informazione fuorviante: Un amico vi sconsiglia una vacanza in Australia parlandovi solo degli animali pericolosi. È vero che ci sono, ma è altamente improbabile che un turista nelle grandi città ne venga danneggiato. L’informazione è accurata, ma il contesto la rende fuorviante.
- Dispute sui valori (epistemici e non): Prendiamo i vaccini anti-COVID. Affermare che “causano effetti collaterali dannosi e sono quindi pericolosi” può essere interpretato in modi diversi. Una persona con un’alta tolleranza al rischio potrebbe considerare un 3% di probabilità di effetti collaterali come accettabile, mentre un’altra no. Chi ha ragione? E che dire dei meme su internet? Alcuni li vedono come umorismo, altri come veicoli di stereotipi e disinformazione. Il confine è labile e dipende dai valori di chi giudica.
La maggior parte degli studiosi e delle normative europee definisce la disinformazione come informazione falsa diffusa senza intento di nuocere, la dezinformazione come informazione falsa diffusa con intento di nuocere, e la malinformazione come informazione vera diffusa con intento di nuocere. Questa è la cosiddetta “teoria aletica della disinformazione”, che mette al centro il valore di verità. Ma, come ho cercato di farvi intuire, questa teoria ha i suoi bei problemi.
Se definissimo la disinformazione solo come “informazione falsa”, allora tutte le vecchie teorie scientifiche (come la meccanica newtoniana, superata ma utilissima nel suo contesto) sarebbero disinformazione. Assurdo, no? E i maghi, gli attori truccati, i comici? Producono tutti disinformazione perché ci ingannano intenzionalmente, anche se noi lo desideriamo per divertimento? Chiaramente, la falsità o l’essere fuorviante non bastano. Serve qualcos’altro, come la violazione delle preferenze informative di una comunità, la mancanza di rilevanza, o il non rispetto degli standard epistemici condivisi.
Pensate che un sondaggio ha rivelato che per il 69% degli intervistati la disinformazione è “informazione intenzionalmente progettata per ingannare”, per il 49% “esagera le conclusioni dai fatti”, e per il 48% “non fornisce un quadro completo”. Capite bene che siamo ben oltre la semplice falsità.
I Modelli IA alla Prova dei Fatti: Un Compito Arduo
Nonostante queste sfide metodologiche, la maggioranza dei ricercatori che sviluppano MMM continua a usare una definizione “aletica”. Ma come si costruisce un MMM? In soldoni, si prende un sacco di dati (testi, immagini), si etichettano come “disinformazione” o “non disinformazione” (spesso basandosi sul giudizio di “élite epistemiche”, come giornalisti fact-checker), e si addestra un algoritmo a riconoscere i pattern. L’obiettivo è che l’MMM impari a fare le stesse valutazioni che farebbe un agente umano ideale di quella comunità.
Il problema è che, come abbiamo visto, non c’è un accordo universale su cosa sia disinformazione. Organizzazioni di fact-checking come Snopes e PolitiFact, ad esempio, hanno dato valutazioni divergenti su quasi un terzo degli articoli identici che hanno analizzato! Questo la dice lunga. Affidare a un MMM il compito di separare il vero dal falso è come chiedergli di essere un oracolo magico. Impossibile. Al massimo, un MMM può automatizzare la classificazione di ciò che una specifica comunità epistemica giudica falso o fuorviante.
Ma c’è un problema ancora più subdolo e, a mio avviso, più grave: i famigerati distribution shifts. Immaginate di aver addestrato il vostro super MMM a riconoscere le fake news del 2023. Funziona a meraviglia! Ma cosa succede nel 2025, quando le tattiche di disinformazione cambiano, gli argomenti caldi sono diversi, e persino il linguaggio usato si evolve? Il nostro MMM rischia di diventare obsoleto, o peggio, di fare cilecca.
I Cinque Cavalieri dell’Apocalisse per gli MMM: I Distribution Shifts
Gli studiosi hanno identificato almeno cinque tipi di questi “spostamenti” che possono mandare in tilt i nostri modelli. Cercherò di spiegarveli senza troppi tecnicismi, usando un esempio di un classificatore binario (disinformazione SI/NO):
- Covariate Shift A (CSA): Cambiano le caratteristiche dei dati in input (es. lo stile di scrittura delle notizie), ma la probabilità che un certo tipo di caratteristica sia etichettata come disinformazione rimane simile. Ad esempio, un modello addestrato su notizie USA potrebbe faticare con notizie UK, anche se entrambe sono in inglese e trattano temi simili.
- Covariate Shift B (CSB): Cambiano i concetti, ossia le caratteristiche rilevanti per identificare la disinformazione nel tempo, anche se la frequenza generale con cui la disinformazione appare rimane la stessa. Un modello che analizza la diffusione di fake news su Twitter basandosi su dati del 2019 potrebbe non cogliere le dinamiche del 2024, perché i “segnali” di una fake news sono cambiati.
- Label Shift (LS): Le etichette (“disinformazione” / “non disinformazione”) cambiano frequenza, ma le caratteristiche dei dati associate a ciascuna etichetta rimangono stabili. Ad esempio, dopo un evento specifico, potrebbe esserci un’ondata di un certo tipo di disinformazione prima rara, e il modello, non abituato a questa nuova frequenza di etichette, potrebbe sbagliare.
- Concept Shift (CS): Questo è il più insidioso. Cambia la relazione stessa tra le caratteristiche dei dati e l’etichetta di disinformazione. Ciò che prima era considerato affidabile ora è visto come disinformazione, o viceversa, pur mantenendo le stesse caratteristiche osservabili. Pensate alle immagini generate da IA (GAN): ciò che una comunità considera un “fake” realistico può cambiare con l’evoluzione della tecnologia e della percezione pubblica. Un’immagine di un fantasma, un tempo forse credibile per alcuni, oggi verrebbe etichettata diversamente.
- Radical Shift (RS): Il caso peggiore. Cambia tutto: caratteristiche dei dati, etichette e la relazione tra loro. Immaginate un chatbot cinese addestrato su dati sia cinesi che inglesi (come Wikipedia e Reddit). Le norme sulla disinformazione in Cina sono molto diverse e cambiano rapidamente. È altamente probabile che il modello fallisca nel contesto cinese reale.
Questi “shift” non sono quisquilie. Stiamo parlando di automatizzare giudizi che hanno impatti reali sulla vita delle persone, dalla censura alla diffusione di informazioni mediche vitali. Errori su larga scala possono avere conseguenze catastrofiche.
Possiamo Salvare Capra e Cavoli? Tre Soluzioni (e i Loro Limiti)
Di fronte a questo scenario, cosa possiamo fare? Gli esperti propongono principalmente tre strade:
- Dataset di addestramento statici più grandi: L’idea è: più dati abbiamo, meglio è. Funziona per alcuni modelli IA, come i grandi modelli linguistici (LLM tipo GPT), perché la sintassi e la semantica di una lingua non cambiano così drasticamente nel breve periodo. Ma per la disinformazione, non basta. Come abbiamo visto, il giudizio “è disinformazione” dipende da valori epistemici e non epistemici (es. la tolleranza al rischio, l’intento percepito) che non sono scritti nel testo o nell’immagine stessa. Un’affermazione come “i lockdown anti-COVID sono negativi” può essere vera o falsa a seconda che si consideri la mortalità o la salute mentale/economia. Dati statici, per quanto enormi, non colgono questa dinamica dei valori.
- Ingegneria sociale: Un’entità governativa potrebbe cercare di creare un consenso sulle norme informative, rendendo i giudizi sulla disinformazione più stabili e quindi più facili da programmare. Si potrebbe pensare a campagne educative di massa, o persino a imporre ideologie omogenee come avviene in alcuni regimi teocratici o autoritari. Eticamente, capite bene, è un campo minato. Chi decide quali norme imporre? Rischiamo di soffocare il dibattito democratico e la libertà di espressione. Inoltre, tentativi di “ingegnerizzare” le piattaforme social (pensate ai “like” e ai “follower”) hanno spesso prodotto effetti perversi, incentivando la caccia all’attenzione piuttosto che l’informazione di qualità. Anche gli “spintoni gentili” (epistemic nudges), che cercano di influenzare le credenze sfruttando bias cognitivi, sollevano dubbi: chi li progetta non ha i propri bias? E siamo sicuri di saper curare ecosistemi informativi così complessi senza fare più danni che altro? La storia, purtroppo, è piena di abusi.
- Campionamento dinamico: Questa è, a mio parere, la via più promettente, seppur con un “ma” grande come una casa. L’idea è semplice: aggiornare continuamente il classificatore campionando nel tempo le preferenze informative degli stakeholder. In pratica, gli MMM funzionerebbero come sistemi di raccomandazione (pensate all’algoritmo di YouTube o Netflix). Gli utenti potrebbero segnalare contenuti come disinformazione, addestrando implicitamente il modello, che a sua volta suggerirebbe fonti allineate alle preferenze dell’utente, filtrando le altre. Questo approccio è più etico e flessibile.
La Dura Verità: Gli MMM sono Sistemi di Raccomandazione Mascherati
E qui arriviamo al nocciolo della questione, la conclusione un po’ scomoda a cui accennavo. Se il campionamento dinamico è la soluzione migliore, allora gli MMM non sono altro che una specie di sistemi di raccomandazione. Non esiste una classe speciale di algoritmi capaci di scovare la “verità oggettiva” o le “fake news” in modo assoluto. Sono, piuttosto, sistemi cibernetici che soddisfano le preferenze informative, altamente relativi alla comunità epistemica in cui operano.
Questo è un cambio di prospettiva radicale rispetto all’idea diffusa che gli MMM siano rilevatori di falsità. Una recente indagine internazionale tra esperti del settore ha rivelato che la stragrande maggioranza ritiene gli attuali MMM inadeguati a rilevare informazioni false, e molto più bravi a generare disinformazione che a identificarla! Questo ci costringe a ripensare il design e lo scopo di questi algoritmi.
Sono sistemi intrinsecamente carichi di valori, che filtrano e riflettono le nostre preferenze epistemiche e non epistemiche. Poiché i valori delle società cambiano dinamicamente e non sono rilevabili solo dalla semantica e sintassi dei dati statici, gli MMM non possono sfuggire al problema dei “distribution shifts” senza un aggiornamento continuo. Costruirli in questo modo li rende, appunto, sistemi di raccomandazione, non oracoli della verità.
Quindi, la prossima volta che sentirete parlare di IA che sconfiggerà le fake news, ricordatevi di questa complessità. Non si tratta di sminuire il potenziale dell’IA, ma di comprenderne i limiti e, soprattutto, di riconoscere che il giudizio sulla qualità dell’informazione rimane, in ultima analisi, profondamente umano e legato ai nostri valori mutevoli. Solo essendo consapevoli di queste sfide metodologiche possiamo sperare di sviluppare MMM più adeguati e ridurre gli impatti negativi dei “distribution shifts”.
Fonte: Springer