Tweet Amari: Come la Mia IA Smaschera la Negatività nelle Campagne Elettorali Persiane!
Amici, parliamoci chiaro: le campagne elettorali sui social sono diventate un vero e proprio campo di battaglia, non trovate? Tra slogan, promesse e, ahimè, una buona dose di negatività, capire le strategie dei candidati è un’impresa. E se vi dicessi che, armato di un po’ di ingegno e tanta passione per l’Intelligenza Artificiale, ho cercato di fare un po’ di luce in questo intricato mondo, concentrandomi sui tweet in lingua persiana?
Sì, avete capito bene! Mi sono tuffato nell’analisi dei cinguettii politici, in particolare quelli relativi alle elezioni presidenziali iraniane del 2021. L’obiettivo? Sviluppare un sistema automatico per scovare la “negatività” nelle campagne. E credetemi, non è stata una passeggiata.
La Sfida: Decifrare la Negatività e i Tranelli della Lingua
Prima di tutto, cosa intendiamo per “negatività” in una campagna elettorale? Non si tratta solo di insulti diretti. Spesso è un attacco all’avversario piuttosto che una presentazione delle proprie idee, magari mascherato da affermazioni concettuali o, peggio ancora, da puro e semplice sarcasmo. Immaginate di dover insegnare a una macchina a cogliere queste sottigliezze, per di più in una lingua complessa come il persiano, che ha le sue specificità e, diciamocelo, non abbonda di dataset annotati pronti all’uso come l’inglese.
Tradizionalmente, questo lavoro certosino veniva fatto da esperti politici che leggevano e analizzavano manualmente fiumi di testo. Un processo lento, costoso e, diciamocelo, incline a qualche errore di interpretazione. Ecco perché l’automazione, grazie al Natural Language Processing (NLP) e al Machine Learning (ML), è diventata la nuova frontiera. Ma anche qui, i problemi non mancano: la natura non strutturata del testo, l’estrazione delle feature giuste, la dimensionalità dei dati e le variazioni linguistiche sono solo alcuni degli scogli.
La Mia Ricetta: Un Classificatore a Due Stadi con “Axis Embeddings”
Di fronte a queste sfide, non mi sono perso d’animo. Anzi! Ho pensato: perché non combinare il meglio di due modelli di machine learning in un approccio ibrido? Così è nato il mio modello, un classificatore a due stadi che sfrutta una tecnica chiamata “axis embeddings”. Detta così sembra arabo (o meglio, persiano!), ma cercherò di spiegarvela in modo semplice.
Innanzitutto, abbiamo raccolto un bel po’ di dati: circa 5.100 tweet pubblicati nell’anno precedente le elezioni da 50 figure politiche iraniane, tra candidati e funzionari governativi. Questi tweet sono stati poi etichettati manualmente da esperti: “negativo” o “non negativo”. Un lavoraccio, ve lo assicuro, ma fondamentale.
Il cuore del mio metodo sta nel modo in cui abbiamo “preparato” i dati per i nostri classificatori. Abbiamo calcolato la similarità coseno (una misura di quanto due cose siano simili in uno spazio vettoriale) tra gli “embeddings” dei tweet (una sorta di rappresentazione numerica del significato del testo) e degli “axis embeddings”. Gli “axis embeddings” non sono altro che la media degli embeddings dei tweet etichettati come positivi e di quelli etichettati come negativi. In pratica, abbiamo creato delle “impronte digitali” medie per la negatività e la non-negatività.
Questa tecnica ci ha aiutato a superare uno dei problemi più grossi: la somiglianza tematica tra tweet positivi e negativi, specialmente quando entra in gioco l’ironia. A volte un tweet può sembrare positivo in superficie, ma nasconde una frecciatina velenosa. Il nostro approccio ha permesso di isolare questi tweet “ambigui”, che pur avendo un’etichetta positiva, mostravano una certa affinità con i tweet negativi.

Abbiamo quindi creato due nuovi dataset per addestrare il nostro modello ibrido. Il primo classificatore impara a distinguere i tweet chiaramente non negativi da quelli che sono o sembrano negativi (inclusi quelli sarcastici). Il secondo classificatore, poi, si concentra sui tweet che il primo ha etichettato come “potenzialmente negativi”, affinando ulteriormente il giudizio. È un po’ come avere un primo filtro più grossolano e un secondo filtro super specializzato.
I Risultati: Cosa Abbiamo Scoperto?
Ebbene, dopo tanta fatica, il nostro modello migliore (un Random Forest che lavora in tandem con un altro Random Forest, che abbiamo chiamato RF-RF) ha raggiunto un macro F1 score del 79% e un weighted F1 score dell’82%. Non male, vero? Questo significa che il sistema è piuttosto bravo a identificare correttamente la negatività.
Ma non ci siamo fermati qui. Abbiamo applicato il modello a un numero maggiore di tweet (oltre 5.000) per vedere se emergevano pattern interessanti. E qualche sorpresa c’è stata! Per esempio, sembra che l’orario di pubblicazione di un tweet da parte di un candidato non influenzi significativamente il suo livello di negatività. Quindi, niente strategie del tipo “attacco di notte quando tutti dormono” o “messaggi positivi solo al mattino”.
Invece, un fattore cruciale è la presenza di nomi di personaggi politici o di organizzazioni nei tweet. Quando questi elementi compaiono, la probabilità che il tweet sia negativo aumenta sensibilmente. Insomma, nominare l’avversario o un’istituzione sembra essere un forte indicatore di un possibile attacco o critica. È emerso anche che la “durata della vita” dell’account utente ha una relazione inversa, seppur debole, con la negatività: account più vecchi tendono a essere leggermente meno negativi.
Perché Tutto Questo Sforzo? E Cosa Ci Riserva il Futuro?
Vi chiederete: a cosa serve tutto questo? Beh, un modello del genere può essere uno strumento prezioso. Immaginate la rapidità con cui si potrebbero identificare ondate di negatività durante una campagna, permettendo magari risposte più tempestive o aiutando i media a fornire resoconti più accurati e veloci. Potrebbe anche essere integrato in dashboard di analisi dei social media usate da aziende o ricercatori.
Una delle motivazioni principali di questo lavoro è stata la carenza di studi simili focalizzati sui dati in lingua persiana relativi alle elezioni iraniane. Siamo orgogliosi di aver presentato, per la prima volta, un modello di intelligenza artificiale specificamente progettato per questo contesto. Certo, il dataset è relativamente limitato, e con più dati le prestazioni potrebbero solo migliorare.
La gestione del sarcasmo e della negatività concettuale è una sfida che va oltre il persiano; è comune a molte lingue. Quindi, le lezioni apprese qui potrebbero essere estese e adattate. Guardando avanti, ci sono tante direzioni interessanti. L’integrazione di Large Language Models (LLM) potrebbe migliorare ulteriormente l’etichettatura dei dati e l’accuratezza del modello. Si potrebbe anche espandere il sistema per distinguere tra attacchi politici e personali, o persino per analizzare il testo contenuto nelle immagini, visto che molti tweet le includono.
Insomma, il nostro classificatore a due stadi con axis embeddings è un piccolo, ma spero significativo, passo avanti nel grande e affascinante mondo dell’analisi del sentiment politico. È la dimostrazione che, anche con risorse limitate e sfide linguistiche complesse, l’intelligenza artificiale può offrirci strumenti potenti per comprendere meglio le dinamiche, spesso turbolente, della comunicazione politica nell’era digitale.
Fonte: Springer
