Furti e IA: Possiamo Fidarc”i delle Previsioni? L’XAI ci Apre la Scatola Nera!
Amici lettori, vi siete mai chiesti come facciano certi algoritmi a prevedere dove e quando potrebbe avvenire un crimine, come un furto in appartamento? Sembra fantascienza, ma l’Intelligenza Artificiale (IA) sta facendo passi da gigante in questo campo. Però, c’è un “ma” grande come una casa: spesso questi sistemi sono delle vere e proprie “scatole nere”. Ci danno un risultato, una previsione, ma capire perché l’hanno fatta è un altro paio di maniche. Ed è qui che entra in gioco un campo affascinante chiamato XAI, ovvero eXplainable Artificial Intelligence, l’IA Spiegabile. Oggi voglio parlarvi di uno studio super interessante che si è tuffato proprio in questo mondo, cercando di capire quale tecnica XAI sia la migliore per interpretare le previsioni di furti a breve termine, a livello di micro-aree.
L’Intelligenza Artificiale Sotto la Lente: Perché Spiegare le Previsioni?
Immaginate di essere un agente di polizia o un decisore politico. Vi arriva una mappa con delle zone rosse, indicate come “ad alto rischio furti per la prossima settimana”. Fantastico, direte voi! Ma se poi vi chiedessero: “Ok, ma perché proprio quella zona? Cosa la rende così a rischio?”. Se l’IA non sa “spiegarsi”, la sua utilità pratica crolla. Non solo, ma senza trasparenza, come facciamo a fidarci? Come possiamo essere sicuri che non ci siano bias nascosti o errori nel modello? Ecco perché l’XAI è fondamentale. Il suo obiettivo è “aprire la scatola nera”, rendere i processi decisionali dell’IA accessibili e comprensibili a noi umani. E nel campo della criminologia, dove le decisioni possono avere impatti enormi, la trasparenza, la fiducia e la responsabilità sono cruciali.
Pensateci: se non capiamo come funziona un modello, come possiamo migliorarlo o adattarlo a nuove situazioni? O, peggio ancora, come possiamo evitare che perpetui ingiustizie basate su dati distorti? La capacità di interpretare gli output dell’IA non è solo una questione tecnica, ma un requisito legale e un pilastro per la fiducia pubblica.
Ghent, Belgio: Un Laboratorio per Svelare i Segreti dei Furti
Lo studio di cui vi parlo si è concentrato sulla città di Ghent, in Belgio. I ricercatori hanno preso dati sui furti in abitazione tra il 2014 e il 2018, informazioni sulla vittimizzazione ripetuta e “near-repeat” (cioè quando un furto avviene vicino a un altro recente), caratteristiche ambientali, indicatori socio-demografici ed effetti stagionali. Un bel malloppo di dati, eh? Con queste 76 diverse “caratteristiche” (features, in gergo tecnico), hanno addestrato un modello di machine learning piuttosto potente, chiamato XGBoost, per prevedere gli “hot spot” di furti su base settimanale. Questo modello è diventato la base per confrontare il potere interpretativo di diverse tecniche XAI.
La scelta di Ghent, una città europea di medie dimensioni, è interessante perché permette di estendere la ricerca oltre le solite grandi metropoli americane o asiatiche, dove spesso si concentrano studi simili. E concentrarsi su un singolo tipo di crimine, il furto in abitazione, ha permesso un’analisi più approfondita. L’obiettivo non era solo prevedere, ma capire cosa il modello avesse imparato.

I ricercatori hanno esplorato tre livelli di interpretabilità:
- Importanza globale delle caratteristiche: Quali fattori, in generale, influenzano di più le previsioni del modello?
- Effetti globali e interazioni delle caratteristiche: Come specifiche caratteristiche influenzano le previsioni? In che direzione (aumentano o diminuiscono il rischio)? Ci sono interazioni non lineari tra di esse?
- Interpretabilità locale: Perché il modello ha fatto una previsione specifica per un luogo e un momento particolare? Quali fattori hanno contribuito a quel singolo risultato?
Le Star dell’XAI a Confronto: SHAP, LIME e Compagnia Bella
Nello studio, la tecnica SHAP (Shapley Additive Explanations) è stata una protagonista, dato che è molto usata. Ma la cosa bella è che non si sono fermati lì! L’hanno messa a confronto con altre, come LIME (Local Interpretable Model-agnostic Explanations) e gli ALE plots (Accumulated Local Effect plots), oltre a metodi più tradizionali come l’importanza delle caratteristiche basata sulla “permutation” o quella intrinseca del modello XGBoost (basata sul “gain”).
Perché questo confronto è così importante? Perché se diverse tecniche ci raccontano storie diverse, dobbiamo essere molto cauti su quale scegliere, specialmente se le previsioni devono guidare strategie di prevenzione del crimine. SHAP, per farvela breve, si basa sulla teoria dei giochi per distribuire “equamente” il contributo di ogni feature alla previsione. LIME, invece, cerca di spiegare una singola previsione creando un modello più semplice e interpretabile che si comporta in modo simile al modello complesso “black box” solo in quella specifica zona. Gli ALE plots, infine, sono ottimi per capire l’effetto medio di una singola feature, tenendo conto delle possibili correlazioni con altre.
Risultati Globali: Cosa Conta Davvero (e Tutti Sono d’Accordo… o Quasi)
A livello globale, cioè guardando il quadro generale, è emerso che le caratteristiche dell’ambiente costruito e dell’uso del suolo sono i predittori più costanti del rischio di furto. Pensate alla connettività stradale, alla densità di infrastrutture di trasporto, alla percentuale di area residenziale o verde. Questo, amici, non sorprende del tutto e si allinea con teorie criminologiche consolidate come la Routine Activity Theory (le opportunità fanno l’uomo ladro, o quasi) e la Crime Pattern Theory (i criminali sviluppano “mappe mentali” delle zone dove colpire basate sulle loro attività quotidiane).
Interessante notare che, mentre le classifiche globali dell’importanza delle caratteristiche erano abbastanza allineate tra le diverse tecniche XAI (specialmente SHAP e l’importanza basata sulla permutazione quando applicate su dati mai visti prima), le cose si complicano a livello locale. Un altro fattore emerso come importante a livello globale è stata la diversità etnica. Secondo la teoria del disordine sociale, una maggiore eterogeneità potrebbe ridurre l’interazione sociale e il controllo informale, creando condizioni più “favorevoli” per i ladri. Tuttavia, altre caratteristiche legate a questa teoria, come l’instabilità residenziale o la disuguaglianza di reddito, hanno mostrato un contributo minore.

Il Diavolo è nei Dettagli: Le Spiegazioni Locali e le Loro Divergenze
Ed eccoci al punto cruciale: quando si scende nel dettaglio, per capire perché quella specifica casa in quella specifica settimana è stata classificata a rischio, le spiegazioni locali, specialmente tra SHAP e LIME, spesso divergevano. Questo è un campanello d’allarme! Significa che la scelta del metodo XAI non è banale e può portare a conclusioni diverse su quali fattori siano determinanti in un contesto specifico. Per esempio, per una previsione positiva (il modello dice “rischio alto” e un furto avviene), SHAP potrebbe evidenziare il trend recente di furti come fattore chiave, mentre LIME potrebbe dare più peso a trend di lungo periodo o ad altre caratteristiche.
Queste discrepanze sottolineano la necessità di una selezione attenta del metodo quando si traducono le previsioni in strategie di prevenzione del crimine. Se una tecnica mi dice che il problema è la scarsa illuminazione e un’altra mi dice che è la vicinanza a una fermata del tram, le mie azioni preventive saranno molto diverse!
Le differenze potrebbero derivare da come LIME e SHAP funzionano. LIME approssima localmente il modello complesso con uno più semplice (spesso lineare) basandosi su perturbazioni dei dati originali, ma potrebbe ignorare dipendenze complesse tra le features. SHAP, invece, ha una base teorica più solida (valori di Shapley) che considera tutte le possibili combinazioni di features, catturando meglio interazioni e garantendo proprietà desiderabili come l’accuratezza locale e la coerenza. Questo rende SHAP generalmente più robusto, specialmente con modelli non lineari come quelli usati nello studio.
Interazioni Complesse e Soglie: Non è Tutto Bianco o Nero
Un’altra scoperta affascinante è che i rischi di furto a breve termine sono influenzati da interazioni complesse e da effetti soglia tra le caratteristiche ambientali e quelle legate al disordine sociale. Cosa significa? Che non basta guardare l’effetto isolato di un singolo fattore. Ad esempio, un’alta connettività stradale (strade ben collegate) potrebbe aumentare il rischio di furto, ma solo fino a un certo punto (effetto soglia). O ancora, l’effetto della connettività stradale potrebbe cambiare a seconda della percentuale di area residenziale in quella zona (interazione).
Per esempio, si è visto che con alti livelli di connettività stradale, una minore percentuale di area residenziale era associata a un maggiore rischio di furto previsto. Questo potrebbe sembrare controintuitivo, ma pensateci: strade ben collegate offrono facili vie di fuga e familiarità per i malintenzionati, mentre una bassa densità residenziale potrebbe significare meno “occhi sulla strada” e meno controllo sociale da parte dei residenti. Queste scoperte ci invitano ad andare oltre l’analisi dei singoli predittori e ad abbracciare approcci più integrati, che tengano conto di come i diversi fattori si combinano nel creare opportunità per il crimine.
![]()
Implicazioni Pratiche: Dalla Teoria alla Strada (e Viceversa)
Cosa ci portiamo a casa da tutto questo? Innanzitutto, che la scelta della tecnica XAI ha implicazioni importanti, soprattutto a livello locale. Se tecniche diverse evidenziano fattori locali diversi, le raccomandazioni per interventi mirati possono variare considerevolmente. Immaginate di dover decidere se aumentare i pattugliamenti in una zona per via di un picco recente di furti (suggerito da SHAP) o se concentrarsi su miglioramenti strutturali a lungo termine (magari più in linea con le spiegazioni di LIME in quel caso). Decisioni sbagliate possono significare spreco di risorse e interventi poco efficaci.
Inoltre, lo studio ci ricorda che caratteristiche con scarsa influenza globale potrebbero comunque avere effetti locali sostanziali. Quindi, escludere features solo perché “in media” non sembrano importanti potrebbe essere un errore, portando a sottovalutare rischi specifici. Le strategie di prevenzione del crimine dovrebbero tener conto di queste non linearità e interazioni. Non esiste una “ricetta unica”: gli interventi devono essere calibrati sul contesto.
Un altro punto interessante è che il modello, pur bravo a identificare gli hot spot nel centro di Ghent, faticava a prevedere i furti nelle aree periferiche. Questo suggerisce che forse servirebbero modelli differenziati spazialmente, addestrati specificamente per diverse zone della città, per garantire una prevenzione più equa.
Cosa Ci Riserva il Futuro? Sfide e Opportunità
Questo studio apre la strada a molte riflessioni. Ci dice che SHAP sembra offrire spiegazioni più robuste e coerenti, ma la sua complessità computazionale potrebbe essere un limite in applicazioni real-time su larga scala. Forse, per l’analisi globale, tecniche meno esigenti come gli ALE plots o l’importanza basata sulla permutazione potrebbero essere un buon compromesso.
La ricerca futura dovrà concentrarsi sullo sviluppo di tecniche XAI ancora più sofisticate ma efficienti, che mantengano trasparenza ed equità. Bisognerà anche testare questi approcci in contesti geografici diversi (pensate alle differenze urbanistiche tra città europee e americane!), su diversi tipi di crimine e con diversi algoritmi di machine learning. E, non da ultimo, c’è la questione etica: l’uso di certe features (come la diversità etnica) nei modelli predittivi richiede un’attenta contestualizzazione per non rischiare di rinforzare bias sociali.
In conclusione, l’IA spiegabile non è solo un esercizio accademico. È uno strumento potente per validare ed estendere le teorie criminologiche tradizionali e, soprattutto, per tradurre le incredibili capacità predittive dell’IA in strategie di prevenzione del crimine che siano realmente efficaci, eque e basate sull’evidenza. Capire il “perché” dietro una previsione è il primo passo per agire in modo più intelligente e mirato. E voi, cosa ne pensate? Vi fidereste di un’IA che non sa spiegare le sue decisioni?
Fonte: Springer
