Ingegneria Comportamentale: Possiamo Davvero ‘Programmare’ le Nostre Scelte?
Avete mai pensato a come prendiamo le decisioni? O meglio ancora, a come potremmo influenzare le scelte degli altri? Sembra fantascienza, ma forse non lo è così tanto. Da sempre, noi esseri umani cerchiamo di plasmare il comportamento altrui: pensate all’educazione dei figli, a convincere un amico, o alle strategie usate in politica e nel marketing. Spesso ci affidiamo all’intuito, a quella che potremmo chiamare “psicologia popolare”. A volte, i più scaltri usano principi psicologici noti, come l’effetto ancoraggio o la primacy/recency, per avere più successo.
Questo approccio “qualitativo”, basato su principi e intuizioni, ricorda un po’ come costruivamo ponti o utensili secoli fa, basandoci su una comprensione intuitiva delle leggi fisiche, la “fisica popolare”. Poi, però, è arrivata la scienza moderna, con le sue equazioni matematiche precise, che ha permesso la nascita dell’ingegneria come la conosciamo oggi: dai computer ai grattacieli, meraviglie rese possibili da modelli quantitativi.
Ma cos’è questa Ingegneria Comportamentale?
Ecco, la domanda che mi sono posto, e che ha guidato la ricerca di cui vi parlo oggi, è proprio questa: e se potessimo fare lo stesso con il comportamento? Se potessimo usare modelli matematici, quantitativi, per “ingegnerizzare” le scelte delle persone in modo più efficace rispetto ai soli principi qualitativi? Ho chiamato questo approccio “ingegneria delle scelte” (choice engineering), per distinguerlo dall’“architettura delle scelte” (choice architecture), termine reso famoso da Sunstein e Thaler con i loro “nudges” (spintarelle gentili), che si basa più su principi qualitativi e test empirici.
Per mettere alla prova questa idea, ci siamo concentrati sull’apprendimento operante, quel processo per cui impariamo le associazioni tra le nostre azioni e le loro conseguenze. Immaginate un compito semplice: dovete scegliere ripetutamente tra due opzioni, diciamo Pulsante 1 e Pulsante 2. A volte, la vostra scelta viene premiata (un piccolo bonus!), altre volte no. La sequenza di premi (il “programma di rinforzo”) influenza ovviamente le vostre scelte future.
La Sfida: Una Gara tra Cervelli
Ora, immaginate di essere un “ingegnere delle scelte”. Il vostro obiettivo è creare un programma di rinforzo che spinga le persone a scegliere il più possibile il Pulsante 1. C’è un vincolo però: in una sessione di 100 scelte, dovete assegnare esattamente 25 premi al Pulsante 1 e 25 premi al Pulsante 2. Non potete semplicemente premiare sempre e solo il Pulsante 1!
Come fareste? Potreste usare l’intuito o principi psicologici (architettura delle scelte). Ad esempio, l’effetto primacy suggerirebbe di mettere molti premi per il Pulsante 1 all’inizio, e quelli per il Pulsante 2 alla fine. Oppure, potreste usare un modello matematico che descrive come le persone imparano e decidono (ingegneria delle scelte). Questo modello vi permetterebbe di simulare l’effetto di diversi programmi di rinforzo e scegliere quello che, secondo le simulazioni, massimizza la scelta del Pulsante 1.
Per vedere quale approccio funzionasse meglio, abbiamo lanciato una vera e propria competizione accademica: la Choice Engineering Competition. Abbiamo invitato ricercatori a proporre i loro programmi di rinforzo (rispettando il vincolo dei 25 premi per opzione), basati su modelli quantitativi (ingegneri) o su principi qualitativi (architetti). L’efficacia di ogni programma sarebbe stata poi misurata testandolo su un gran numero di partecipanti reali online.
Chi Ha Vinto la Gara? Sorprese in Arrivo!
Abbiamo testato 11 diversi programmi di rinforzo su oltre 3300 partecipanti. I risultati? Sorprendenti! Il programma di rinforzo più efficace, quello che ha spinto i partecipanti a scegliere l’Alternativa 1 in media il 64.3% delle volte (ben al di sopra del 50% casuale), è stato progettato da un “ingegnere” utilizzando un modello quantitativo chiamato CATIE (Contingent Average, Trend, Inertia, and Exploration). Questo modello è piuttosto complesso e tiene conto di vari fattori: non solo il valore atteso delle scelte (come fanno molti modelli), ma anche i trend recenti nei premi, l’inerzia (la tendenza a ripetere la scelta precedente) e un’esplorazione che dipende da quanto siamo sorpresi dai risultati.
Al secondo posto, staccato di pochissimo (64.1%, una differenza non statisticamente significativa), è arrivato un programma creato da un “architetto”, basato su principi qualitativi come la primacy e una strategia astuta per creare brevi “strisce” di premi solo per l’Alternativa 1, sperando che i partecipanti “mancassero” i premi dell’Alternativa 2.
La vera sorpresa, però, è stata un’altra. Quattro programmi erano basati sul modello di Q-learning (QL), un algoritmo di apprendimento per rinforzo famosissimo e molto usato sia nell’intelligenza artificiale che nelle neuroscienze cognitive per modellare l’apprendimento. Ebbene, tutti e quattro questi programmi hanno avuto prestazioni significativamente peggiori rispetto a quello basato su CATIE!
Perché CATIE Ha Funzionato (e Perché Non Perfettamente)?
Il successo di CATIE rispetto al più popolare QL in questo specifico compito è notevole. CATIE è un modello fenomenologico, costruito per descrivere il comportamento osservato, non derivato da principi teorici ottimali come QL. Forse, suggerisce questo risultato, dovremmo essere cauti nell’applicare direttamente algoritmi di machine learning standard per descrivere le sfumature dell’apprendimento umano.
Ma c’è di più. Anche se il programma basato su CATIE ha vinto, era davvero il migliore possibile? Per capirlo, abbiamo usato un approccio “data-driven”: siamo partiti da un programma semplice (premi per l’Alternativa 1 all’inizio, per la 2 alla fine) e lo abbiamo migliorato iterativamente, testandolo su persone e aggiustandolo in base ai risultati, un po’ come fa AlphaZero per imparare a giocare a scacchi. Questo processo ci ha portato a un programma “benchmark” (Schedule 0) che ha raggiunto un bias del 69.0%! Questo rappresenta un limite inferiore a quanto sia possibile ottenere.
Perché il programma ottimizzato per CATIE (64.3%) non ha raggiunto questo livello (69.0%)? Abbiamo verificato che non fosse un problema di ottimizzazione (il programma vincente era davvero il migliore *per il modello CATIE*). Abbiamo anche analizzato l’eterogeneità tra i partecipanti: le persone non sono tutte uguali, certo, ma il modello CATIE riusciva a spiegare gran parte di questa variabilità. La conclusione più probabile è che il modello CATIE, pur essendo il migliore tra quelli in gara per *ingegnerizzare* il comportamento, non è ancora una descrizione perfetta di come gli umani imparano in questo compito.
La Gara come Test: Qual è il Modello Migliore?
Un aspetto affascinante di questa competizione è che ci offre un modo nuovo per confrontare i modelli cognitivi. Di solito, i modelli si confrontano in base a quanto bene “spiegano” i dati raccolti (usando misure statistiche come la verosimiglianza o la varianza spiegata). Qui, invece, li confrontiamo in base alla loro capacità di *produrre* un certo comportamento desiderato.
E i risultati sono interessanti anche sotto questa luce. Se guardiamo alla capacità di predire il bias medio ottenuto da ciascun programma di rinforzo, CATIE è risultato il migliore, con una correlazione molto alta (r=0.88) tra il bias predetto dal modello e quello osservato negli esperimenti.
Tuttavia, se guardiamo alla capacità di predire la *singola scelta* di ogni partecipante in ogni prova, la situazione è più sfumata. Usando una metrica (la probabilità media assegnata alla scelta fatta dal partecipante, E[p]), CATIE era leggermente migliore. Usando un’altra metrica standard (la log-verosimiglianza media, E[log(p)]), un modello QL è risultato superiore. Questo ci ricorda che non esiste un unico modo “giusto” per confrontare i modelli, e l’approccio ingegneristico offre una prospettiva complementare e pragmaticamente utile.
Cosa Significa Tutto Questo per Noi?
Questa competizione è una “prova di concetto”: dimostra che l’approccio dell’ingegneria delle scelte, basato su modelli quantitativi, ha un potenziale enorme. Il fatto che un programma ottimizzato automaticamente tramite un modello (CATIE) sia riuscito a eguagliare (e leggermente superare) le migliori intuizioni di esperti accademici (architetti) è significativo. L’approccio ingegneristico ha il vantaggio di poter essere automatizzato: dato un modello e un obiettivo, un computer può cercare il programma di rinforzo ottimale. Cambiare obiettivo o vincoli richiederebbe solo una nuova ottimizzazione, mentre l’approccio dell’architetto richiederebbe una nuova, laboriosa, progettazione basata sull’intuizione.
Certo, ci sono limitazioni. I risultati valgono per questo specifico compito. Non è chiaro come applicare questi modelli per influenzare scelte più complesse, come quale bibita comprare o chi votare. Inoltre, il modello vincente, CATIE, pur efficace qui, è meno generalizzabile ad altri problemi di apprendimento rispetto a QL. E, ovviamente, potrebbero esistere modelli ancora migliori che non sono stati testati.
Nonostante ciò, l’ingegneria comportamentale si profila come uno strumento potente. Come per ogni tecnologia potente, è fondamentale considerare le implicazioni etiche e sociali. La capacità di influenzare le scelte in modo così mirato e potenzialmente automatico apre scenari che richiedono riflessione e regolamentazione.
In conclusione, questa ricerca mostra che i modelli quantitativi delle scienze cognitive non servono solo a descrivere o predire il comportamento, ma possono essere usati attivamente per plasmarlo, proprio come l’ingegneria usa i modelli fisici per costruire il mondo intorno a noi. È un campo affascinante e in rapida evoluzione, che promette di approfondire la nostra comprensione della mente umana e, forse, di migliorare il benessere individuale e sociale… se usato con saggezza.
Fonte: Springer