La Morale si Impara? Scelte Etiche Flessibili e Apprendimento Continuo
Vi siete mai chiesti se la morale sia qualcosa di scolpito nella pietra o piuttosto un concetto in continua evoluzione? Beh, preparatevi a mettere in discussione qualche certezza, perché sembra proprio che le nostre decisioni morali siano molto più ” liquide” di quanto pensiamo, capaci di adattarsi e imparare al volo, un po’ come quando si impara ad andare in bicicletta con qualche caduta e tanto feedback dall’ambiente!
Per oltre un secolo, fior di ricercatori si sono scervellati sulla coerenza, o l’incoerenza, delle nostre preferenze morali. E se vi dicessi che la nostra concezione psicologica della moralità è, in realtà, un cantiere sempre aperto? Proprio così, un sistema in continua costruzione, plasmato dall’apprendimento, informato dai cambiamenti nelle regole morali e dai contesti specifici in cui ci troviamo a decidere. Sembra quasi che il nostro cervello sia un apprendista etico perenne!
Vecchie Scuole di Pensiero: Utilitarismo vs. Deontologia
Tradizionalmente, quando si parla di decisioni morali, si pensa spesso a due grandi filoni. Da un lato, c’è l’utilitarismo: un’azione è morale se porta le migliori conseguenze possibili (ad esempio, sacrificare una vita per salvarne molte di più, come ci insegnano Bentham e Mill). Dall’altro, ci sono le regole deontologiche, che stabiliscono a priori se un’azione sia moralmente ammissibile o meno (sacrificare un essere umano è sempre sbagliato, anche per un bene superiore, direbbe Kant).
Tuttavia, la ricerca psicologica sperimentale ci mostra un quadro un po’ più sfumato. Quando ci presentano scenari morali ipotetici, raramente usiamo un set di principi morali fisso e immutabile. Il nostro comportamento assomiglia più a una sorta di flessibilità morale, dove le preferenze per determinate scelte e principi sono, appunto, flessibili e spesso dipendono dal contesto decisionale. Pensateci: la vostra preferenza per una scelta utilitaristica potrebbe cambiare a seconda del vostro coinvolgimento personale, del realismo della situazione o persino da quanto facilmente accedete a informazioni utilitaristiche in quel momento.
La Sorprendente Flessibilità della Nostra Bussola Morale
Studi sperimentali che inducono l’apprendimento di regole morali hanno dimostrato empiricamente questa flessibilità. Ad esempio, alcuni ricercatori hanno rivelato che impariamo e applichiamo strategie decisionali (deontologiche o basate sul rapporto costi-benefici) a seconda che i risultati di tali strategie siano stati buoni o cattivi. Altri studi hanno mostrato come dimostriamo flessibilità nell’applicazione di regole morali, riconoscendo situazioni in cui possono essere obbedite o infrante (pensate alle regole per fare la coda!).
Quindi, la ricerca precedente indica un pattern costante: l’applicazione dei principi morali è flessibile, dipende dal contesto e dal contenuto dei dilemmi morali, e può essere appresa attraverso l’esperienza di risultati “buoni” e “cattivi”. Ma cosa succede con regole morali completamente nuove, astratte, per le quali non abbiamo alcuna conoscenza pregressa? Regole, per intenderci, basate su semplici segnali visivi e non caratterizzabili dai principi morali classici.
È qui che entra in gioco la novità di alcuni recenti studi. L’idea è che l’apprendimento di regole sia alla base della flessibilità delle preferenze morali. Noi esseri umani cerchiamo di imparare, e ci riusciamo, nuove regole morali che influenzano le nostre decisioni nella direzione della regola appresa. Ma c’è un “ma”: questo apprendimento funziona finché la regola non entra in conflitto con il principio di massimizzazione dell’utilità. Se una scelta, pur seguendo una regola appena imparata, va contro un’opzione palesemente più “utile” (ad esempio, salvare più vite), tendiamo a preferire quest’ultima.
Tradizionalmente, il processo decisionale utilitaristico normativo è stato considerato il gold standard per un comportamento morale razionale. La flessibilità morale, invece, è stata spesso vista come un errore. Tuttavia, sebbene la flessibilità morale possa interrompere il comportamento normativo atteso, non è necessariamente una strategia decisionale errata. Recenti evidenze indicano che le nostre preferenze decisionali sono costruite “al volo”, influenzate dal metodo con cui ci vengono chieste le preferenze e dal feedback che riceviamo.
Esperimenti Illuminanti: Mettere alla Prova l’Apprendimento Morale
Per esplorare e misurare l’apprendimento di regole morali negli adulti, sono stati condotti esperimenti ingegnosi. Immaginate un compito di apprendimento supervisionato in due fasi. Nella prima fase, i partecipanti imparavano nuove regole morali basate su un feedback correttivo ricevuto dopo ogni loro decisione morale. Nella seconda, si testava se queste regole venissero trasferite a compiti dove il feedback non era più fornito.
Esperimento 1: Imparare Nuove Regole del Gioco Etico
Nel primo esperimento, l’obiettivo era stabilire se i partecipanti potessero:
- Imparare nuove regole morali da un compito di apprendimento supervisionato (con feedback) o non supervisionato (senza feedback).
- Trasferire le regole apprese a una fase di test senza feedback, dove l’utilità delle opzioni di scelta rimaneva uguale.
I partecipanti venivano posti di fronte a un dilemma morale: salvare uno tra due gruppi di ostaggi. I gruppi erano rappresentati da stimoli visivi (simili a dadi blu con sagome di persone nei “punti”). Le “regole morali” erano astratte, definite dalle caratteristiche dei dadi (es. scegliere il dado con meno punti ma più persone per punto, o viceversa). In una condizione, i partecipanti ricevevano un feedback (“corretto” o “sbagliato”) dopo ogni scelta. In un’altra (controllo), nessun feedback.
I risultati? Sorprendenti! I partecipanti hanno imparato le nuove regole morali e le hanno trasferite con successo alla fase di test senza feedback. Questo significa che, anche in poche decine di “prove”, il nostro cervello è in grado di assimilare e applicare nuovi schemi etici, almeno finché la posta in gioco (l’utilità) non cambia.
Esperimento 2: Quando l’Utilità Scompiglia le Carte
Il secondo esperimento alzava l’asticella. L’obiettivo era investigare se il processo decisionale basato sull’apprendimento di regole (supervisionato e non) si alterasse in risposta a cambiamenti nell’utilità delle opzioni nella fase di test. In pratica, cosa succede se la regola appena imparata entra in conflitto con una scelta palesemente più “utile”?
La fase di apprendimento era simile all’esperimento 1. Ma nella fase di test, veniva introdotta un’opzione con un’utilità dominante (ad esempio, un’opzione permetteva di salvare un numero significativamente maggiore di persone). Questa opzione poteva essere congruente o incongruente con la regola precedentemente appresa.
E qui arriva il bello: quando la regola appresa era incongruente con l’opzione utilitaristicamente dominante, i partecipanti tendevano a “tradire” la regola appena imparata per scegliere l’opzione che massimizzava l’utilità! Questo dimostra una notevole flessibilità: impariamo le regole, sì, ma siamo pronti a rimetterle in discussione se emerge una scelta che porta a un bene maggiore, secondo un principio utilitaristico più radicato.
In sostanza, quando non c’è un’opzione dominante in termini di utilità, preferiamo seguire le regole morali apprese di recente (una sorta di strategia di “recency”). Ma se spunta un’opzione che massimizza l’utilità, e questa è diversa dalla regola imparata, passiamo a una strategia utilitaristica. Sembra che, in contesti morali, la strategia utilitaristica ben consolidata abbia la meglio sulle regole morali astratte apprese da poco.
Cosa Significa Tutto Questo per Noi?
Questi risultati sono affascinanti perché ci dicono molto su come funziona la nostra mente morale. Non siamo automi che applicano rigidamente un codice etico, ma esseri capaci di un apprendimento morale dinamico e contestuale. Questo potrebbe spiegare come, nel corso della storia, i giudizi morali della società su questioni importanti (come i diritti umani, lo status delle donne, il riconoscimento delle unioni omosessuali) siano cambiati. Impariamo e adottiamo nuove regole e principi morali compatibili con le norme e le leggi sociali generali.
Certo, questi studi hanno utilizzato regole astratte per garantire che l’apprendimento avvenisse durante l’esperimento. Il limite è che tali regole potrebbero non essere rappresentative delle regole morali del mondo reale, che spesso sono tangibili e comprese per il loro significato (es. “non inquino perché danneggia l’ambiente”). Tuttavia, aprono nuove strade per la ricerca sull’apprendimento morale in contesti più naturalistici, magari esplorando come il feedback sociale o l’opinione della maggioranza influenzino questo processo.
È importante notare che l’obiettivo non era addestrare i partecipanti a scegliere opzioni non utilitaristiche, ma piuttosto presentare nuove regole morali in contesti dove una strategia utilitaristica non era inizialmente possibile, per poi vedere come si comportavano quando questa opzione emergeva.
Una piccola curiosità emersa: nella condizione di apprendimento non supervisionato (senza feedback), i partecipanti hanno mostrato una leggera preferenza per una delle due regole astratte. Forse perché, in assenza di guida, cercavano comunque un modo per “massimizzare” qualcosa, o forse per una semplice salienza visiva dello stimolo. Questo, comunque, non ha inficiato i risultati principali sull’apprendimento supervisionato.
Insomma, la nostra morale non è un libro di regole polveroso, ma un software in continuo aggiornamento! Il nostro sistema morale flessibile impara e utilizza le regole più recenti in base alle esigenze ambientali, ma sa anche quando fare un passo indietro e affidarsi a principi più consolidati come quello dell’utilità, specialmente quando la posta in gioco è alta, come la vita umana. Questo ci rende incredibilmente adattabili, ma solleva anche interrogativi profondi su cosa significhi, in ultima analisi, “essere morali”. E voi, cosa ne pensate?
Fonte: Springer