Forme Sotto Esame: L’Errore Nascosto che Inganna (ma non Sempre!)
Ciao a tutti! Oggi voglio parlarvi di un aspetto affascinante, ma a volte un po’ insidioso, del mio lavoro: lo studio della forma degli organismi, in particolare dei mammiferi. Utilizzo una tecnica chiamata morfometria geometrica (GMM), che è diventata uno strumento potentissimo in biologia, tassonomia e tante altre discipline. In pratica, ci permette di quantificare e confrontare le forme in modo molto preciso, usando dei punti di riferimento specifici chiamati “landmark”.
Sembra fantastico, vero? Lo è! Ma c’è un “ma”. Come in ogni misurazione, anche nella GMM c’è il rischio di commettere errori. E non parlo solo di sviste casuali, ma di qualcosa di più sottile: l’errore di misurazione (ME), che può essere casuale o, peggio ancora, sistematico. Un errore sistematico, o bias, è una tendenza costante a sbagliare in una certa direzione. Immaginate di misurare ripetutamente un tavolo e segnare sempre 1 cm in più: quello è un bias.
Il Pericolo dell'”Effetto Scienziato in Trasferta”
Recentemente, mi sono imbattuto in un potenziale problema legato proprio a questo tipo di errore, specialmente quando si lavora con dati raccolti in momenti diversi. Ho iniziato a pensare a quello che ho scherzosamente soprannominato “effetto scienziato in trasferta”. Cosa intendo?
Spesso, per i nostri studi, dobbiamo visitare diverse collezioni museali, magari sparse per il mondo. Può capitare di digitalizzare i landmark (cioè, registrare le coordinate dei punti di riferimento) di un gruppo di esemplari in un museo, e poi, mesi o addirittura anni dopo, fare lo stesso per un altro gruppo in un altro museo. Magari un museo ha prevalentemente maschi di una specie, e un altro prevalentemente femmine. O magari una specie è ben rappresentata in Europa, e un’altra solo in Nord America.
La domanda che mi sono posto è: questa separazione temporale nella raccolta dati può introdurre un bias? Potrebbe succedere che, inconsciamente, il modo in cui posizioniamo i landmark cambi leggermente nel tempo? Anche una differenza minuscola, ma sistematica, potrebbe falsare i risultati?
Per indagare su questo, ho usato un set di dati che conosco bene: fotografie 2D della vista ventrale dei crani di marmotte adulte. Ho preso un campione di 58 crani di marmotta dal ventre giallo (Marmota flaviventris) e ho digitalizzato 26 landmark più e più volte, creando diverse “repliche” (REP) della digitalizzazione. La cosa cruciale è che ho fatto queste repliche a intervalli di tempo crescenti: alcune nello stesso giorno (mattina e pomeriggio), altre a distanza di giorni, settimane, mesi, fino ad arrivare a confrontarle con una digitalizzazione che avevo fatto ben 20 anni fa!
Scoprire il Bias: Esiste Davvero?
Ho utilizzato un metodo statistico relativamente nuovo, chiamato ME ANOVA (Measurement Error ANOVA), implementato nei pacchetti R geomorph/RRPP, che è specificamente progettato per separare l’errore casuale da quello sistematico (il bias) e testare se quest’ultimo è significativo.
Ebbene sì, i risultati hanno confermato i miei sospetti! Ho trovato un bias statisticamente significativo. E la cosa interessante è che la sua “grandezza” (misurata con parametri come R-squared, Rsq, che indica la porzione di varianza spiegata) tendeva ad aumentare in modo non lineare con l’aumentare dell’intervallo di tempo tra le digitalizzazioni.
In particolare:
- Il bias tra le due digitalizzazioni fatte nello stesso giorno era minuscolo, quasi trascurabile (Rsq = 0.1%).
- Già dopo un giorno, il bias diventava più consistente, ma poi rimaneva relativamente stabile per intervalli fino a quattro mesi (Rsq medio intorno allo 0.5%).
- Il vero “salto” avveniva confrontando le digitalizzazioni recenti con quella di 20 anni fa: il bias diventava circa 4 volte più grande rispetto a quello osservato tra giorni e mesi (Rsq = 1.9%)!
Questo sembra proprio confermare l’esistenza di un potenziale “effetto scienziato in trasferta”: il tempo che passa tra le sessioni di raccolta dati può effettivamente introdurre delle differenze sistematiche nel modo in cui misuriamo.
Ma Quanto Pesa Davvero Questo Errore? Il Contesto è Tutto!
Ok, abbiamo trovato un bias significativo. Panico? Non necessariamente. Qui la faccenda si fa davvero interessante e ci porta al cuore del mio studio attuale, che espande l’analisi a un campione molto più grande, includendo ben cinque specie diverse di marmotte (M. caligata, M. flaviventris, M. himalayana, M. marmota, M. monax) per un totale di 218 individui e 1744 digitalizzazioni complessive!
In un mio precedente lavoro (citato nel testo originale come Cardini in press), avevo usato un sottoinsieme di questi dati (solo M. flaviventris) per studiare il dimorfismo sessuale, cioè le differenze di forma tra maschi e femmine. In quel caso, le differenze di forma tra i sessi nelle marmotte adulte sono notoriamente molto piccole, quasi trascurabili (Rsq intorno al 2%). Ebbene, in quel contesto, ho scoperto che il bias dovuto all’errore di digitalizzazione, sebbene piccolo in termini assoluti, era abbastanza grande rispetto al segnale biologico (le differenze tra sessi) da poter ribaltare completamente le conclusioni! Confrontando maschi digitalizzati 20 anni fa con femmine digitalizzate oggi (o viceversa), il dimorfismo sessuale appariva improvvisamente significativo, un risultato chiaramente artefatto. Preoccupante, vero?
Ma cosa succede quando il “segnale biologico” che stiamo cercando è molto più forte? Le differenze di forma del cranio tra specie diverse di marmotte sono note per essere piuttosto grandi e significative, nonostante una certa somiglianza generale (l’Rsq per le differenze interspecifiche nel mio campione è intorno al 28-30%).
Ho quindi ripetuto l’analisi del bias nel contesto interspecifico, usando tutte e cinque le specie. Ho anche eseguito test per confrontare le forme medie delle specie all’interno di ogni singola replica (REP) e poi simulando l'”effetto scienziato in trasferta”, cioè confrontando una specie da una REP con un’altra specie da una REP diversa (ad esempio, M. marmota dalla REP del mattino del giorno 1 vs M. caligata dalla REP di 20 anni fa).
I risultati sono stati illuminanti:
- Anche nel campione interspecifico, l’ME ANOVA ha rilevato un bias significativo legato al tempo, con un andamento simile a quello visto nel singolo campione di M. flaviventris.
- Tuttavia, quando ho testato le differenze tra le specie, i risultati sono stati estremamente congruenti tra tutte le repliche. Tutte le analisi, indipendentemente dalla REP usata, mostravano differenze interspecifiche ampie e significative (Rsq sempre intorno al 28-30%, accuratezza di classificazione delle specie altissima, 95-97%).
- Anche simulando il bias massimo (confrontando specie da repliche separate da 20 anni), le conclusioni non cambiavano: le specie restavano significativamente diverse. C’era sì una leggera inflazione dell’effetto misurato (l’Rsq tendeva ad essere un po’ più alto nei confronti “biased”), ma l’impatto sul risultato finale era minimo.
Il Rapporto Segnale/Bias: Una Chiave di Lettura
Cosa ci dice tutto questo? Che la significatività statistica di un bias, rilevata ad esempio dall’ME ANOVA, è un campanello d’allarme importante, ma non basta. Dobbiamo valutare l’impatto pratico di quell’errore. E questo impatto dipende crucialmente dalla grandezza del fenomeno biologico che stiamo studiando rispetto alla grandezza del bias stesso.
Possiamo pensare a un “rapporto segnale/bias”.
- Nel caso del dimorfismo sessuale (segnale debole, Rsq ~2%), il bias (Rsq ~1-2%) aveva un rapporto vicino a 1. L’errore era dello stesso ordine di grandezza del fenomeno studiato, e quindi il suo impatto era devastante.
- Nel caso delle differenze interspecifiche (segnale forte, Rsq 10-30% nei confronti pairwise), il bias (Rsq ~1-2% o meno in media) aveva un rapporto di 10:1, 20:1 o più. L’errore era molto più piccolo del fenomeno studiato, e il suo impatto diventava trascurabile ai fini delle conclusioni generali.
Questo non significa che possiamo ignorare l’errore quando studiamo grandi differenze! Il bias esiste comunque e introduce una certa imprecisione, gonfiando leggermente le differenze osservate. Ma è meno probabile che ci porti a conclusioni completamente sbagliate.
Visualizzare le Differenze e l’Errore
Per darvi un’idea visiva, ho creato dei diagrammi “wireframe” (scheletrici) che mostrano le differenze di forma. Ad esempio, confrontando la marmotta dal ventre giallo (M. flaviventris) con la marmotta delle nevi (M. caligata), si vedono differenze diffuse su tutto il cranio. La marmotta delle nevi ha un cranio relativamente più allungato, archi zigomatici più larghi e una base cranica più stretta.
Quando invece visualizzo il bias (ad esempio, la differenza tra la digitalizzazione del 2023 e quella del 2004 per la stessa specie, M. caligata), vedo che l’errore sembra concentrarsi maggiormente sugli archi zigomatici e sulla base cranica, mentre il rostro (la parte anteriore del muso) rimane quasi identico. Questo suggerisce anche che alcuni landmark potrebbero essere più “problematici” di altri, un aspetto che avevo approfondito nel mio studio precedente, mostrando che escludere i landmark più imprecisi può mitigare il bias, anche se a costo di perdere informazione biologica.
Cosa Portiamo a Casa? Implicazioni Pratiche
Questa ricerca, insieme alla precedente, suggerisce alcune lezioni importanti per chiunque utilizzi la morfometria geometrica (e forse non solo):
1. L’errore di misurazione è reale: Dobbiamo essere consapevoli che i nostri dati non sono perfetti. L’errore sistematico (bias), in particolare, può essere insidioso.
2. Attenzione ai “time lags”: L'”effetto scienziato in trasferta” sembra essere un fenomeno concreto. Raccogliere dati in sessioni molto distanziate nel tempo può introdurre bias, specialmente se non si prendono precauzioni.
3. Usare gli strumenti giusti: Metodi come l’ME ANOVA sono preziosi per identificare e quantificare sia l’errore casuale che quello sistematico.
4. Non fermarsi alla significatività statistica: Un bias statisticamente significativo non significa automaticamente che i nostri risultati principali siano invalidati. È cruciale valutare la sua magnitudine.
5. Considerare il rapporto segnale/bias: Confrontare la “forza” del fenomeno biologico che stiamo studiando con la “forza” del bias ci aiuta a interpretare l’impatto reale dell’errore. Un errore piccolo può essere devastante se il segnale è debole, ma trascurabile se il segnale è forte.
6. Prevenire è meglio che curare: Quando possibile, randomizzare l’ordine degli esemplari durante la raccolta dati può aiutare a prevenire bias sistematici legati al tempo o ai gruppi. Se non è possibile, è fondamentale essere consapevoli del rischio e testare l’errore. Ripetere le misurazioni su un sottocampione prima di iniziare una nuova sessione di raccolta dati dopo una lunga pausa è una buona pratica.
7. Scegliere bene i landmark: A volte, usare meno landmark ma più robusti e facili da identificare può essere meglio che usare tanti landmark, alcuni dei quali magari difficili da posizionare con precisione e costanza.
Insomma, la morfometria geometrica rimane uno strumento potentissimo, ma come tutti gli strumenti potenti, va usato con consapevolezza e cautela. L’errore fa parte del gioco, ma capirne la natura e l’impatto relativo ci permette di trarre conclusioni più solide e affidabili dalle nostre analisi della meravigliosa diversità delle forme viventi.
Fonte: Springer