Ricercatori che conducono un censimento Schnabel in un ambiente naturale boschivo, uno di loro sta delicatamente marcando un piccolo mammifero, telephoto zoom 150mm, alta definizione, luce naturale del mattino, dettagli nitidi sull'animale e sull'attrezzatura di marcatura.

Contare gli Animali Senza Perdere la Testa: Il Trucco del Censimento Schnabel e lo Sforzo Giusto!

Vi siete mai chiesti come facciamo a sapere quanti pesci ci sono in un lago, quanti coniglietti selvatici scorrazzano in un prato o, in generale, quanti individui compongono una popolazione animale in un determinato ambiente? Non è che possiamo metterci lì con carta e penna e contarli uno ad uno, soprattutto se sono sfuggenti o si nascondono bene! Ecco, da un sacco di tempo, scienziati ed ecologi si scervellano su questo problema, e uno dei metodi più ingegnosi e diffusi è il cosiddetto censimento di Schnabel. Un nome un po’ altisonante, lo so, ma l’idea di base è affascinante e, con un po’ di astuzia, ci permette di fare stime piuttosto precise.

Però, c’è un “ma”. Come in tutte le cose belle, anche qui c’è un trucchetto, o meglio, una domanda cruciale: quanto impegno ci dobbiamo mettere? Quante volte dobbiamo andare a “pescare” (in senso lato, ovviamente, può trattarsi di trappole, reti, osservazioni) per ottenere una stima della dimensione della popolazione che sia affidabile? È proprio di questo che voglio parlarvi oggi, basandomi su uno studio che cerca di fare luce su questo aspetto fondamentale, spesso un po’ trascurato: la scelta dello sforzo di campionamento nel censimento di Schnabel.

Cos’è ‘sto Censimento di Schnabel e Come Funziona?

Immaginate di essere dei detective della natura. Il metodo Schnabel, proposto per la prima volta nel lontano 1938, è una tecnica di cattura-ricattura. Funziona così, in parole povere:

  • Si effettuano una serie di campionamenti indipendenti in una popolazione che consideriamo “chiusa” (cioè, senza nascite, morti o migrazioni significative durante il periodo di studio).
  • Ogni volta che catturiamo un individuo che non era mai stato preso prima, gli mettiamo un segno identificativo (un anellino, una targhetta, un microchip, a seconda della specie) e poi lo rilasciamo tranquillamente nel suo ambiente.
  • Se ricatturiamo un individuo già marcato, prendiamo nota e lo rilasciamo di nuovo.

L’idea è che, man mano che procediamo con i campionamenti, la proporzione di animali marcati tra quelli catturati dovrebbe aumentare. Questa proporzione ci dà un’indicazione di quanti animali ci sono in totale. Sembra semplice, no? Beh, la teoria sì, ma la pratica, come sempre, nasconde qualche insidia.

Il Dilemma dello Sforzo: Quanto Basta?

Il punto centrale dello studio che sto analizzando è proprio questo: determinare lo sforzo di campionamento adeguato. Quante “occasioni di cattura” (che chiameremo T) servono per ottenere la precisione desiderata? Questa non è una domanda da poco, specialmente quando le risorse – tempo, denaro, personale – sono limitate. Non vogliamo sprecare energie inutilmente, ma nemmeno ottenere dati così scarsi da essere inutilizzabili.

Pensateci: se facciamo pochi tentativi, rischiamo di sottostimare o sovrastimare grossolanamente la popolazione. Se ne facciamo troppi, magari la precisione aumenta solo di un pochino, ma abbiamo speso un patrimonio. Trovare il giusto equilibrio è la chiave. E qui entra in gioco un concetto fondamentale: la probabilità di non osservare un individuo (chiamata p₀). In pratica, è la probabilità che un certo animale, pur essendo presente nell’area, non venga mai catturato durante tutte le nostre T occasioni di campionamento.

Lo studio suggerisce che mantenere questa p₀ al di sotto di 0.5 (cioè, avere più del 50% di probabilità di catturare almeno una volta ogni individuo) potrebbe limitare l’incertezza della nostra stima della popolazione (N) entro il 20% del valore reale, almeno per popolazioni con N maggiore o uguale a 100. Un 20% di margine di errore può sembrare tanto, ma in ecologia, dove le variabili sono infinite, è spesso un risultato più che accettabile!

Ricercatori scientifici in un ambiente boschivo, macro lens 70mm, mentre marcano con cura un piccolo uccello con un anellino colorato alla zampa prima di rilasciarlo, luce naturale filtrata dagli alberi, alta definizione, focus preciso sull'uccello e sulle mani guantate del ricercatore, sfondo leggermente sfocato per enfatizzare il soggetto.

Modelli Matematici per Districare la Matassa

Per capire come lo sforzo di campionamento T influenzi la nostra p₀ (e quindi la precisione della stima di N), non possiamo affidarci al caso. Abbiamo bisogno di modelli matematici. Lo studio ne esplora principalmente tre, applicando quella che si chiama “distribuzione di conteggio troncata a zero”. Questo termine un po’ ostico significa semplicemente che consideriamo solo gli animali che sono stati catturati almeno una volta, perché quelli mai catturati (f₀, la frequenza degli “invisibili”) sono, per definizione, assenti dai nostri dati raccolti sul campo.

I modelli usati sono:

  • Modello binomiale: È il più semplice. Assume che ogni individuo abbia la stessa probabilità (θ) di essere catturato in ogni occasione, e che le catture siano indipendenti.
  • Modello beta-binomiale: Questo è più sofisticato. Riconosce che non tutti gli animali sono uguali: alcuni potrebbero essere più facili da catturare di altri (magari i più curiosi o i meno esperti). Quindi, la probabilità di cattura θ non è fissa, ma varia tra gli individui seguendo una distribuzione Beta. Questa si chiama eterogeneità nella rilevabilità.
  • Modello a mistura binomiale: Ancora più flessibile. Immagina che la popolazione sia composta da diversi gruppi (ad esempio, giovani e adulti, maschi e femmine), ognuno con la sua specifica probabilità di cattura.

Per stimare i parametri di questi modelli (come la famosa p₀) quando i dati sono “troncati a zero”, si usa spesso un potente strumento statistico chiamato algoritmo EM (Expectation-Maximization). È un po’ come un detective che, non avendo tutti gli indizi, prima fa delle ipotesi sui dati mancanti (la “E” di Expectation) e poi usa queste ipotesi per affinare la sua teoria (la “M” di Maximization), ripetendo il processo finché non arriva a una soluzione stabile.

La Relazione Esponenziale e l’Importanza della Rilevabilità

Una delle scoperte chiave è che esiste una relazione esponenziale tra il tasso di successo di cattura desiderato (cioè, 1-p₀, la probabilità di catturare un individuo almeno una volta) e il numero di occasioni di cattura T richieste. Cosa significa in pratica? Che se vogliamo aumentare anche di poco la nostra sicurezza di aver “visto” quasi tutti, potremmo dover aumentare di molto il nostro sforzo! Ad esempio, passare da un tasso di successo del 40% a uno dell’80% non richiederà il doppio dello sforzo, ma probabilmente molto di più.

Inoltre, emerge chiaramente che una minore rilevabilità degli animali richiede un numero maggiore di occasioni di cattura per raggiungere lo stesso livello di successo rispetto a una situazione con alta rilevabilità. Se gli animali sono elusivi o le nostre trappole poco efficienti, dovremo sudare sette camicie (cioè, fare molti più campionamenti) per ottenere risultati decenti.

Un Esempio Pratico: I Coniglietti Selvatici

Per non restare solo sulla teoria, lo studio analizza un caso reale: un’indagine su una popolazione di 135 conigli selvatici (cottontail rabbits) tenuti in un recinto di 4 acri. I conigli sono stati intrappolati per 18 notti consecutive, e 76 di loro sono stati catturati almeno una volta. Applicando i diversi modelli ai dati di cattura-ricattura:

  • Il modello binomiale semplice (ZTB) ha sottostimato la dimensione della popolazione.
  • Il modello beta-binomiale (ZTBB) ha fornito una stima eccessiva.
  • I modelli a mistura binomiale, in particolare quello a due componenti (ZTMB2), sembrano aver funzionato meglio, fornendo stime molto vicine alla dimensione reale della popolazione (135 conigli). Il modello ZTMB2 è risultato il migliore anche secondo criteri statistici come l’AIC e il BIC.

Usando i parametri stimati dal modello ZTMB2 per i conigli, i ricercatori hanno calcolato il numero di occasioni di cattura T necessarie per ottenere diversi tassi di successo:

  • Per un tasso di successo del 40% (p₀ = 0.6), sarebbero bastate circa 12 notti di trappolaggio.
  • Per un tasso del 50% (p₀ = 0.5), ne servivano circa 17 (vicino alle 18 effettivamente usate nello studio originale!).
  • Per un tasso del 70% (p₀ = 0.3), il numero di notti saliva a 34.
  • E per un ambizioso 90% di successo (p₀ = 0.1), sarebbero state necessarie ben 70 notti!

Vedete la crescita esponenziale dello sforzo? È un aspetto cruciale da considerare quando si pianifica uno studio.

Un coniglio selvatico (cottontail rabbit) in un prato al crepuscolo, telephoto zoom 300mm, fast shutter speed per catturare il coniglio in un momento di allerta, orecchie dritte, luce soffusa del tramonto che crea un leggero controluce, bokeh sullo sfondo erboso.

Cosa Ci Portiamo a Casa?

Questo studio ci offre una guida pratica, una sorta di bussola per orientarci nel complesso mondo del campionamento. Il messaggio principale è che, per pianificare bene un censimento Schnabel, non possiamo andare alla cieca. Ecco alcuni punti chiave:

  1. La conoscenza pregressa è oro: Anche se lo scopo è stimare N, avere un’idea di massima della dimensione della popolazione o della rilevabilità degli animali (magari da studi pilota o ricerche precedenti) aiuta enormemente a non trovarsi in un circolo vizioso.
  2. Scegliere un tasso di successo realistico: Bisogna decidere quale livello di “probabilità di non aver visto nessuno” (p₀) siamo disposti ad accettare, in base agli obiettivi dello studio e alle risorse disponibili. Tenere p₀ < 0.5 è una buona regola generale per contenere l'incertezza.
  3. L’eterogeneità conta: Se sospettiamo che la rilevabilità vari molto all’interno della popolazione, modelli più complessi come il beta-binomiale o la mistura binomiale sono preferibili, anche se il beta-binomiale può talvolta dare stime esagerate con dati troncati a zero.
  4. L’algoritmo EM è nostro amico: Per gestire i dati troncati a zero e stimare i parametri dei modelli, l’algoritmo EM è uno strumento robusto ed essenziale.
  5. Pianificare in anticipo: Invece di scoprire a posteriori se lo sforzo è stato sufficiente, questo approccio ci permette di pianificare T in anticipo, basandoci su ipotesi realistiche di rilevabilità e sul tasso di successo desiderato.

In conclusione, la prossima volta che leggerete di stime sulla fauna selvatica, pensate a tutto il lavoro e alla pianificazione che c’è dietro. Scegliere il giusto sforzo di campionamento nel censimento di Schnabel non è solo una questione di numeri, ma un passo fondamentale per ottenere dati affidabili, utili per la conservazione e la gestione delle nostre preziose risorse naturali. E sapere come farlo in modo efficiente, bilanciando precisione e fattibilità, è ciò che rende la scienza davvero applicabile e sostenibile. Non è affascinante?

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *