Caos Idrossiclorochina: Lezioni Amare dalla Pandemia per Salvare la Fiducia nella Scienza
Ciao a tutti! Ricordate i primi, concitati mesi della pandemia di COVID-19? Tra mascherine improvvisate, lockdown e notizie che cambiavano ogni ora, c’era un farmaco che sembrava essere sulla bocca di tutti: l’idrossiclorochina (HCQ). Promessa da alcuni come cura miracolosa, demonizzata da altri, ha scatenato un dibattito accesissimo che è andato ben oltre i laboratori scientifici, invadendo media, social network e persino la politica.
Ecco, oggi voglio parlarvi di una storia specifica legata all’HCQ, una storia che, a mio avviso, ci insegna tantissimo su come funziona (e a volte *non* funziona) il mondo della ricerca scientifica e della sua comunicazione. È la storia di uno studio che ha fatto il giro del mondo, ha influenzato decisioni importanti e poi… è stato ritirato. Un caso che ci sbatte in faccia l’urgente necessità di migliorare le nostre pratiche di ricerca e pubblicazione.
Uno Studio che Fece Discutere (e i Suoi Problemi Nascosti)
All’inizio del 2024, esce uno studio firmato da Pradelle e colleghi sulla rivista Biomedicine e Pharmacotherapy. La conclusione era di quelle che fanno notizia: l’uso “compassionevole” dell’idrossiclorochina durante la prima ondata della pandemia sarebbe stato associato a un eccesso di quasi 17.000 morti in sei paesi (Belgio, Francia, Italia, Spagna, Turchia e USA). Potete immaginare il polverone mediatico. Un numero enorme, un’accusa pesante.
Peccato che, come spesso accade quando la pressione è alta e la velocità è tutto, lo studio avesse delle falle metodologiche non da poco. Molti ricercatori se ne sono accorti subito, inviando lettere all’editore piene di critiche. Alla fine, la rivista stessa, dopo aver consultato il Committee on Publication Ethics (COPE), ha deciso di ritirare l’articolo nell’agosto 2024. I motivi principali? Dati considerati inaffidabili (specialmente quelli belgi, basati su stime) e l’assunzione errata che tutti i pazienti ricoverati fossero trattati allo stesso modo con il farmaco.
Ma qui viene il bello, o meglio, il brutto. Nonostante la ritrattazione, l’articolo è rimasto accessibile online senza che le lettere di critica che ne evidenziavano i difetti fossero pubblicate insieme ad esso. Capite? Una mancanza di trasparenza che impedisce a chiunque di capire *veramente* cosa non andava. E questo, amici miei, è un problema serio per la fiducia nella scienza.
Andiamo a Scavare: Cosa Non Tornava Nello Studio?
Il nocciolo della questione, come abbiamo evidenziato anche noi in una lettera inviata all’editore (che è stata presa in considerazione per la ritrattazione), risiede in come Pradelle e colleghi hanno calcolato quel famoso “rischio aumentato” di morte associato all’HCQ. Si sono basati su un dato specifico, un odds ratio (OR) di 1.11, preso da una precedente meta-analisi (uno studio che combina i risultati di tanti altri studi) pubblicata da Axfors et al.
Ora, senza entrare troppo nel tecnico, questo OR di 1.11 significava, secondo Axfors, un aumento dell’11% del rischio di morte per chi prendeva HCQ. Pradelle ha preso questo numero e l’ha usato per stimare le morti in eccesso. Ma c’erano almeno due grossi problemi:
- Il problema della dose: La meta-analisi di Axfors era pesantemente influenzata da due studi enormi (WHO SOLIDARITY e RECOVERY) dove l’HCQ era usata a dosaggi molto alti. Ma l’HCQ è stata usata a dosi diverse in giro per il mondo. Applicare quel rischio dell’11% a tutti, indipendentemente dalla dose ricevuta, è metodologicamente scorretto. Infatti, rifacendo i calcoli e separando gli studi per dose (cosa che abbiamo fatto nella nostra analisi), abbiamo visto che a dosi più basse (≤ 2400 mg/5 giorni o ≤ 4800 mg/5 giorni), l’aumento del rischio non era statisticamente significativo. Anzi, l’intervallo di confidenza era così ampio da includere sia una possibile riduzione che un aumento della mortalità. Solo le dosi alte mostravano un aumento significativo del rischio (OR 1.12). Quindi, basare tutto su quel 1.11 generale era fuorviante.
- La robustezza del dato: Quel famoso OR di 1.11 non era nemmeno così solido. Axfors et al. non avevano fatto un’analisi cruciale chiamata “leave-one-out” (che controlla se il risultato cambia togliendo uno studio alla volta). Facendola noi, abbiamo scoperto che bastava togliere lo studio WHO SOLIDARITY o lo studio RECOVERY per far sparire la significatività statistica! Inoltre, nello stesso studio di Axfors, usando altri metodi statistici per combinare i dati, quel risultato significativo non veniva fuori. Sembra quasi che si sia scelto il modello statistico che dava il risultato “desiderato”. Questa pratica, a volte chiamata p-hacking, è una delle piaghe della ricerca moderna.

In parole povere, lo studio di Pradelle si basava su fondamenta scricchiolanti. Hanno preso un numero (l’OR di 1.11) senza verificarne la robustezza e senza considerare un fattore chiave come la dose, arrivando a conclusioni potenzialmente esagerate e non rappresentative della realtà clinica in molti paesi.
Oltre il Caso Specifico: Un Ecosistema da Riformare
Questa storia, però, non è solo un aneddoto sull’idrossiclorochina. È una spia rossa che si accende su problemi più grandi nell’intero “ecosistema” della pubblicazione scientifica.
- Il Peer Review Sotto Pressione: La revisione tra pari (peer review), quel processo in cui altri esperti valutano uno studio prima della pubblicazione, è il cardine della scienza. Ma oggi è in crisi. I revisori sono spesso sovraccarichi, non pagati, e le scadenze sono strette. Questo porta a revisioni affrettate o superficiali. A volte, purtroppo, entrano in gioco anche pratiche fraudolente come le “paper mills” (fabbriche di articoli falsi) che riescono a superare i controlli.
- Mancanza di Trasparenza e Riproducibilità: Come nel caso Pradelle, spesso manca trasparenza. Le ragioni di una ritrattazione non sono spiegate chiaramente. I dati grezzi e i codici di analisi non vengono condivisi, rendendo impossibile per altri verificare (e riprodurre) i risultati. Questo è l’opposto di come la scienza dovrebbe funzionare!
- Erosione della Fiducia: Ogni studio ritirato, ogni scandalo come il “Lancet Gate” (un altro caso famoso di studio ritirato sull’HCQ), mina la fiducia del pubblico nella scienza. E in un’epoca di crisi sanitarie e disinformazione dilagante, questa fiducia è fondamentale. Se la gente non si fida più degli scienziati e delle istituzioni, come possiamo affrontare le sfide future?

Cosa Possiamo (e Dobbiamo) Fare?
Non voglio lasciarvi con un quadro solo negativo. Ci sono strade per migliorare. La comunità scientifica sta discutendo animatamente su come riformare il sistema. Ecco alcune idee sul tavolo:
- Incentivare il Peer Review: Trovare modi per riconoscere e premiare il lavoro fondamentale dei revisori (crediti formativi, riconoscimenti pubblici, accesso gratuito a pubblicazioni).
- Aumentare la Trasparenza: Adottare modelli di “open peer review” (revisioni aperte, con nomi dei revisori pubblici), richiedere la pubblicazione delle lettere di critica, essere cristallini sui motivi delle ritrattazioni.
- Promuovere l’Open Science: Incoraggiare (o richiedere) la condivisione dei dati, dei protocolli e dei codici di analisi su piattaforme aperte (come Open Science Framework (OSF), Zenodo, etc.). Questo permette verifiche indipendenti e riutilizzo dei dati.
- Interpretazione Cauta dei Risultati: Andare oltre la semplice “significatività statistica” (il famoso p<0.05). Considerare la rilevanza clinica, la robustezza dei risultati, usare intervalli di "compatibilità" invece che di "confidenza" per rappresentare meglio l'incertezza.
La Lezione dell’Idrossiclorochina
Insomma, la saga dell’idrossiclorochina durante la pandemia è stata un caos, ma da questo caos possiamo trarre lezioni preziose. Ci ha mostrato quanto sia facile che informazioni scientifiche imperfette o mal interpretate si diffondano a macchia d’olio, con conseguenze reali sulla salute pubblica e sulla fiducia collettiva.
Non si tratta di puntare il dito contro singoli ricercatori, ma di riconoscere che il sistema in cui operiamo ha delle debolezze strutturali. Affrontarle richiede uno sforzo collettivo: da parte dei ricercatori, delle riviste scientifiche, delle istituzioni e anche di noi cittadini, che dobbiamo imparare a leggere la scienza con occhio più critico e consapevole.
La scienza rimane il nostro strumento migliore per comprendere il mondo e affrontare le sfide, ma dobbiamo assicurarci che sia condotta e comunicata nel modo più rigoroso, trasparente e onesto possibile. Ne va della nostra salute e del nostro futuro.
Fonte: Springer
