AI in Otorinolaringoiatria: Un Abisso da Colmare tra Ricerca e Clinica!
Ciao a tutti! Oggi voglio parlarvi di un argomento che mi sta particolarmente a cuore e che, credetemi, sta facendo discutere parecchio nel mondo della medicina: l’intelligenza artificiale (AI) e il suo impiego in otorinolaringoiatria e chirurgia testa-collo (OHNS). Sembra fantascienza, vero? Eppure, l’AI promette di rivoluzionare il modo in cui i medici diagnosticano e curano, e l’OHNS, con la sua ricchezza di dati – immagini, audio, video, dati genetici – sembra il terreno di gioco perfetto.
Recentemente mi sono imbattuto in una scoping review molto interessante che ha analizzato le pubblicazioni sul deep learning in OHNS tra il 1996 e il 2023. I risultati? Beh, diciamo che c’è un “ma” grande come una casa, o meglio, un vero e proprio “abisso dell’AI”, come lo chiamano gli autori.
L’Esplosione della Ricerca: Tanti Fiori, Pochi Frutti?
Partiamo dalle buone notizie. Tra il 2012 e il 2022, c’è stata un’esplosione esponenziale di studi sull’AI in OHNS. Pensate, da zero pubblicazioni nel 2012 a ben 105 nel 2022! Un fermento incredibile che ha coinvolto ricercatori da 48 paesi, con Stati Uniti, Cina e Corea del Sud in testa. Questo dimostra quanto sia sentito a livello globale il potenziale dell’AI in questo campo.
La maggior parte di questi studi (il 28%) si è concentrata sull’otologia e neurotologia (che include l’audiologia, per intenderci). L’obiettivo più comune? Potenziare le capacità dei medici (56% degli studi), seguito dallo screening di condizioni mediche (30%). E quali dati hanno usato questi cervelloni? Principalmente immagini (55%), sia radiologiche che non (otoscopie, laringoscopie, foto cliniche, istologia, ecc.), analizzate per lo più con le famose reti neurali convoluzionali (CNN) (63%). Fin qui, tutto bellissimo, direte voi. E avreste ragione, se non fosse per un dettaglio cruciale.
Il Grande Salto Mancato: L'”AI Chasm”
Ed eccoci al punto dolente, quello che gli autori dello studio definiscono l'”AI chasm”, l’abisso dell’AI. Tenetevi forte: quasi la totalità degli studi analizzati (un incredibile 99.3%) erano studi in silico, ovvero “proof-of-concept”. In pratica, esperimenti fatti al computer, in laboratorio, che dimostrano che un’idea *potrebbe* funzionare. Solo tre studi (lo 0.7%) si sono spinti un po’ oltre, arrivando alla fase di validazione offline, testando i modelli su soggetti umani in un ambiente sperimentale controllato (per esempio, per migliorare il parlato o il riconoscimento vocale).
E la validazione clinica? Quella vera, sul campo, per vedere se questi strumenti AI sono davvero utili e sicuri nella pratica quotidiana, negli ospedali, con pazienti reali? Zero. Nessuno studio su 444 ha raggiunto questa fase. Capite cosa intendo per abisso? C’è un divario enorme tra il potenziale teorico e l’applicazione pratica. Pensate che, ad agosto 2024, su 950 dispositivi medici abilitati all’AI/machine learning approvati dalla FDA americana, solo due erano specifici per l’OHNS!

Questo “AI chasm” non è un problema solo dell’otorinolaringoiatria, sia chiaro. È una sfida che riguarda l’AI in sanità in generale. Anche quando i modelli AI sembrano super accurati in laboratorio, la loro performance nel mondo reale può essere deludente. E anche se un AI fosse più bravo di un medico a fare una diagnosi, questo non garantirebbe automaticamente cure migliori, perché dipende anche dalla capacità del sistema sanitario di agire in base all’output dell’AI.
Perché Questo Divario? E Come Colmarlo?
Le ragioni di questo stallo sono molteplici: i costi elevati per sviluppare, implementare e monitorare i modelli AI, le questioni di responsabilità legale, e la complessità delle normative in un settore super regolamentato come quello sanitario.
Ma non disperiamo! Lo studio propone alcune strategie pratiche per iniziare a gettare ponti su questo abisso.
Suggerimenti Pratici per il Futuro dell’AI in OHNS
Ecco cosa, secondo me e secondo gli autori dello studio, potremmo fare:
- Puntare su compiti a bassa complessità e basso rischio: Invece di cercare subito l’AI che fa diagnosi complesse (che comunque rappresentano l’86% degli studi attuali!), potremmo concentrarci su applicazioni che automatizzano compiti di routine o aiutano nel triage. Certo, anche qui ci sono dei rischi, come dimostrano alcune cause legali contro assicurazioni sanitarie per l’uso di AI nelle pre-autorizzazioni. Ma il beneficio potrebbe essere più immediato e tangibile.
- Rispettare le linee guida per il reporting: Esistono delle checklist (come STARD, TRIPOD, CONSORT-AI) che aiutano a standardizzare la ricerca sull’AI, rendendola più trasparente, riproducibile e affidabile. Sorprendentemente, solo il 5.4% degli studi inclusi le ha usate! C’è un margine di miglioramento enorme qui. Queste linee guida possono aiutare i ricercatori ad anticipare le sfide della traslazione clinica fin dalla progettazione.
- Prioritizzare la validazione clinica: Questa è la chiave. Dobbiamo portare questi strumenti AI fuori dai laboratori e testarli nel mondo reale. Gli autori suggeriscono che anche una validazione locale, specifica per un singolo istituto, potrebbe essere un buon punto di partenza, un processo iterativo per migliorare i modelli e abbassare la barriera all’avvio di studi clinici. Questo non toglie l’importanza di usare dati multi-istituzionali per l’addestramento iniziale dei modelli, per garantire la diversità della popolazione.
- Creare collaborazioni per la condivisione dei dati: Per addestrare modelli AI robusti servono tanti dati, e dati diversificati. Incoraggiare collaborazioni multicentriche, magari usando approcci come il federated learning o lo swarm learning che proteggono la privacy dei pazienti, è fondamentale.
- Attenzione alla qualità dei dati di training: L’AI impara dai dati che le diamo. Se le “etichette di verità” (ground truth) nei dataset non sono accurate o precise, il modello AI non sarà efficace. Ad esempio, nella ricerca laringologica sui disturbi della voce, categorizzare in modo troppo generico le patologie può mascherare le specificità utili per l’AI.
- E l’interpretabilità dei modelli AI? È un tema dibattuto. Solo il 9.2% degli studi ha provato a “spiegare” come funzionano i loro modelli AI. Anche se non tutti concordano sulla necessità che un AI sia completamente trasparente per essere usato in medicina, la mancanza di interpretabilità sicuramente non aiuta a costruire fiducia.

Certo, anche questa scoping review ha i suoi limiti, come ogni studio. Ad esempio, i termini di ricerca potrebbero aver tralasciato qualche pubblicazione, o l’analisi dei dati potrebbe nascondere trend specifici in diversi periodi. Ma il messaggio centrale è forte e chiaro.
Un Futuro da Costruire Insieme
C’è un evidente vuoto nella letteratura scientifica sull’AI in OHNS per quanto riguarda gli studi di validazione clinica. Le raccomandazioni che ho cercato di riassumervi – focus su compiti più semplici, aderenza alle linee guida, priorità alla traslazione clinica mantenendo standard rigorosi di diversità nei dati – sono passi concreti per colmare questo vuoto.
Se riusciremo a tradurre con successo la tecnologia AI nella pratica clinica dell’otorinolaringoiatria, potremmo davvero fornire un modello per l’intera comunità sanitaria su come attraversare questo “AI chasm”. È una sfida affascinante, non trovate? Passare dall’idea brillante in laboratorio a uno strumento che migliora concretamente la vita dei pazienti e il lavoro dei medici. Io ci credo!
Fonte: Springer
