Vedere l’Invisibile in Sala Operatoria: Come l’IA e un Trucco Fotografico Aiutano i Chirurghi!
Ciao a tutti! Oggi voglio parlarvi di qualcosa che mi sta davvero a cuore e che, credetemi, ha del fantascientifico ma è già realtà: come stiamo usando l’intelligenza artificiale (IA) per rendere un tipo specifico di chirurgia spinale, chiamata OLIF51, molto più sicura. Immaginatevi in sala operatoria: luci intense, massima concentrazione e la necessità di essere incredibilmente precisi. In particolare, durante l’intervento OLIF51 (che sta per Oblique Lateral Interbody Fusion a livello L5/S1, un nome un po’ ostico, lo so!), c’è un “sorvegliato speciale”: la vena iliaca comune. È un vaso sanguigno importante e, data la sua posizione, c’è il rischio, seppur minimo, di danneggiarla. E un danno lì può significare guai seri, come emorragie importanti.
La Sfida Chirurgica: L’OLIF51 e i Rischi Vascolari
L’OLIF51 è una tecnica di fusione spinale anteriore mininvasiva, usata per trattare patologie degenerative della colonna lombosacrale, come la spondilolisi o la spondilolistesi lombare. In pratica, si accede alla parte anteriore del disco intervertebrale L5/S1 e si inserisce una gabbietta e delle viti per stabilizzare il tutto. Il “problema” è che per arrivare lì, si passa vicino a importanti strutture vascolari, e la vena iliaca comune sinistra (CIV, dall’inglese Common Iliac Vein) è proprio lì, vicinissima al campo operatorio. Pensate che il tasso di danno vascolare, causato dagli strumenti chirurgici o dai retrattori, si aggira tra il 4.1 e il 4.3%. Non altissimo, ma quando si parla di salute, ogni decimale conta!
Per aiutare i chirurghi, si usano degli endoscopi intraoperatori, delle piccole telecamere che permettono di vedere bene l’area e condividere le immagini. Però, c’è un “però”: la vena iliaca comune spesso si nasconde dietro al peritoneo e alle arterie, e il suo colore, insieme a quello dei tessuti circostanti, a volte rende difficile distinguerla nettamente. Inoltre, la sua posizione viene confrontata con immagini preoperatorie (risonanze magnetiche o TAC 3D), ma l’identificazione finale in tempo reale si basa molto sull’esperienza del chirurgo. Capite bene che un sistema di supporto intraoperatorio sarebbe una manna dal cielo, ma finora non ne esisteva uno specifico per questa procedura.
L’Intelligenza Artificiale al Servizio del Chirurgo
Ed è qui che entriamo in gioco noi, con la nostra passione per l’IA! L’intelligenza artificiale sta rivoluzionando tanti campi, e quello medico è uno dei più promettenti: diagnosi da immagini, previsioni prognostiche, controllo di robot… le possibilità sono infinite. Noi ci siamo concentrati sul deep learning, un metodo di apprendimento automatico che usa reti neurali, modellate un po’ sulla struttura del cervello umano. Queste reti sono fantastiche perché riescono a estrarre caratteristiche complesse dai dati, permettendo riconoscimenti di immagini e voci, elaborazione del linguaggio naturale e tanto altro.
Nel nostro caso, abbiamo pensato: perché non insegnare a un’IA a “vedere” e riconoscere la vena iliaca comune nei video endoscopici durante l’OLIF51? L’obiettivo era sviluppare un modello capace di effettuare la segmentazione semantica della vena. Cosa significa? Non si tratta solo di dire “ecco la vena” con un rettangolo intorno (quello è il rilevamento di oggetti), ma di delineare precisamente la sua forma, pixel per pixel. Immaginate quanto possa essere utile per il chirurgo avere una mappa dettagliata e in tempo reale!
U-Net, U-Net++ e ResNet18: I Nostri “Cervelli” Artificiali
Per questo compito, abbiamo messo alla prova due architetture di reti neurali convoluzionali (CNN) molto conosciute nel campo della segmentazione di immagini biomediche: U-Net e U-Net++. Entrambe sono state potenziate usando ResNet18 come “backbone”, cioè come estrattore principale delle caratteristiche dalle immagini.
- La U-Net, introdotta nel 2015, è famosa per la sua tecnica di “skip-connection”, che collega le mappe delle caratteristiche tra la parte di codifica (che comprime l’immagine) e quella di decodifica (che la ricostruisce segmentata), aiutando a catturare meglio le informazioni sulla posizione degli oggetti.
- La U-Net++ è un’evoluzione della U-Net, con connessioni ancora più dense tra codificatore e decodificatore, pensata per ridurre ulteriormente il divario tra le mappe delle caratteristiche delle sotto-reti.
- ResNet, invece, è un tipo di rete neurale che risolve il problema della “scomparsa del gradiente” (un problema tecnico che impedisce l’apprendimento in reti molto profonde), permettendo di allenare modelli più complessi.
Il nostro set di dati era composto da 614 immagini estratte da video endoscopici di quattro interventi OLIF51, fornite dal Dipartimento di Ortopedia della nostra struttura. Abbiamo diviso queste immagini in set per l’allenamento (401 immagini), la validazione (168) e il test finale (45). Per insegnare ai modelli cosa cercare, abbiamo creato manualmente delle “maschere” corrette, disegnando con precisione i contorni della vena in ogni immagine, sotto la supervisione di uno specialista medico.
Il “Tocco Magico” della Correzione Gamma
Qui arriva la parte più intrigante, secondo me. La vena iliaca comune e i tessuti circostanti, inclusa l’arteria, hanno spesso tonalità di colore molto simili, soprattutto nel sistema dei rossi. Sono difficili da distinguere a livello di pixel perché hanno saturazione e luminosità simili, con un basso contrasto. Abbiamo quindi pensato: come possiamo rendere la vena più “evidente” per l’IA? La risposta è arrivata dalla correzione gamma!
La correzione gamma è un processo che permette di modificare arbitrariamente la luminanza di un’immagine. Nel nostro caso, l’abbiamo applicata specificamente al canale R (Rosso) delle immagini durante la fase di pre-elaborazione. L’idea era di enfatizzare la differenza di luminanza tra la vena e i tessuti adiacenti, basandoci sulle loro caratteristiche anatomiche e visive. Abbiamo testato vari valori gamma e scoperto che un valore di 0.35 dava i risultati migliori, aumentando la differenza di colore tra la vena e, ad esempio, l’arteria vicina. Visivamente, la vena diventava più distinguibile. La nostra ipotesi era che questa maggiore distinzione sarebbe stata efficace anche per l’apprendimento del modello. E avevamo ragione!
I Risultati: Numeri che Parlano Chiaro
Abbiamo creato quattro modelli in totale: U-Net con e senza correzione gamma, e U-Net++ con e senza correzione gamma. E i risultati sono stati entusiasmanti! Il modello U-Net++/ResNet18 con correzione gamma è stato il campione, ottenendo un Dice score di 0.70. Il Dice score è una metrica che misura la somiglianza tra la segmentazione predetta dal modello e la maschera reale (va da 0 a 1, più alto è meglio). Questo indicava una capacità superiore nel delineare posizione e forma della vena rispetto al modello U-Net/ResNet18 (che ha ottenuto 0.59 con correzione gamma).
Ma il dato più impressionante è stato l’effetto della correzione gamma: ha fatto passare il Dice score del modello U-Net++ da 0.44 (senza correzione) a 0.70 (con correzione)! Senza la correzione gamma, i modelli tendevano a includere l’arteria nella segmentazione della vena in più della metà dei dati di test. Con la correzione, invece, il modello riusciva a segmentare specificamente solo la vena. Un test statistico (il test di Wilcoxon) ha confermato che questa differenza era statisticamente significativa (p = 2.56e−27), quindi non dovuta al caso. La correzione gamma non solo ha migliorato l’accuratezza, ma ha anche ridotto la variabilità dei risultati, rendendo il modello più stabile.
Il nostro modello migliore, in generale, riusciva a catturare bene la forma della vena quando questa era interamente visibile nell’inquadratura, raggiungendo in alcuni casi un’accuratezza del 94% (Dice score di 0.94). Certo, l’accuratezza diminuiva se la vena era parzialmente fuori dall’inquadratura o se la visuale non era chiara a causa della sorgente luminosa che non raggiungeva le parti più profonde.
Confronti, Limiti e Prospettive Future
Confrontando i nostri risultati con studi simili, vediamo che siamo sulla buona strada. Uno studio sulla segmentazione vascolare con un’architettura chiamata NephCNN ha registrato un Dice di 0.72, quindi siamo lì. Un altro studio sulla segmentazione di polipi gastrici con U-Net++ e ResNet50 ha raggiunto un incredibile 0.98. Chiaramente, c’è margine di miglioramento per raggiungere quel livello di affidabilità, ma il nostro approccio rappresenta una novità per l’assistenza durante la procedura OLIF51.
Stiamo già pensando a come migliorare ulteriormente il modello. Attualmente, analizziamo un fotogramma alla volta, perdendo il vantaggio dell’informazione temporale presente nei video continui. Reti come LSTM (Long Short-Term Memory) o GRU (Gated Recurrent Unit), adatte a gestire dati sequenziali, potrebbero aiutarci a tracciare la posizione e la forma della vena attraverso i fotogrammi, migliorando l’accuratezza.
Ci sono anche delle limitazioni nel nostro studio attuale:
- Il dataset non è enorme, e i modelli di deep learning beneficiano di grandi quantità di dati.
- Le variazioni individuali nel colore e nella posizione della vena richiedono un dataset più diversificato.
- La creazione delle etichette (maschere) è stata fatta da un solo valutatore, seppur sotto supervisione. Aumentare il numero di valutatori e incorporare revisioni periodiche da parte dei medici migliorerà l’affidabilità.
- Infine, gli standard attuali per le strutture e i chirurghi che eseguono interventi OLIF51 potrebbero limitare l’applicabilità clinica e la garanzia di sicurezza del modello.
Nonostante questo, siamo convinti che questa tecnologia possa contribuire significativamente all’assistenza intraoperatoria durante le procedure OLIF51. L’idea di usare la correzione gamma per distinguere meglio le vene dai tessuti circostanti, per quanto ne sappiamo, non è stata riportata in studi simili ed è un punto di forza del nostro lavoro.
In conclusione, abbiamo dimostrato che i modelli di deep learning, in particolare U-Net++ con ResNet18 e potenziati dalla pre-elaborazione con correzione gamma, possono segmentare efficacemente la vena iliaca comune nei video intraoperatori. È un passo avanti entusiasmante verso una chirurgia sempre più sicura e precisa, dove la tecnologia affianca l’abilità del chirurgo per il bene del paziente. E questo, per me, è il vero fascino della ricerca!
Fonte: Springer