ChatGPT Scrive le Lettere di Dimissione dal Pronto Soccorso: Rivoluzione o Rischio?
Ciao a tutti! Oggi voglio parlarvi di qualcosa che mi sta molto a cuore e che potrebbe cambiare parecchio le cose in un ambiente frenetico come il Pronto Soccorso (PS): l’uso dell’Intelligenza Artificiale (IA) per scrivere le informazioni che ci danno quando finalmente ci dimettono.
Sapete, quando usciamo dal PS, spesso siamo un po’ frastornati, magari doloranti, e capire bene cosa fare a casa, quali medicine prendere, quando tornare per un controllo o a cosa stare attenti è fondamentale. Queste istruzioni, chiamate tecnicamente PDI (Patient Discharge Information), sono cruciali. Se capiamo tutto bene, siamo più soddisfatti, seguiamo meglio le cure e, in generale, stiamo meglio. È dimostrato che avere istruzioni sia scritte che verbali aiuta a ricordare di più.
Il problema? Preparare questi fogli informativi richiede un sacco di tempo e costa. E qui entra in gioco l’IA generativa, come i famosi modelli linguistici di grandi dimensioni (LLM), tipo ChatGPT. L’idea è: e se usassimo l’IA per creare questi documenti in modo rapido ed efficiente? Affascinante, vero?
Come Abbiamo Messo alla Prova l’IA
Proprio per capirne di più, abbiamo condotto uno studio pilota. Ci siamo concentrati su tre lamentele molto comuni che portano la gente al PS:
- Dolore addominale non specifico
- Mal di schiena non specifico
- Febbre nei bambini
Per creare le brochure informative, abbiamo usato ChatGPT con il modello GPT-4, formulando le richieste in inglese (perché l’IA è stata addestrata principalmente su testi inglesi, quindi ci aspettavamo risultati migliori). Poi, abbiamo tradotto tutto in olandese con il software DeepL, visto che lo studio si è svolto in un PS olandese. Qualche piccolo errore di traduzione è stato corretto manualmente da un medico esperto bilingue.
A questo punto, abbiamo chiesto a 8 medici d’urgenza esperti di valutare queste brochure basandosi su 5 indicatori chiave di prestazione (KPI):
- Qualità generale del documento
- Accessibilità (quanto è facile da reperire/usare)
- Chiarezza del linguaggio
- Correttezza delle informazioni mediche
- Usabilità pratica
Ogni medico ha dato un voto da 1 (pessimo) a 10 (eccellente) per ogni KPI su ciascuna delle tre brochure.
Cosa Ne Pensano i Medici?
I risultati sono stati incoraggianti! Le brochure generate dall’IA sono state accolte piuttosto bene, con punteggi medi tra 7 e 8 su 10 per tutti gli aspetti valutati. Questo suggerisce che l’IA ha fatto un lavoro più che discreto.
Tuttavia, non è stato tutto perfetto. I medici hanno notato che c’era bisogno di qualche revisione per rendere i documenti impeccabili. Ad esempio, nella brochure sulla febbre pediatrica, c’era un’inesattezza potenzialmente pericolosa: consigliava di dare l’ibuprofene ai bambini a partire dai due mesi, mentre l’età sicura raccomandata è tre mesi. Un altro punto di discussione è stato a partire da quale temperatura rettale (38.0°C o 38.5°C) considerare la febbre preoccupante. L’IA aveva indicato correttamente 38.0°C, ma è importante specificare sempre come misurare la temperatura, perché le norme cambiano.
Ma Si Capisce Quello Che Scrive?
Oltre al parere dei medici, abbiamo analizzato la leggibilità dei testi usando degli indici standard (come il Flesch Reading Ease, Flesch-Kincaid Grade Level, SMOG). Qui le cose si sono fatte interessanti. Secondo questi indici, le brochure richiedevano un livello di comprensione da liceo o addirittura universitario. Questo è ben al di sopra del livello raccomandato (equivalente alla sesta elementare negli USA) per le informazioni sanitarie destinate ai pazienti.
C’è da dire che questi indici potrebbero sovrastimare la difficoltà per la lingua olandese (che ha parole spesso lunghe e composte) e che il contesto specifico potrebbe influire. La brochure sulla febbre pediatrica, ad esempio, è risultata leggermente più facile da leggere, probabilmente perché l’argomento stesso usa parole più semplici. Comunque, resta il fatto che dobbiamo puntare a una maggiore semplicità.
Il Potenziale e i Pericoli dell’IA in Corsia
Questo studio pilota ci dice che l’IA, come ChatGPT-4, ha un enorme potenziale per aiutarci a creare rapidamente materiale informativo per i pazienti dimessi dal PS. Potrebbe farci risparmiare tempo prezioso.
Un aspetto curioso emerso è che a volte il linguaggio dell’IA viene percepito come più empatico di quello usato dai medici! Nel feedback sulla brochure per il dolore addominale, qualcuno ha notato che il tono empatico sembrava quasi “fuori luogo”. Questo apre scenari interessanti sulla comunicazione medico-paziente.
Ma (e c’è un grosso MA), l’IA non è perfetta. Come abbiamo visto con l’errore sull’ibuprofene, può produrre informazioni errate o “allucinazioni”. A volte cita persino fonti inesistenti! Questo significa che, al momento, la revisione e la modifica da parte di un professionista sanitario umano sono assolutamente essenziali. Non possiamo fidarci ciecamente dell’output dell’IA quando è in gioco la salute delle persone.
Cosa Manca e Dove Andremo?
Essendo uno studio pilota, ci sono dei limiti. Non abbiamo chiesto esplicitamente all’IA di scrivere testi super semplici (livello 6a elementare). Non abbiamo coinvolto i pazienti per sentire la loro opinione sulla chiarezza e usabilità. Il campione di medici e scenari clinici era piccolo.
Per il futuro, la ricerca dovrà:
- Chiedere all’IA di generare testi con un livello di leggibilità specifico.
- Coinvolgere i pazienti di diversa provenienza culturale e linguistica.
- Ampliare il numero di scenari clinici e di valutatori.
- Valutare i costi e i benefici reali in termini di tempo risparmiato.
- Confrontare le brochure AI con quelle scritte da umani.
- Considerare le normative sulla privacy e sull’uso dell’IA in sanità (come l’AI Act europeo), che spesso richiedono una supervisione umana.
Tiriamo le Somme
In conclusione, l’idea di usare l’IA come ChatGPT per creare le lettere di dimissione dal Pronto Soccorso è promettente. I primi risultati suggeriscono che può produrre documenti di qualità adeguata, chiari e corretti (nella maggior parte dei casi). Può essere uno strumento prezioso per rendere più efficiente questo compito importante.
Tuttavia, la tecnologia è ancora in evoluzione e presenta dei rischi. Le imprecisioni, anche se rare, possono essere pericolose. Per questo, il controllo umano rimane indispensabile. L’IA può essere un aiuto fantastico, ma non può (e non deve, per ora) sostituire l’esperienza e il giudizio critico dei professionisti sanitari. La strada è aperta, ma dobbiamo percorrerla con entusiasmo e cautela!
Fonte: Springer