Immagine fotorealistica di un occhio di bambino che riflette uno schermo di computer con grafici e testo sull'intelligenza artificiale e la miopia, obiettivo macro 100mm, alta definizione, messa a fuoco precisa sull'iride, luce ambientale morbida.

Miopia Infantile e IA: Possono i Chatbot Aiutarci a Vederci Chiaro?

Ciao a tutti! Oggi voglio parlarvi di un argomento che mi sta molto a cuore e che sta diventando sempre più rilevante: la miopia infantile. È un problema di salute pubblica che sta crescendo a vista d’occhio (perdonate il gioco di parole!) in tutto il mondo. Pensate che si stima che entro il 2050 quasi il 40% dei bambini e adolescenti a livello globale ne sarà affetto. Un numero enorme, quasi 740 milioni di giovani vite!

Un Problema Globale in Crescita

La miopia, o più semplicemente l’incapacità di vedere bene da lontano, sta diventando una vera epidemia, specialmente tra i più piccoli. In alcune zone dell’Asia orientale, addirittura l’80-90% dei giovani adulti è miope. Anche negli Stati Uniti, i numeri sono in forte aumento. Le cause? Un mix di fattori:

  • Predisposizione genetica
  • Influenze ambientali

E indovinate un po’? La pandemia di COVID-19 ci ha messo lo zampino. Con i lockdown, i nostri ragazzi hanno passato molto più tempo davanti agli schermi e molto meno all’aria aperta, due fattori di rischio noti per lo sviluppo e la progressione della miopia.

L’Importanza di Capire (e Farsi Capire)

Di fronte a questa situazione, una cosa è fondamentale: l’educazione. Avere materiali informativi chiari ed efficaci (quelli che gli esperti chiamano PEMs, Patient Education Materials) è cruciale per aiutare le famiglie a capire cos’è la miopia, come gestirla e come adottare comportamenti preventivi. Il problema? Spesso questi materiali sono scritti in un linguaggio troppo complesso. L’American Medical Association (AMA) raccomanda un livello di leggibilità pari a quello della sesta elementare americana (più o meno la nostra prima media) per essere sicuri che la maggior parte delle persone possa capire. Purtroppo, molti dei materiali disponibili online superano di gran lunga questo livello.

E se Chiedessimo Aiuto all’Intelligenza Artificiale?

Ed è qui che entro in gioco io, o meglio, la mia curiosità verso le nuove tecnologie. Avete sentito parlare dei Large Language Models (LLM)? Sono quei modelli di intelligenza artificiale come ChatGPT di OpenAI o Gemini di Google. Sono bravissimi a capire e generare linguaggio naturale e stanno trovando applicazioni pazzesche in medicina, anche in oftalmologia, aiutando nella diagnosi, nella ricerca e persino suggerendo trattamenti.

Mi sono chiesto: potrebbero questi strumenti aiutarci a creare materiali informativi sulla miopia infantile che siano finalmente facili da capire per tutti? E potrebbero migliorare la leggibilità di quelli che già esistono online?

Fotografia realistica di un bambino con occhiali che legge attentamente un tablet con informazioni sulla salute visiva, obiettivo 35mm, profondità di campo ridotta per sfocare leggermente lo sfondo della stanza, luce naturale morbida.

La Mia Esplorazione: Mettere alla Prova i Chatbot

Così, ho deciso di indagare, basandomi su uno studio recente molto interessante. Abbiamo messo alla prova tre LLM molto conosciuti: ChatGPT-3.5, la versione più recente ChatGPT-4o (o1 Preview), e Google Gemini. L’obiettivo era vedere come se la cavavano nel produrre e migliorare materiale educativo sulla miopia infantile.

Come abbiamo fatto? Abbiamo usato tre tipi di “richieste” (i cosiddetti prompt):

  • Prompt A (Generico): “Scrivi materiale educativo sulla miopia infantile che un americano medio possa capire facilmente.” Questo per vedere cosa producevano senza istruzioni specifiche sulla leggibilità.
  • Prompt B (Specifico): Abbiamo chiesto la stessa cosa, ma specificando di mirare a un livello di leggibilità da sesta elementare, usando una formula specifica (la FKGL – Flesch-Kincaid Grade Level) per misurarla.
  • Prompt C (Miglioramento): Abbiamo preso 20 materiali informativi reali trovati online (quelli che appaiono nelle prime pagine di Google, perché diciamocelo, chi va oltre?) e abbiamo chiesto agli LLM di riscriverli per raggiungere quel famoso livello di sesta elementare, sempre usando la formula FKGL.

Per ogni prompt e per ogni LLM, abbiamo raccolto 20 risposte diverse, per un totale di ben 200 “pezzi” di materiale educativo analizzati! Poi, abbiamo valutato tutto secondo criteri precisi: qualità (con uno strumento chiamato DISCERN), leggibilità (con le formule FKGL e SMOG), comprensibilità e “azionabilità” (cioè quanto è facile capire cosa fare dopo aver letto, usando uno strumento chiamato PEMAT) e, ovviamente, l’accuratezza (niente fake news, per favore!).

Cosa Ho Scoperto: Luci e Ombre dell’IA Educativa

I risultati sono stati affascinanti, con alcune sorprese.

Generare Nuovo Materiale (Prompt A e B):

  • Qualità: ChatGPT (sia 3.5 che 4o) ha prodotto materiale di buona qualità con il prompt generico (A). Google Gemini è partito da una qualità “discreta”. Curiosamente, quando abbiamo chiesto la maggiore semplicità (Prompt B), la qualità dei testi di ChatGPT è leggermente diminuita, mentre quella di Gemini è migliorata. Strano, vero?
  • Comprensibilità: Qui tutti promossi! Tutti e tre i modelli hanno generato testi che superavano la soglia del 70% di comprensibilità secondo il PEMAT. Quindi, il messaggio di base arrivava.
  • Azionabilità: Ecco la nota dolente. Nessuno, e dico nessuno, dei testi generati ha raggiunto la soglia del 70% per l’azionabilità. In pratica, i testi spiegavano bene il problema, ma non davano indicazioni chiare e pratiche su cosa fare passo dopo passo. Hanno ottenuto tutti un misero 40%. Qui c’è decisamente da lavorare!
  • Accuratezza: Una notizia fantastica! Nessuno dei 120 testi generati conteneva informazioni false o fuorvianti. Un bel sollievo!
  • Leggibilità: Come previsto, il Prompt B (quello specifico) ha funzionato! Ha prodotto testi significativamente più facili da leggere rispetto al Prompt A per tutti i modelli. ChatGPT-4o e ChatGPT-3.5 sono riusciti a raggiungere l’obiettivo del livello di sesta elementare o addirittura inferiore. Google Gemini si è avvicinato, ma non ce l’ha fatta del tutto (livello di settima elementare). Confrontandoli, ChatGPT-4o è risultato il migliore in termini di leggibilità, superando Gemini, anche se non in modo statisticamente significativo rispetto a ChatGPT-3.5.

Fotografia macro di uno schermo di computer che mostra righe di testo generate da un LLM, con grafici di leggibilità sovrapposti, obiettivo macro 100mm, alta definizione, illuminazione controllata per evidenziare i dettagli del testo.

Migliorare Materiale Esistente (Prompt C):
Qui i risultati sono stati davvero incoraggianti. I materiali originali trovati online erano, come sospettavamo, troppo difficili (in media, richiedevano un livello di lettura da scuola superiore). Ma quando abbiamo chiesto agli LLM di semplificarli… voilà!

  • Tutti e tre i modelli hanno migliorato significativamente la leggibilità.
  • ChatGPT-4o (o1 Preview) è stato il campione indiscusso: è riuscito a portare i testi al livello desiderato (sesta elementare o inferiore), superando nettamente sia ChatGPT-3.5 che Google Gemini.

Questo dimostra il potenziale enorme di questi strumenti, specialmente delle versioni più avanzate come ChatGPT-4o, nel rendere accessibili informazioni mediche complesse.

L’Importanza di Chiedere Bene: L’Arte del Prompt

Un’altra cosa che è emersa chiaramente è quanto sia importante come si fanno le domande all’IA. Un prompt dettagliato e specifico (come il nostro Prompt B, che indicava il livello di leggibilità e la formula da usare) porta a risultati molto migliori in termini di leggibilità rispetto a una richiesta generica. Usare strumenti validati, come le formule di leggibilità, direttamente nel prompt sembra essere la chiave.

Il Quadro Generale: Potenzialità Enormi, Ma Lavoro da Fare

Quindi, cosa ci portiamo a casa da questa esplorazione? Sicuramente, gli LLM, e in particolare ChatGPT-4o, hanno un potenziale immenso per aiutarci a comunicare meglio la salute, specialmente su temi complessi come la miopia infantile. Possono generare testi accurati, di buona qualità e comprensibili, e sono bravissimi a semplificare materiale esistente troppo difficile.

Tuttavia, c’è un “ma” grande come una casa: l’azionabilità. Dobbiamo capire come “insegnare” a questi modelli a non solo informare, ma anche a guidare l’utente con passi concreti. Forse inserendo nei prompt richieste specifiche per checklist o piani d’azione? O magari integrando elementi visivi (grafici, video), che al momento mancano totalmente?

Inoltre, non dimentichiamo i limiti: questi modelli sono addestrati su dati specifici (spesso in inglese e con un focus sulla cultura USA), e le versioni più performanti (come ChatGPT-4o) potrebbero essere a pagamento, limitandone l’accesso.

Fotografia di un gruppo eterogeneo di genitori che discutono sorridendo attorno a un tavolo, con un tablet al centro che mostra informazioni sulla salute visiva dei bambini, obiettivo 24mm, luce calda e accogliente, scena realistica e collaborativa.

Verso il Futuro: IA al Servizio della Vista

Nonostante i limiti, sono ottimista. Questa ricerca apre porte affascinanti. Immaginate un futuro in cui i medici possano usare questi strumenti per creare al volo materiali informativi personalizzati e super comprensibili per ogni paziente e la sua famiglia.

La strada è ancora lunga, servono ulteriori ricerche per affinare i prompt, includere diverse lingue e culture, e magari integrare la potenza del testo con quella delle immagini. Ma credo fermamente che, con i giusti miglioramenti, gli LLM possano diventare alleati preziosi nella lotta contro la miopia infantile e nel migliorare la comunicazione medico-paziente in generale. Stiamo solo iniziando a vedere il potenziale!

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *