Immagine concettuale di nanomateriali stilizzati, simili a sfere e tubi su scala nanometrica, che interagiscono con cellule biologiche rappresentate schematicamente su uno sfondo digitale astratto che mostra grafici di dati complessi e linee di codice binario, simboleggiando l'analisi high-throughput e la FAIRification dei dati tossicologici, illuminazione high-tech blu e viola.

Nanomateriali Sotto la Lente: Come Domiamo i Dati Tossicologici con Automazione e Principi FAIR

Ciao a tutti! Oggi voglio portarvi dietro le quinte di un mondo affascinante e incredibilmente complesso: quello della valutazione della sicurezza dei nanomateriali. Viviamo in un’era dove nuovi materiali, spesso su scala nanometrica, promettono rivoluzioni in tantissimi campi, dalla medicina all’elettronica. Ma con l’innovazione arriva anche una grande responsabilità: assicurarci che questi materiali siano sicuri per noi e per l’ambiente.

Tradizionalmente, i test di sicurezza richiedevano tempo, risorse e, purtroppo, spesso l’uso di animali. Fortunatamente, la scienza non si ferma mai e oggi abbiamo a disposizione quelle che chiamiamo “New Approach Methodologies” (NAMs), ovvero metodi innovativi che ci permettono di valutare la sicurezza in laboratorio, usando ad esempio colture cellulari umane, senza ricorrere ai test su animali, seguendo il principio delle 3R (Replacement, Reduction, Refinement).

La Sfida: Un Tsunami di Dati dallo Screening ad Alto Rendimento (HTS)

Una delle tecnologie chiave in questo ambito è lo High-Throughput Screening (HTS). Immaginate di poter testare contemporaneamente decine, centinaia di nanomateriali diversi, a varie concentrazioni, su diversi tipi di cellule e in diversi momenti… è potentissimo! L’HTS ci permette di generare una mole enorme di dati sugli effetti potenzialmente tossici di queste sostanze. Usiamo una batteria di test ben consolidati per capire come le cellule reagiscono: misuriamo la vitalità cellulare (quante cellule sopravvivono), il numero di cellule, eventuali danni al DNA, lo stress ossidativo e persino l’apoptosi (la morte cellulare programmata).

Ma qui arriva il bello, o meglio, la sfida: gestire questa valanga di dati. Parliamo di migliaia, a volte milioni, di punti dati. Analizzarli manualmente, magari usando fogli di calcolo, non solo è un lavoro titanico e noioso, ma è anche facile commettere errori. E poi, come si fa a confrontare in modo oggettivo la tossicità di tanti materiali diversi, considerando tutti questi parametri?

La Soluzione: Punteggi Integrati e Dati “FAIR”

Per rispondere a questa sfida, abbiamo sviluppato un approccio standardizzato e, soprattutto, automatizzato. Il cuore del sistema è quello che abbiamo chiamato Tox5-score. Invece di basarci su un singolo parametro (come il classico valore GI50, che indica la concentrazione che inibisce la crescita del 50% delle cellule, ma che non è sempre calcolabile o ottimale per tutti i test), il Tox5-score integra i risultati di cinque diversi saggi di tossicità, considerando vari punti temporali e concentrazioni.

Pensatelo come un “voto” complessivo di tossicità, ma trasparente: possiamo sempre vedere quanto ogni singolo test (danno al DNA, apoptosi, ecc.) ha contribuito al punteggio finale. Questo ci permette non solo di classificare i materiali dal più al meno tossico, ma anche di raggruppare quelli con profili di tossicità simili, capendo perché sono simili (ad esempio, agiscono entrambi danneggiando il DNA).

Laboratorio high-tech con bracci robotici che pipettano liquidi colorati in piastre multi-pozzetto sotto illuminazione controllata, focus su una piastra, obiettivo macro 90mm, alta definizione, messa a fuoco precisa, ambiente sterile.

Ma generare il punteggio è solo una parte della storia. L’altra, fondamentale, è rendere i dati “FAIR”. FAIR è un acronimo che sta per Findable (Rintracciabili), Accessible (Accessibili), Interoperable (Interoperabili) e Reusable (Riutilizzabili). In pratica, significa organizzare e descrivere i dati (sia grezzi che elaborati, come i nostri Tox5-score) in modo che possano essere facilmente trovati, compresi e riutilizzati da altri ricercatori e, cosa importantissima, anche dalle macchine! Immaginate un futuro in cui i dati di migliaia di esperimenti da tutto il mondo possano essere combinati e analizzati automaticamente per scoprire nuovi pattern di tossicità o per costruire modelli predittivi sempre più accurati. Questo è il potere dei dati FAIR.

I Nostri Strumenti: ToxFAIRy e Orange

Per mettere in pratica tutto questo, abbiamo creato degli strumenti software specifici. Il motore principale è ToxFAIRy, un modulo scritto in Python che fa tutto il lavoro pesante: legge i dati grezzi dalle macchine HTS, li pulisce (ad esempio, rimuovendo valori anomali o correggendo per errori tecnici), esegue tutte le normalizzazioni e i calcoli necessari per ottenere i parametri chiave (come l’effetto massimo, l’area sotto la curva dose-risposta, la prima concentrazione con effetto significativo) e infine calcola il Tox5-score, integrandosi anche con strumenti di visualizzazione come ToxPi.

Ma la cosa forse più importante è che ToxFAIRy gestisce anche la FAIRification dei dati. Abbiamo creato un modello standardizzato (l’HTS_METADATA template) per raccogliere tutte le informazioni essenziali sull’esperimento (i metadati: che materiale è stato usato, in quale pozzetto, a quale dose, per quanto tempo, su quale linea cellulare, ecc.). ToxFAIRy usa questo template per “arricchire” i dati grezzi, assicurando che la terminologia sia consistente e che tutto sia pronto per essere letto e interpretato correttamente, anche da un computer.

Sappiamo però che non tutti sono programmatori. Per questo, abbiamo reso ToxFAIRy accessibile a tutti sviluppando Orange3-ToxFAIRy, un add-on per Orange Data Mining. Orange è una piattaforma fantastica che permette di costruire workflow di analisi dati semplicemente trascinando e collegando dei “widget” (blocchi funzionali) sullo schermo. Con il nostro add-on, chiunque può creare un flusso di lavoro completo per processare i dati HTS, calcolare il Tox5-score e visualizzare i risultati, senza scrivere una riga di codice! È un po’ come giocare con i LEGO, ma per l’analisi dei dati scientifici.

Schermo di computer che mostra una visualizzazione grafica complessa simile a una torta colorata (ToxPi/Tox5-score) con spicchi etichettati per diversi endpoint tossicologici, dati scientifici sullo sfondo, leggermente sfocato per profondità di campo, obiettivo prime 35mm.

Applicazioni Pratiche e l’Importanza della Dose

Abbiamo testato il nostro sistema su dati reali provenienti da importanti progetti europei come HARMLESS e caLIBRAte, analizzando la tossicità di circa 30 nanomateriali diversi (silici porose e non, nanoparticelle d’argento, biossido di titanio, nanodiamanti funzionalizzati, ecc.) e alcuni composti chimici di riferimento.

I risultati sono stati illuminanti. Il sistema ci ha permesso di classificare i materiali in base alla loro tossicità relativa e di raggrupparli in base ai loro meccanismi d’azione. Ad esempio, abbiamo visto che alcuni quantum dots tendevano a ridurre il numero di cellule e a indurre stress ossidativo, mentre l’ossido di zinco era più propenso a causare apoptosi e perdita di vitalità.

Un aspetto cruciale che il nostro workflow gestisce è la dose. Tradizionalmente si usa la dose nominale (quanto materiale aggiungiamo per volume di terreno di coltura). Ma per i nanomateriali, che possono sedimentare o interagire diversamente con l’ambiente cellulare, la dose effettivamente “consegnata” alle cellule può essere molto diversa. Il nostro sistema permette di ricalcolare le dosi tenendo conto, ad esempio, dell’area superficiale specifica del materiale (misurata con tecniche come il BET) o della dose depositata per area di crescita cellulare. Abbiamo dimostrato che usare metriche di dose diverse può cambiare significativamente la classifica di tossicità dei nanomateriali! Questo sottolinea l’importanza di considerare le proprietà fisico-chimiche nel valutare il rischio.

Verso un Futuro di Dati Condivisi: NeXus ed eNanoMapper

Una volta che i dati sono stati processati e FAIRificati con ToxFAIRy, cosa ne facciamo? Li rendiamo disponibili! Il nostro workflow può convertire i dati nel modello semantico di eNanoMapper, una piattaforma sviluppata proprio per raccogliere e condividere dati sulla nanosicurezza in modo standardizzato e FAIR. I dati possono così essere caricati nel database di eNanoMapper o nella Nanosafety Data Interface, diventando una risorsa preziosa per tutta la comunità scientifica.

Inoltre, abbiamo implementato la possibilità di salvare i dati nel formato NeXus. NeXus è un formato basato su HDF5, molto potente e flessibile, che permette di impacchettare in un unico file tutti i dati (grezzi, processati, punteggi) e i metadati associati, mantenendo la struttura gerarchica e le relazioni tra di essi. È un formato leggibile dalle macchine, interoperabile e perfetto per archiviare set di dati complessi e multidimensionali, pronti per essere visualizzati, analizzati e riutilizzati. Siamo tra i primi a proporre l’uso di NeXus per i saggi biologici, e crediamo che abbia un potenziale enorme.

Visualizzazione astratta di nodi di dati interconnessi che formano una rete complessa su uno sfondo digitale blu scuro, simboleggiando i principi FAIR (Findable, Accessible, Interoperable, Reusable) e l'interoperabilità dei dati scientifici, stile infografica high-tech.

Conclusioni e Prospettive Future

Quello che abbiamo costruito è più di un semplice software. È un ecosistema integrato che affronta di petto le sfide della gestione dei dati HTS nel campo della nanotossicologia (e non solo!). Automatizzando la pre-elaborazione, il calcolo di punteggi significativi come il Tox5-score e, soprattutto, la FAIRification dei dati, rendiamo la valutazione della sicurezza più rapida, efficiente, riproducibile e affidabile.

Questo ha implicazioni enormi:

  • Supporta l’approccio “Safe and Sustainable by Design”, permettendo di identificare e prioritizzare materiali più sicuri fin dalle prime fasi di sviluppo.
  • Contribuisce a ridurre drasticamente la necessità di test su animali.
  • Combatte la scarsità di dati di buona qualità, un problema noto nel campo [34], facilitando la condivisione e il riutilizzo dei dati generati dalla ricerca pubblica (come raccomandato dalla EU-US Nanoinformatics Roadmap 2030 [35]).
  • Fornisce dati robusti per migliorare i modelli computazionali e le strategie di grouping e read-across per colmare le lacune informative.

Il nostro lavoro non si ferma qui. Stiamo già pensando a come integrare altre metodologie di analisi, come il Benchmark Dose (BMD) modeling, e ad estendere l’approccio per includere dati di ecotossicologia o di omica.

In definitiva, crediamo fermamente che strumenti come ToxFAIRy e l’adozione dei principi FAIR siano fondamentali per navigare la complessità dei nuovi materiali e garantire un futuro in cui l’innovazione vada di pari passo con la sicurezza. Rendere i dati aperti, accessibili e riutilizzabili è la chiave per accelerare la scoperta scientifica e costruire un mondo migliore e più sicuro per tutti.

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *