Terremoti: Posso Prevedere la Loro Forza in Pochi Secondi con l’AI? Vi Svelo il Mio Metodo!
Ammettiamolo, i terremoti fanno una paura tremenda. Quella sensazione di impotenza mentre la terra trema sotto i piedi è qualcosa che non si dimentica facilmente. Ma se vi dicessi che stiamo facendo passi da gigante per capire, con incredibile anticipo, quanto forte “picchierà” un terremoto nel punto esatto in cui ci troviamo? E tutto questo grazie a un pizzico di intelligenza artificiale e a un modo innovativo di “ascoltare” i primissimi segnali del sisma. Curiosi? Continuate a leggere, perché sto per raccontarvi come ci stiamo provando!
L’Importanza di Giocare d’Anticipo: I Sistemi di Allerta Sismica (EEW)
Quando la terra inizia a tremare a causa della rottura di una faglia, si generano onde sismiche. I sistemi di Earthquake Early Warning (EEW), ovvero di allerta sismica precoce, sono progettati per captare queste onde e lanciare un allarme prima che arrivino le scosse più distruttive. Parliamo di secondi, a volte decine di secondi, che però possono fare la differenza: permettere alle persone di mettersi al riparo, bloccare treni, mettere in sicurezza impianti industriali.
Esistono due tipi principali di EEW:
- Regionali: Analizzano i dati da più stazioni sismiche per stimare magnitudo e epicentro.
- Onsite (o locali): Si basano sui dati di una singola stazione per determinare l’intensità del terremoto imminente proprio in quel punto. Questi sistemi sono particolarmente veloci per le aree vicine all’epicentro.
A volte, si usano anche approcci ibridi che combinano il meglio delle due tecniche. Negli anni, questi sistemi hanno dimostrato la loro efficacia, ma la ricerca non si ferma mai, soprattutto quando si tratta di guadagnare secondi preziosi.
Dai Metodi Tradizionali all’Intelligenza Artificiale: Una Nuova Frontiera
Tradizionalmente, i sistemi onsite si basano sull’analisi di alcuni parametri delle onde P (le prime ad arrivare, le più veloci ma generalmente meno dannose) nei primissimi istanti dopo il “trigger”, cioè dopo che lo strumento ha rilevato l’inizio del terremoto. Si guardano cose come il periodo predominante dell’onda, la sua ampiezza, o una combinazione di questi. Poi, con delle formule empiriche, si cerca di stimare l’intensità futura.
Recentemente, però, il machine learning e il deep learning hanno iniziato a rivoluzionare anche la sismologia. Immaginate algoritmi capaci di imparare da migliaia di terremoti passati per riconoscere pattern nascosti e fare previsioni sempre più accurate. Le Reti Neurali Convoluzionali (CNN), in particolare, si sono dimostrate potentissime. Alcuni approcci estraggono prima i parametri delle onde P e poi li danno in pasto ai modelli, altri invece forniscono direttamente le forme d’onda grezze o i loro spettri di frequenza, lasciando che sia la CNN a capire cosa è importante. Quest’ultimo approccio è intrigante, perché potrebbe scovare informazioni che noi umani, con i nostri parametri predefiniti, potremmo trascurare.
Uno studio precedente (quello di Hsu e Huang del 2021, per i più tecnici) aveva già mostrato che combinare dati nel dominio del tempo (la forma d’onda) e nel dominio della frequenza (lo spettro di Fourier) dava risultati migliori per prevedere il picco di accelerazione al suolo (PGA) rispetto a usare solo le forme d’onda grezze. È come se la CNN avesse una visione più completa del “carattere” del terremoto.
La Mia Proposta: Lo Spettrogramma STFT Multi-Scala Entra in Gioco
E qui entro in scena io, o meglio, la mia idea. Invece di dare alla CNN la forma d’onda e lo spettro di Fourier separatamente, ho pensato: perché non usare uno spettrogramma? Cos’è? Immaginatelo come una “fotografia” che mostra come le frequenze di un segnale cambiano nel tempo. Nello specifico, ho proposto di usare uno spettrogramma ottenuto con la Trasformata di Fourier a Breve Termine (STFT).
Ma non uno spettrogramma qualsiasi. Uno multi-scala. I terremoti hanno ampiezze molto diverse: da scosse quasi impercettibili a eventi catastrofici. Se usiamo una singola scala di “lettura”, rischiamo che le caratteristiche dei terremoti più piccoli vengano “schiacciate” o ignorate dalla CNN, o viceversa. L’idea del multi-scala, già esplorata da Hsu e Huang, è di normalizzare i dati usando diverse soglie, come se guardassimo lo stesso segnale con diverse “lenti d’ingrandimento”. Questo aiuta la CNN a cogliere dettagli sia nei terremoti deboli che in quelli forti. Quindi, ho preso i primi 3 secondi di dati dell’onda P (dopo il trigger automatico), li ho trasformati in uno spettrogramma STFT e poi ho applicato questa tecnica multi-scala. Il risultato è un input ricco di informazioni per la nostra CNN, che poi dovrà prevedere non solo il PGA, ma anche il picco di velocità (PGV) e il picco di spostamento (PGD) del terreno.

Come Ho Messo alla Prova il Mio Sistema: Dati e Metodologia
Per testare questa idea, ho usato un tesoro di dati: il dataset TSMIP (Taiwan Strong Motion Instrument Program), che raccoglie registrazioni di terremoti a Taiwan dal 1992 al 2006. Da questo enorme archivio, ho selezionato un sottoinsieme di 10.000 terremoti (chiamato TSMIP-10000) con magnitudo (Mw) da 1.66 a 7.6, cercando di avere una buona rappresentanza di eventi con PGA diversi.
Il processo, in breve:
- Prendere i primi 3 secondi di registrazione dell’accelerazione (sulle tre componenti: nord-sud, est-ovest, verticale) dopo il rilevamento dell’onda P.
- Calcolare lo spettrogramma STFT. Ho sperimentato con diverse lunghezze dei segmenti di analisi e “passi” (stride) tra un segmento e l’altro, per trovare un buon compromesso tra dettaglio e velocità di calcolo.
- Applicare la normalizzazione multi-scala (con tre soglie diverse) per “zoomare” sulle caratteristiche del segnale.
- Concatenare questi spettrogrammi multi-scala delle tre componenti e darli in input a una CNN.
- La CNN è stata addestrata separatamente per predire PGA, PGV e PGD.
Ho confrontato il mio approccio (chiamiamolo STFT-1, quello con uno “stride” più ampio, e STFT-2, con uno “stride” più piccolo e quindi più dati in input) con altri due metodi basati su CNN:
- Uno che usa uno spettrogramma basato sulla Trasformata Wavelet a Pacchetti (WPT). Le wavelet sono un altro modo potente per analizzare segnali tempo-frequenza.
- L’approccio di Hsu e Huang (2021) che usa come input combinato la storia temporale e lo spettro di Fourier (chiamiamolo TeF).
Per valutare le prestazioni, ho usato l’errore RMSLE (Root Mean Squared Logarithmic Error), che è bravo a gestire errori su scale molto diverse (importante quando si confrontano terremoti piccoli e grandi). Ho anche analizzato specificamente due sottoinsiemi di terremoti “difficili”:
- LFEQ: Terremoti con un contenuto significativo di basse frequenze (spesso associati a magnitudo maggiori).
- CCEQ: I dati del terribile terremoto di Chi-Chi (Taiwan, 1999, Mw 7.6), noto per essere particolarmente complesso e difficile da “predire” nei primi istanti.
I Risultati Parlano Chiaro: Confronti e Scoperte
Allora, com’è andata? Devo dire, piuttosto bene!
In generale, il mio modello STFT-1 (quello con lo stride più ampio, quindi computazionalmente più leggero) ha spesso ottenuto i valori di RMSLE più bassi, indicando una migliore accuratezza.
Predizione del PGA (Picco di Accelerazione al Suolo):
Sul dataset generale TSMIP-10000, STFT-1 e il metodo TeF hanno dato risultati molto simili e migliori degli altri. Sui terremoti LFEQ (quelli con basse frequenze), STFT-1 è risultato leggermente migliore. E sul difficilissimo dataset CCEQ (Chi-Chi), STFT-1 ha di nuovo avuto l’RMSLE più basso. C’è da dire che tutti i metodi tendono a sottostimare il PGA per i terremoti molto forti, specialmente quelli complessi come il Chi-Chi.
Predizione del PGV (Picco di Velocità al Suolo):
Qui il mio STFT-1 ha davvero brillato! Su tutti e tre i dataset (TSMIP-10000, LFEQ, CCEQ), ha ottenuto l’RMSLE più basso in modo netto rispetto agli altri modelli CNN. Ho anche confrontato i risultati con un metodo tradizionale basato sulla regressione (quello di Wu e Kanamori, 2005), e il mio approccio basato su CNN è risultato decisamente superiore. Per esempio, sul TSMIP-10000, l’RMSLE con STFT-1 era 0.178, mentre con la regressione tradizionale era 0.475! Una bella differenza.
Predizione del PGD (Picco di Spostamento al Suolo):
Anche qui, i modelli STFT (sia STFT-1 che STFT-2) hanno superato gli altri due approcci (WPT e TeF) su tutti i dataset. Le sottostime erano generalmente minori rispetto a quelle del PGA.

La Sorpresa del WPT:
Mi aspettavo che l’approccio basato su spettrogrammi WPT potesse dare buoni risultati, specialmente per i terremoti con contenuto a bassa frequenza. Invece, nella maggior parte dei casi, ha prodotto l’RMSLE più alto. Un’analisi più approfondita ha suggerito una possibile ragione: lo spettrogramma WPT, così come l’ho implementato, sembra avere difficoltà a “vedere” le componenti a frequenza molto bassa (vicino a 0 Hz) se la loro fase all’arrivo dell’onda P è vicina a zero. E spesso, per le onde lunghe dei terremoti, è proprio così. L’STFT, invece, sembra catturare meglio queste informazioni. Ho fatto anche un esperimento aggiungendo un’onda sinusoidale a bassa frequenza a un segnale sismico e ho visto che l’STFT la “vedeva” meglio del WPT in certe condizioni di fase. È un’area che merita ulteriori indagini, magari provando altre famiglie di wavelet o configurazioni.
Rispetto allo studio precedente di Hsu e Huang (il TeF), il mio approccio STFT ha mostrato miglioramenti marginali per il PGA, ma notevoli per PGV e PGD. Ad esempio, per il PGV sul dataset TSMIP-10000, l’RMSLE è sceso da 0.268 (TeF) a 0.178 (STFT-1). Per il dataset LFEQ, da 0.483 a 0.264. E per il CCEQ, da 0.948 a 0.553! Questi sono miglioramenti significativi.
Cosa Significa Tutto Questo per gli Allarmi Reali?
Ok, i numeri RMSLE sono importanti per noi ricercatori, ma cosa significano in pratica per l’emissione di un allarme? Ho analizzato anche la precisione (quanti allarmi corretti sul totale degli allarmi emessi) e il richiamo (quanti terremoti pericolosi sono stati effettivamente segnalati) usando soglie di allerta comuni (ad esempio, 80 gal per il PGA e 0.15 m/s per il PGV).
Per il PGA, le prestazioni in termini di precisione e richiamo erano simili tra i vari metodi CNN. Ma per il PGV, il mio STFT-1 ha mostrato un richiamo decisamente superiore. Ad esempio, per il dataset TSMIP-10000 e una soglia di 0.15 m/s, il richiamo con STFT-1 è stato del 66.9%, mentre con il metodo TeF era del 41.6%. E rispetto al metodo tradizionale di Wu e Kanamori (che aveva un richiamo del 22.9%), il miglioramento è enorme! Questo significa che il mio metodo riesce a “beccare” molti più terremoti potenzialmente dannosi (in termini di PGV) rispetto agli altri.

Limiti e Prospettive Future: La Strada è Ancora Lunga (Ma Promettente)
Nonostante i miglioramenti, c’è ancora del lavoro da fare. Le sottostime dei valori di picco, specialmente per terremoti molto grandi e complessi come il Chi-Chi, rimangono una sfida. Questo è in parte dovuto al fatto che usiamo solo i primissimi 3 secondi dell’onda P. Per terremoti con magnitudo superiore a 6, questi 3 secondi potrebbero non essere sufficienti per catturare appieno le caratteristiche della sorgente sismica. Il terremoto di Chi-Chi, ad esempio, ha avuto un processo di rottura complesso, con un rilascio di energia principale che è avvenuto circa 13 secondi dopo l’inizio! Usare una porzione più lunga dell’onda P potrebbe aiutare, come già suggerito in studi precedenti.
Ho notato che escludendo i dati del Chi-Chi dal dataset TSMIP-10000, le sottostime con il mio modello STFT-1 si riducono significativamente, e l’RMSLE migliora ulteriormente. Questo conferma quanto sia “ostico” quel particolare evento.
Inoltre, la mia indagine sugli spettrogrammi WPT non è certo esaustiva. Esistono tantissime famiglie di wavelet e parametri da esplorare. L’obiettivo qui era fare un primo confronto per capire le potenzialità.
Conclusioni: Un Passo Avanti nella Corsa Contro il Tempo
Quindi, cosa ci portiamo a casa da tutto questo? Che usare uno spettrogramma STFT multi-scala come input per una CNN sembra essere un approccio molto promettente per la stima precoce onsite dei picchi di movimento del suolo (PGA, PGV, PGD). In particolare, i risultati per la predizione del PGV e del PGD sono decisamente incoraggianti e mostrano miglioramenti sostanziali rispetto ad approcci precedenti, inclusi quelli basati su CNN con input diversi o metodi tradizionali.
Certo, la sfida di predire con precisione millimetrica l’intensità dei terremoti più devastanti usando solo una manciata di secondi di segnale resta aperta. Ma ogni piccolo passo avanti, ogni frazione di errore ridotta, ogni miglioramento nel “richiamo” degli allarmi, ci avvicina a sistemi di allerta sempre più affidabili. E in quei momenti critici, anche pochi secondi guadagnati con un allarme più preciso possono fare un’enorme differenza. La ricerca continua, e io sono entusiasta di farne parte!

Fonte: Springer
