Fotografia grandangolare, 15mm, di una moderna superstrada ciclabile ben progettata a Copenaghen, separata dal traffico, con ciclisti in movimento (leggero motion blur), cielo azzurro con nuvole soffici, luce del tardo pomeriggio, focus nitido, colori vivaci.

Reti Ciclabili Robuste: Meglio Semplici che Complesse?

Ciao a tutti! Oggi voglio parlarvi di qualcosa che mi sta molto a cuore: le biciclette e come renderle protagoniste delle nostre città. Immaginate metropoli dove sfrecciare su due ruote non sia solo un piacere, ma la scelta più logica, sicura e veloce. Bello, vero? Beh, per arrivarci non basta la buona volontà, serve una pianificazione intelligente delle infrastrutture ciclabili. E qui, amici miei, le cose si complicano un po’.

Promuovere la mobilità attiva come la bicicletta è fondamentale per città più sostenibili e vivibili. Ma diciamocelo, chi pedala lo fa volentieri solo se ci sono percorsi adeguati: sicuri, ben collegati, di alta qualità. Il problema è che progettare l’espansione di queste reti ciclabili nel tempo è una delle sfide più toste per chi si occupa di trasporti. Perché? Perché tutto è collegato: più piste ciclabili ci sono, più gente le usa; più gente le usa, più cambiano le abitudini di spostamento, magari abbandonando l’auto o i mezzi pubblici per alcuni tragitti. Questi effetti a catena, chiamati “spillover” e sostituzioni modali, rendono la pianificazione un vero rompicapo.

In questo campo, ci sono fondamentalmente due “scuole di pensiero”. Da una parte, abbiamo gli specialisti di ricerca operativa, veri maghi dei numeri che usano modelli matematici complessi per trovare la soluzione “ottimale”, quella che massimizza i benefici (come il tempo risparmiato, la salute guadagnata) minimizzando i costi. Dall’altra, c’è la comunità della scienza delle reti, che affronta il problema in modo più concettuale, usando euristiche intuitive basate sulla struttura della rete stessa, cercando di capire quali caratteristiche rendono una rete ciclabile efficiente.

Ma quale approccio funziona meglio nella pratica? È quello che ci siamo chiesti anche noi, mettendo a confronto questi due mondi.

Il Dilemma del Progettista: Ottimizzazione vs. Semplicità

Da un lato, abbiamo metodi sofisticati che cercano di ottimizzare il cosiddetto “benessere sociale”. Questi modelli considerano tantissimi fattori: i minuti risparmiati dai ciclisti, i benefici per la salute pubblica (meno malattie grazie all’attività fisica!), i costi di costruzione e manutenzione delle piste. L’obiettivo è massimizzare il valore attuale netto (NPV) dell’investimento nel corso di decenni. Sembra perfetto, no? Il problema è che questi modelli richiedono una marea di dati precisi e proiezioni future, che spesso sono difficili da ottenere e piene di incertezze. Pensate solo a prevedere l’andamento del traffico o i costi di costruzione tra 20 anni! Per farli funzionare su larga scala, spesso bisogna fare delle semplificazioni, usare euristiche o risolvere il problema un pezzetto alla volta.

Dall’altro lato, ci sono approcci più “snelli”, ispirati alla scienza delle reti. Questi metodi si concentrano su concetti come la connettività (collegare pezzi di rete isolati), la direttezza dei percorsi, la copertura del territorio. Un esempio interessante è un modello basato sulla “percolazione dinamica inversa”. Invece di costruire la rete pezzo per pezzo dal nulla, si parte dalla rete completa (tutte le piste possibili costruite) e si inizia a togliere, una per una, le piste meno “importanti”, fino a tornare alla situazione iniziale. Invertendo l’ordine di rimozione, si ottiene una sequenza di priorità per la costruzione. Questi metodi sono spesso più semplici, scalabili e intuitivi. Non mirano alla perfezione matematica assoluta, ma a identificare le caratteristiche strutturali chiave di una buona rete.

Fotografia macro, 85mm, di una mappa urbana complessa con linee colorate sovrapposte che rappresentano percorsi ciclabili pianificati e esistenti, alcune linee tratteggiate per indicare incertezza, illuminazione controllata, alta definizione.

Copenaghen Sotto la Lente: Un Caso Studio Reale

Per capire come si comportano questi approcci sul campo, abbiamo preso un caso concreto e affascinante: la pianificazione dell’espansione della rete di “superstrade ciclabili” (cycle superhighways) di Copenaghen. Parliamo di una città già all’avanguardia, con 460 km di super-piste esistenti, ma con un piano ambizioso per aggiungere altri 202 segmenti per un totale di quasi 1900 km! Un progetto enorme, spalmato su un orizzonte temporale di 50 anni, con un budget annuale definito (7.5 milioni di euro).

Abbiamo applicato sia un modello di ottimizzazione diretta del benessere sociale (basato sui lavori di Paulsen e Rich) sia il modello di percolazione dinamica inversa (proposto da Steinacker et al.), usando gli stessi dati di base sulla rete stradale e sulla domanda di spostamenti ciclistici (divisa per zone e per tipo di ciclista/bici). L’obiettivo era vedere quali segmenti venivano scelti per primi, come si sviluppava la rete nel tempo e, soprattutto, quale approccio generava i maggiori benefici complessivi (misurati con l’NPV).

Risultati Sorprendenti: Simili Ma Non Uguali

E qui arriva il bello. Cosa abbiamo scoperto? Che, tutto sommato, i risultati dei due approcci sono sorprendentemente simili! Certo, il modello di ottimizzazione diretta, essendo progettato proprio per quello, alla fine dei 50 anni produce un NPV leggermente più alto (parliamo di differenze inferiori al 9%). Ma il metodo della percolazione, soprattutto se usiamo una misura di “importanza” dei segmenti che approssima bene i benefici reali (come la nostra misura (Q_textrm{dyn}) che considera tempo risparmiato e domanda indotta), non sfigura affatto. Anzi, nei primissimi anni di pianificazione, la percolazione sembrava addirittura dare risultati leggermente migliori!

Anche guardando la mappa, le reti proposte dai due metodi si assomigliano molto. Dopo 3, 10 o 30 anni, gran parte dei segmenti costruiti sono gli stessi (li vedete in rosso scuro nelle mappe comparative). Certo, qualche differenza c’è: l’ottimizzazione a volte costruisce segmenti un po’ isolati fuori dal centro urbano prima della percolazione, che tende a concentrarsi di più sul cuore della città all’inizio. La percolazione, costruendo segmenti magari più costosi ma centralissimi all’inizio, si ritrova con meno budget negli anni successivi, spiegando perché l’ottimizzazione recupera e sorpassa nel lungo periodo in termini di NPV cumulato.

Abbiamo anche analizzato l’ordine esatto in cui i segmenti vengono costruiti. Anche qui, grande somiglianza: oltre il 75% dei segmenti viene costruito con uno scarto temporale massimo di 4 anni tra i due metodi. Ci sono solo pochissimi “outlier”, segmenti valutati in modo molto diverso dai due approcci.

Fotografia aerea grandangolare, 20mm, della città di Copenaghen con sovrapposizioni grafiche luminose che evidenziano la rete esistente di superstrade ciclabili (grigio scuro) e le estensioni pianificate (blu chiaro), focus nitido, luce diurna.

La Prova del Nove: Cosa Succede con Dati Incerti?

Fin qui, sembra quasi un pareggio. Ma c’è un “ma” grosso come una casa. Tutta questa analisi si basa sull’ipotesi di avere informazioni perfette: costi esatti, domanda precisa, velocità dei ciclisti note al millesimo. Ma la realtà, soprattutto quando si pianifica a 50 anni, è ben diversa! I dati sono sempre un po’ “rumorosi”, incerti, soggetti a cambiamenti imprevedibili.

E allora abbiamo fatto la prova del nove: abbiamo introdotto del rumore artificiale nei dati di input (±20% sulla domanda, sui costi, sulle velocità dei ciclisti) e abbiamo rifatto girare i modelli. Qui è emersa la differenza cruciale, legata a un concetto noto in statistica come trade-off bias-varianza. In parole povere: i modelli molto complessi (come l’ottimizzazione diretta) sono bravissimi a “imparare” dai dati che gli dai (basso bias), ma rischiano di “imparare troppo”, diventando ipersensibili a piccole variazioni o errori in quei dati. Questo li rende poco affidabili quando devono fare previsioni o pianificazioni in condizioni di incertezza (alta varianza). I modelli più semplici, invece, magari non colgono ogni sfumatura dei dati iniziali (bias leggermente più alto), ma sono molto più stabili e robusti di fronte a dati imperfetti o mutevoli (bassa varianza).

E infatti, i risultati del test di robustezza sono stati chiari:

  • L’ottimizzazione diretta (soprattutto quella “batched”, più sofisticata) si è dimostrata la più vulnerabile. Con dati rumorosi, specialmente sui costi e sulle velocità, la qualità della pianificazione (misurata in NPV rispetto al caso “perfetto”) peggiorava significativamente. A volte, bastava un piccolo cambiamento nei costi stimati di un singolo, grande segmento per sballare completamente l’ordine di priorità e ridurre drasticamente i benefici totali.
  • Gli approcci basati sulla percolazione, invece, si sono dimostrati molto più resilienti. Anche il modello di percolazione più semplice (quello basato sulla misura (Q_textrm{pen}), che considera solo la penalità sul tempo di viaggio), pur essendo il meno performante in condizioni ideali, è risultato il più robusto in assoluto di fronte all’incertezza.
  • L’ottimizzazione “greedy” (la versione semplificata dell’ottimizzazione) si è piazzata a metà strada.

Questo ci dice che la maggiore complessità dei modelli di ottimizzazione, pur promettendo risultati teoricamente migliori, li rende fragili nel mondo reale, dove l’incertezza è la norma.

Fotografia still life, obiettivo macro 100mm, due strutture costruite con blocchi giocattolo: una molto complessa e intricata ma leggermente instabile, l'altra più semplice ma solida e robusta, su uno sfondo sfocato, illuminazione drammatica, alta definizione.

La Morale della Favola: Meglio Semplice e Funzionale?

Quindi, cosa ci portiamo a casa da questa analisi? Che quando si tratta di pianificare reti ciclabili per il futuro, inseguire l’ottimizzazione matematica a tutti i costi potrebbe non essere la strategia vincente. Certo, i modelli di ottimizzazione diretta hanno il loro valore, magari nelle fasi finali della pianificazione, quando i dati sono più solidi e si devono definire i dettagli. Ma per la pianificazione a lungo termine, in contesti complessi e incerti come le nostre città, gli approcci più semplici e concettuali, come la percolazione dinamica, offrono vantaggi non da poco:

  • Robustezza: Sopportano meglio dati imprecisi o condizioni che cambiano.
  • Semplicità: Sono più facili da implementare e richiedono meno dati iperspecifici.
  • Prestazioni Complessive: Nonostante la semplicità, i risultati pratici sono molto vicini a quelli dei modelli più complessi.

Ovviamente, nessun modello può automatizzare completamente la pianificazione urbana. Servono sempre valutazioni multi-modali (come impattano le piste ciclabili sul traffico automobilistico o pedonale?), partecipazione dei cittadini, considerazioni politiche e tecniche specifiche. Ma questi strumenti algoritmici, sia quelli basati sull’ottimizzazione che quelli sulla scienza delle reti, possono essere un supporto prezioso. Possono aiutarci a identificare le priorità, a capire quali interventi sono davvero cruciali e a focalizzare gli sforzi dove servono di più.

In conclusione, la mia personale opinione, supportata da questi risultati, è che nella sfida della pianificazione delle reti ciclabili, un pizzico di pragmatismo e la scelta di metodi robusti e comprensibili possano essere più utili di una complessità estrema. Lavorare insieme, combinando magari i punti di forza dei diversi approcci, ci aiuterà a progettare davvero le città a misura di bicicletta che sogniamo. E voi, cosa ne pensate?

Fonte: Springer

Articoli correlati

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *