Chip che Imparano da Soli: La Rivoluzione Analogica per Decodificare il Pensiero (e non solo!)
Amici appassionati di tecnologia e scoperte, oggi voglio parlarvi di qualcosa che mi entusiasma da matti! Siamo tutti abituati a pensare al digitale come al re incontrastato del calcolo, ma c’è un mondo, quello analogico, che sta tornando prepotentemente alla ribalta, soprattutto quando si tratta di elaborare algoritmi complessi in tempo reale consumando un’inezia di energia. E se vi dicessi che possiamo far imparare questi circuiti direttamente “sul campo”, cioè on-chip? Preparatevi, perché stiamo per fare un viaggio affascinante!
Il Ritorno dell’Analogico: Più Efficienza, Meno Consumi
Per anni, la corsa alla miniaturizzazione e all’aumento della potenza di calcolo digitale ha seguito la famosa Legge di Moore. Ma, come tutte le corse, anche questa sta iniziando a mostrare il fiatone. Ecco perché noi ricercatori abbiamo ricominciato a guardare con occhi nuovi al calcolo analogico. Perché? Semplice: è incredibilmente efficiente dal punto di vista energetico, specialmente per processare segnali che nascono già analogici, come quelli provenienti da sensori o, come vedremo, dal nostro cervello!
Pensateci: invece di convertire tutto in 0 e 1, sprecando energia, perché non elaborare i segnali nella loro forma “naturale”? L’analogico brilla per il suo basso consumo e per un parallelismo intrinseco che lo rende perfetto per applicazioni dove ogni milliwatt conta, come nei dispositivi edge (quelli che elaborano dati localmente) o nella strumentazione biomedicale. Storicamente, l’analogico era il re dei circuiti di front-end, quelli che si interfacciano direttamente con i sensori: interfacce neurali, biosensori, letture a basso consumo per MEMS (sistemi micro-elettromeccanici). Ma oggi stiamo spingendo l’asticella molto più in alto, usando circuiti analogici per operazioni aritmetiche di base, calcoli non lineari e persino per risolvere equazioni differenziali complesse!
Nel nostro studio, abbiamo puntato sui circuiti translineari, in particolare quelli basati su transistor a effetto di campo (FET) che operano nella regione sotto-soglia, famosi per la loro altissima efficienza energetica. C’è un “ma”, però: i circuiti analogici sono notoriamente sensibili alle piccole imperfezioni di fabbricazione, i cosiddetti “mismatch”. È come avere due gemelli identici che, alla fine, qualche piccola differenza ce l’hanno sempre. Per mitigare questi problemi, si usano trucchi come dispositivi più grandi, layout simmetrici o tecniche di campionamento particolari.
La Nostra Arma Segreta: Gli Elementi Translineari a Input Multiplo (MITE) con Floating Gate
E qui entra in gioco la nostra star: i dispositivi Floating Gate (FG)-based Multiple Input Translinear Element (MITE). Cosa sono? Immaginate dei transistor super intelligenti e programmabili. La “Floating Gate” è una porta isolata che può immagazzinare carica elettrica, un po’ come una memoria non volatile. Questo ci permette non solo di eseguire un’ampia gamma di operazioni analogiche (moltiplicazioni, divisioni, elevamenti a potenza), ma anche di “tarare” ogni singolo dispositivo per compensare quelle fastidiose variazioni di fabbricazione. È come dare a ogni musicista dell’orchestra la possibilità di accordare il proprio strumento alla perfezione!
Questi MITE sono dei veri coltellini svizzeri. Hanno ingressi multipli accoppiati capacitivamente alla floating gate, e ognuno di questi ingressi influenza linearmente la transconduttanza del dispositivo. Per descrivere il loro comportamento, usiamo un modello matematico sofisticato chiamato EKV, che ci permette di simulare accuratamente il loro funzionamento in tutte le condizioni. La carica sulla floating gate può essere controllata con precisione millimetrica: possiamo aggiungere elettroni tramite “iniezione di elettroni caldi” o rimuoverli con il “tunneling Fowler-Nordheim”. L’iniezione di elettroni caldi è la nostra preferita per la programmazione fine, perché è più precisa e ci permette di “scrivere” i pesi nei nostri circuiti analogici. E la cosa fantastica è che questa carica rimane lì, intrappolata, anche senza alimentazione, rendendo la memoria non volatile.
Con questi MITE, possiamo realizzare operazioni fondamentali:
- Addizione: Semplicemente connettendo insieme i terminali di drain di più dispositivi PMOS.
- Sottrazione: Utilizzando uno specchio di corrente n-channel e dispositivi FG PMOS.
- Moltiplicazione: Cruciale per l’intelligenza artificiale e il signal processing. Con i MITE, possiamo ottenere una corrente di uscita proporzionale al prodotto di due correnti di ingresso (Iout ∝ I1 × I2). I nostri esperimenti hanno mostrato una grande linearità, che significa risultati più accurati.
- Divisione: L’operazione inversa della moltiplicazione, ottenibile con una topologia circuitale specifica. Anche qui, i risultati sperimentali sono molto promettenti.
- Elevamento al quadrato e radice quadrata: Operazioni che nel mondo digitale richiederebbero calcoli in virgola mobile, con conseguente aumento di consumo e complessità. Con i MITE, possiamo realizzarle in modo semplice ed efficiente. E con MITE a ‘n’ ingressi, potremmo calcolare potenze diverse!
Il bello è che non servono circuiti specializzati diversi per ogni operazione: gli FG MITE sono versatili e programmabili individualmente, fungendo sia da elementi di calcolo che da memoria.
Filtri Adattivi Analogici: Imparare dall’Esperienza
Ora, mettiamo insieme questi mattoncini per costruire qualcosa di ancora più potente: i filtri adattivi. Questi sistemi sono fantastici perché possono modificare la loro risposta in base alle caratteristiche del segnale in ingresso, che spesso sono sconosciute o cambiano nel tempo (non stazionarie). Pensate a un sistema audio che si adatta per cancellare il rumore di fondo: quello è un filtro adattivo!
Noi abbiamo usato la capacità di immagazzinare carica degli FG MITE per realizzare sia gli elementi di memorizzazione dei “pesi” (coefficienti) del filtro, sia i componenti moltiplicativi. Nel nostro sistema, gli ingressi (che in un’applicazione finale arriverebbero da sensori) passano attraverso dei filtri passa-basso che introducono dei ritardi temporali. Questi segnali ritardati vengono poi “pesati” dalle nostre celle di memoria basate su FG MITE. La corrente di uscita aggregata viene misurata da un ADC (Analog-to-Digital Converter) di tipo RAMP e un microcontrollore (un MSP430) gestisce l’aggiornamento dei pesi.
Come impara il filtro? Usiamo un algoritmo chiamato Least Mean Square (LMS). Misuriamo l’errore tra l’uscita del filtro e l’uscita desiderata, e poi, iterativamente, aggiustiamo i pesi (cioè la carica sugli FG MITE tramite iniezione di elettroni caldi) per minimizzare questo errore. È un vero e proprio apprendimento on-chip!
La Sfida Suprema: Decodificare i Segnali Neurali in Tempo Reale
E quale applicazione migliore per testare il nostro sistema se non la decodifica neurale? Si tratta di “tradurre” i segnali elettrici provenienti dal cervello (come i potenziali d’azione) in variabili cinematiche, ad esempio il movimento di un braccio. Immaginate le implicazioni per le protesi neurali!
Abbiamo utilizzato dati registrati dalla corteccia motoria di una scimmia macaco mentre eseguiva un compito di “raggiungi e afferra”. Questi dati provenivano da un “Utah array”, una griglia di 100 elettrodi. Per ridurre la complessità, dato che molti elettrodi portano informazioni simili, abbiamo prima applicato l’Analisi delle Componenti Principali (PCA), una tecnica che estrae le “essenze” più informative del segnale, riducendo il numero di input per il nostro filtro adattivo. Abbiamo scoperto che usare le prime quattro componenti principali offriva un ottimo compromesso tra accuratezza e complessità.
Queste quattro componenti principali sono state inviate al nostro filtro adattivo hardware, configurato con quattro ingressi, ognuno con tre “tap” (ritardi temporali). I pesi, memorizzati sui nostri FG MITE, sono stati aggiornati usando l’algoritmo LMS. All’inizio, con pesi casuali, la correlazione tra il movimento predetto e quello reale era bassissima (un coefficiente di Pearson di 0.07). Ma dopo sole 232 iterazioni di apprendimento on-chip, la correlazione è schizzata a 0.69! Un risultato notevole, che dimostra l’efficacia del nostro approccio.
E i consumi? Ogni FG MITE consuma circa 3 nanowatt (nW) e ogni filtro passa-basso circa 13 nW. L’intero circuito adattivo a 4 canali e 3 tap consuma circa 140 nW da un’alimentazione di 2.5V. L’ADC RAMP consuma 10 microwatt (µW). Confrontando con sistemi digitali che fanno lavori simili, il nostro approccio è ordini di grandezza più efficiente, aprendo la strada a dispositivi impiantabili più sicuri e duraturi.
Verso un Futuro Analogico e Intelligente
Questo studio dimostra che i dispositivi FG MITE non sono solo versatili per il calcolo, ma permettono anche un apprendimento on-chip che rende i sistemi analogici robusti a variazioni e mismatch. Altrimenti, la relazione esponenziale corrente-tensione tipica di questi dispositivi renderebbe minime variazioni di tensione catastrofiche per la scalabilità.
Le possibilità future sono enormi. Possiamo aumentare il numero di canali per interfacciarci con sistemi di elettrodi più densi (come i Neuropixels 2.0) o aumentare il numero di ritardi per catturare relazioni temporali più complesse. Potremmo persino realizzare il calcolo delle componenti principali direttamente on-chip usando array di FG MITE, in modo simile a quanto proposto con i memristori.
Insomma, l’era del calcolo analogico a basso consumo e con capacità di apprendimento integrata è appena iniziata, e io non vedo l’ora di scoprire cosa ci riserverà il futuro! È un campo incredibilmente fertile per l’innovazione, specialmente dove l’efficienza energetica e l’elaborazione in tempo reale sono cruciali.
Fonte: Springer