Skip to main content
European Commission logo print header

Article Category

Intervista
Contenuto archiviato il 2024-04-18

Article available in the following languages:

Sensori di immagine che si comportano come la retina biologica

Il progetto SEEBETTER ha cercato di capire meglio la visione della retina e di sviluppare una tecnologia ad alte prestazioni che potrebbe avere un impatto sulle protesi retiniche.

Sin dall’invenzione della prima camera oscura e dall’avvento della fotografia nel XIX secolo, gli scienziati sono affascinati dall’uso dei sensori della luce per catturare il mondo che ci circonda dalla prospettiva di una macchina costruita dall’uomo. Più di recente, tutti gli occhi sono stati puntati sui sensori di immagini basati sulla tecnologia CCD e CMOS. Questi dispositivi all’avanguardia possono trasformare immagini ottiche in un segnale digitale e sono usati in applicazioni per settori come la sanità, l’industria automobilistica, i media o la sicurezza. Secondo una recente relazione di MarketsandMarkets, i sensori di immagine avranno un valore di circa 13,24 miliardi di euro (15,77 miliardi di USD) entro il 2020. Sebbene però la concorrenza per conquistarsi il mercato ha portato a progressi considerevoli in termini di dimensioni dei pixel, densità dei pixel, risoluzione e prestazioni, c’è ancora molta strada da fare prima che queste tecnologie possano raggiungere il livello delle retine biologiche. Il progetto SEEBETTER (“Seeing Better with Hybrid BSI Spatio-Temporal Silicon Retina”) è nato dalla convinzione che queste tecnologie siano rallentate dal modo in cui producono sequenze ridondanti di immagini a una frequenza di trama limitata. Il consorzio guidato da Imec ha passato gli ultimi tre anni cercando di superare questo problema “realizzando una retina di silicone avanzata con l’efficienza quantica e l’elaborazione spaziotemporale delle retine biologiche”. In altre parole, hanno studiato i ruoli funzionali di varie cellule gangliari per capire meglio la visione della retina, dopo di che hanno tentato di ricreare la sua capacità di generare dati a seconda di cambiamenti tempestivi della quantità di luce percepita. David San Segundo Bello, coordinatore del progetto, ha accettato di discutere lo stato del progetto, i punti di forza e i punti deboli della tecnologia di SEEBETTER e le sue potenziali applicazioni e l’ipotetico impatto che essa potrebbe avere sulle protesi retiniche. Qual è l’obiettivo principale del progetto? L’obiettivo di SEEBETTER comprende quattro aspetti: capire meglio il ruolo funzionale delle principali classi di cellule gangliari; creare modelli matematici e computazionali dell’elaborazione visiva della retina dalla prospettiva della biologia, della visione artificiale e del futuro delle protesi retiniche; progettare e costruire una retina in silicio ad alte prestazioni con una gamma eterogenea di pixel specializzati per l’elaborazione visiva sia spaziale che temporale e usare la tecnologia di back-side processing del silicio per aumentare la sensibilità del sensore. Tutti i partner del progetto sono esperti in uno di questi quattro campi. La visione artificiale negli ultimi tempi sta acquistando importanza. Quali definireste come i principali vantaggi della vostra tecnologia rispetto ad altre soluzioni attualmente disponibili? La prima cosa che dobbiamo tenere a mente è che è necessario fare attenzione alla terminologia. La nostra retina di silicio è un sensore di immagine costruito in silicio, che funziona in modo simile alla retina biologica. In questo senso, è molto diversa dalla retina di silicone che si impianta in un paziente come protesi retinica. Anche se il nostro “sensore della retina di silicio” si potrebbe usare in una retina “artificiale” impiantabile, il nostro progetto non si rivolge direttamente a questo campo di applicazione. Potrei dire, comunque, che il vantaggio principale in questo scenario di utilizzo sarebbe che il sensore funziona in modo simile alla retina biologica, quindi potrebbe essere “più facile” collegarlo al nervo ottico, ma questo settore non rientra nel mio campo di competenze e quindi posso fare solo delle ipotesi. Se con “visione artificiale” ci si riferisce a sensori di immagini nel campo della cosiddetta “visione industriale”, allora il principale vantaggio del nostro sensore è la sua gamma dinamica più ampia rispetto ai sensori standard. Concretamente, la gamma dinamica di un sensore di immagine si può definire come la differenza tra la quantità più bassa di luce che si riesce a rilevare prima di raggiungere il rumore di fondo del sistema e la quantità più alta di luce prima che il pixel sia saturato. Nei sensori standard, per aumentare la gamma dinamica è necessario molto lavoro e sono necessari dei compromessi per quanto riguarda l’elemento di fotorilevamento, i componenti elettronici della lettura dei pixel e il controllo dei pixel. Nel nostro sensore, il limite principale è la quantità di impulsi che si possono elaborare, cioè la velocità dei componenti elettronici. Poiché non si generano dati quando non ci sono cambiamenti della scena, questo risulta in un più basso consumo di energia e velocità dei dati di cui molte applicazioni potrebbero beneficiare. Come funzionano esattamente le vostre retine in silicio? Un sensore di retina in silicio funziona in modo completamente diverso rispetto ai sensori di immagine CCD o CMOS attualmente disponibili. I sensori di immagine standard generano dati in modo proporzionale alla quantità di luce che arriva sui pixel del sensore. L’informazione si trova nell’“ampiezza” del segnale del pixel e i pixel sono attivi e leggono a intervalli di tempo regolari definiti dalla frequenza dei fotogrammi e/o dal tempo di esposizione. Le informazioni rilevanti per l’applicazione saranno estratti da questi valori dei pixel per ogni immagine o inquadratura. Il nostro sensore, d’altra parte, è basato sul principio DVS (“Dynamic vision sensor”), che si ispira al modo in cui funziona la retina biologica. Invece di generare dati proporzionali alla quantità di luce, ogni pixel è sensibile ai cambiamenti tempestivi che influenzano la quantità di luce. I dati generati consistono in impulsi digitali asincroni e le informazioni sono contenute nella quanità di tempo che passa tra un impulso e l’altro. Per esempio, un cambiamento lento della quantità di luce su un particolare pixel genererà impulsi con una velocità relativamente bassa, mentre cambiamenti improvvisi genereranno impulsi a velocità alta. Allo stesso tempo, se non ci sono cambiamenti nella scena inquadrata dal sensore, non si generano dati. Questi sensori quanto sono simili alla retina biologica, secondo lei? Ovviamente la retina biologica vera è molto più complessa, ha molti tipi diversi di pixel (cellule) che comunicano anche quelle vicine. Queste proprietà sono molto difficili o impossibili da sviluppare con una tecnologia CMOS standard. Con il nostro progetto, aggiungiamo altre funzionalità ai pixel rispetto ai “sensori di retina in silicio” già disponibili, ma è una piccola aggiunta. Ciononostante siamo convinti che questa funzionalità limitata rispetto alla vera retina potrebbe essere molto ultile in numerose applicazioni di visione. Queste funzionalità aggiuntive richiedono ovviamente pixel più grandi: pitch tra 10 e 20 micrometri a seconda del nodo tecnologico e della funzionalità inclusa nel pixel. Invece i sensori standard attualmente hanno pixel di dimensioni comprese tra i due e i cinque micrometri, alcuni produttori offorno già pitch di pixel molto vicini al micrometro. Qual è la scoperta più rivoluzionaria che avete fatto nel corso della vostra ricerca finora? In termini di scoperte rivoluzionarie, il nostro partner che si occupa di biologia, l’Istituto Friedrich Miescher, è quello che ha avuto i risultati più apprezzabili, avendo fatto passi avanti sulla conscenza del modo in cui funzionano le cellule coniche della retina. Questo ha portato a diverse pubblicazioni in riviste di alto impatto come Science e Cell. Per quanto riguarda il sensore in sè, l’Università di Zurigo ha dimostrato il primo sensore di retina in silicio con pixel “standard” integrati che permettono un’elaborazione visiva più complessa ed estendono l’utilità di questi sensori. L’Imperial College ha sviluppato un emulatore hardware di un sensore della retina usando videocamere standard disponibili sul mercato. Infine, Imec è riuscito a sviluppare e implementare la tecnologia di back-side processing per sensori di immagini, che si può usare per applicazioni con grandi volumi. Qual è la vostra posizione per quanto riguarda la produzione di retine in silicone ad alte prestazioni? Produciamo i nostri sensori con una importante fonderia di silicio. Se i sensori dovessero essere usati in grandi quantità, sarebbe quasi tutto pronto per la loro produzione su ampia scala. Quali saranno i prossimi passi del progetto e sono previste attività di follow-up? Questi sono gli ultimi mesi del progetto. Il dispositivo finale è stato prodotto ed è stato avviato il suo collaudo. Non è in programma che il consorzio attuale dia seguito a questo progetto, ma tutti i membri continueranno a lavorare alle tecnologie sviluppate e alle scoperte fatte nel corso del progetto. Per ulteriori informazioni, visitare: SEEBETTER http://projects.imec.be/seebetter

Paesi

Belgio