Foto AdebeStock

Innovazione

Piattaforme ottiche per l’intelligenza artificiale

Intervista a Lorenzo Pavesi

7 gennaio 2020
Versione stampabile
di Marinella Daidone
Lavora presso l’Ufficio Web, social media e produzione video dell’Università di Trento.

Dal 4 al 6 dicembre 2019 si è svolto in Ateneo un convegno nell’ambito del progetto ERC dal titolo Photonic reservoir computing and information processing in complex network. Abbiamo intervistato Lorenzo Pavesi, direttore del workshop, coordinatore del laboratorio di Nanoscienze e docente del Dipartimento di Fisica dell'Università di Trento, per conoscere quali sono i futuri scenari di ricerca sui temi delle piattaforme ottiche per l’intelligenza artificiale.

Professor Pavesi, può spiegarci cosa sono le piattaforme ottiche per l’intelligenza artificiale?

Per sviluppare un nuovo paradigma di calcolo è necessario sia sviluppare software innovativi sia sviluppare nuovi hardware in grado di ottimizzare le prestazioni del software. Oggi, l’intelligenza artificiale si basa su un hardware, le GPU, il quale è stato sviluppato negli anni passati per migliorare le prestazioni dei videogiochi o dei programmi di grafica. Sono quindi circuiti microelettronici ad alto livello di integrazione che svolgono calcoli matriciali con alta velocità e un grado molto elevato di parallelismo. Tutto questo però a discapito di un consumo elevato di energia dovuto alla necessità di trasferire le enormi quantità di dati necessari all’apprendimento automatico dei sistemi artificiali.

La fotonica, termine che descrive le tecnologie che usano la luce per processare e veicolare i dati, è un’alternativa alla microelettronica come hardware sul quale sviluppare l’intelligenza artificiale. I vantaggi della fotonica sono il basso consumo di potenza, l’alta velocità di calcolo, il basso peso dei circuiti fotonici e la ridotta latenza.

Sono oramai commerciali acceleratori ottici che svolgono operazioni di moltiplicazione matriciale a velocità molto più elevate e su matrici di dimensioni molto più grandi delle controparti microelettroniche. Su questi temi lavorano sia i giganti di internet (IBM, Google, Facebook, …), che start-up innovative come le americane Lightelligence e Luminous Computing, o l’europea LightOn 

Un semplice esempio di acceleratore ottico è la proiezione dell’immagine di un oggetto attraverso un mezzo diffusore su di un sensore ottico. La foto risultante (formata da milioni di pixels) non è altro che il prodotto della moltiplicazione tra l’immagine di partenza e la funzione di risposta del diffusore: in un solo passaggio, e con pochissimo consumo di potenza, si effettua una complicata operazione matematica su milioni di elementi contemporaneamente.

Che tipo di ricerche state facendo in quest’ambito al Laboratorio di Nanoscienze?

Da anni ci occupiamo di integrare su chip al silicio circuiti fotonici complessi per applicazioni in settori differenti come le comunicazioni ottiche, l’energetica, la biosensoristica, la computazione quantistica. Recentemente abbiamo iniziato una ricerca che ha come obiettivo la realizzazione di reti neurali fotoniche, ovvero di sistemi di intelligenza artificiale che usano la luce per processare le informazioni.

Si tratta, quindi, di sviluppare sia software ottimizzati che hardware adatti a sfruttare appieno le proprietà della fotonica integrata. Parliamo di fotonica neuromorfica, ovvero ispirata al funzionamento del cervello, che si basa su circuiti fotonici realizzati da sequenze di nodi funzionali (i neuroni) con molteplici interconnessioni (le sinapsi) che emulano i processi cognitivi complessi del cervello. L'aspetto più critico è insegnare ai circuiti fotonici ad apprendere dall’esperienza.

Quali sono le possibili applicazioni pratiche?

Molteplici. Ci occupiamo di memoria, processi di apprendimento, analisi di segnali complessi, predizione di sistemi dinamici, … Per esempio, oggi i dati viaggiano su fibre ottiche. Si vuole chiaramente mandare sempre più dati a sempre più alta velocità, ma effetti ottici nonlineari nelle fibre ne deteriorano la qualità.

Sono quindi necessarie delle stazioni di rigenerazione lungo le fibre per preservare l’integrità delle informazioni. Queste stazioni a microprocessori costano sia in termini di consumi che di rallentamento del traffico. Noi stiamo realizzando un sistema di intelligenza artificiale su piattaforma tutt’ottica che rigenera al volo i dati senza passare attraverso le stazioni di rigenerazione. Siamo alla fase della sperimentazione e se avrà successo, depositeremo un brevetto e procederemo alla sua industrializzazione.  

Il suo gruppo di ricerca partecipa a due grossi progetti (PELM e BACKUP) che vedono UniTrento in prima linea. Ce ne può parlare?

Il primo progetto, PELM, è un progetto nazionale coordinato da Trento e che vede coinvolte varie unità nazionali. Abbiamo come obiettivo di sviluppare delle reti neurali estremamente efficienti, chiamate "photonic extreme learning machine", da cui l’acronimo del progetto. Useremo varie tecniche che si basano sia su sistemi ottici integrati, che su materiali a semiconduttore artificiali (nanofili) che su gocce di polimeri o tessuti biologici. In quest’ultimo caso, sviluppato in particolare dalle unità romane del progetto, si ha come obiettivo di monitorare in tempo reale lo sviluppo di cellule cancerogene in tessuti biologici utilizzando l’intelligenza artificiale per seguirne la crescita.

Il secondo progetto, tutto trentino, BACKUP, ha come obiettivo quello di sviluppare un sistema fotonico-biologico, capace di calcolare assieme o, se vogliamo essere più coloriti, di pensare assieme. Sviluppiamo colture di neuroni interfacciate con circuiti fotonici integrati per realizzare reti neurali ibride. Si tratta di un progetto fortemente interdisciplinare che vede coinvolti vari dipartimenti dell’ateneo (Fisica, CIBIO, DISI).

Nel mese di dicembre si è svolto a Trento un convegno nell’ambito del progetto ERC. Qual era lo scopo dell’evento? Di quali temi avete parlato?

Obiettivo del workshop era di fare il punto della situazione e attivare reti di collaborazione internazionali sulle piattaforme ottiche per l’intelligenza artificiale. In particolare, abbiamo parlato delle reti neurali a serbatoio (reservoir computing) che sfruttano strutture ricorrenti operanti in condizioni vicine al caos per ampliare la capacità di rappresentazione delle reti e, quindi, l’efficienza complessiva del sistema.

La fotonica si presta ottimamente a realizzare queste reti. Sono state presentate le diverse reti e confrontate le loro prestazioni. Dalla discussione sono emersi spunti interessanti per attività di ricerca future e ci siamo dati appuntamento per la prossima edizione del workshop, che si terrà in Grecia nel 2020.