Foto: Adobe Stock

Ricerca

Senti chi parla

Raffaella Bernardi racconta a UniTrentoMAG il lavoro del CIMeC sul linguaggio generato artificialmente

2 novembre 2022
Versione stampabile
di Daniele Santuliana ed Elisabetta Brunelli
Ufficio Stampa e Relazioni esterne

Nei nostri telefoni, nei nostri pc, nei tanti device che affollano le nostre case e i nostri uffici: l’intelligenza artificiale è con noi h24, sette giorni su sette. E ci parla. Si rivolge a noi, ci dà del "tu", ci chiede di cosa abbiamo bisogno, ci fornisce informazioni e servizi che ci semplificano la vita. A farla parlare, ad aiutarla a capirci e a trovare le parole giuste per rivolgersi a noi, sono le ricercatrici e i ricercatori che lavorano sul linguaggio generato artificialmente.
Raffaella Bernardi racconta a UniTrentoMAG il lavoro del gruppo di ricerca che coordina al CIMeC, Centro Interdipartimentale Mente/Cervello.

Professoressa Bernardi, nelle scorse settimane ha fatto notizia il primo romanzo scritto da una macchina. Davvero è questa la tendenza? Libri e giornali non saranno più scritti da donne e uomini, ma dalle macchine?

«La domanda fa trapelare un senso di preoccupazione, di diffidenza nei confronti dell’intelligenza artificiale. Mi sento di tranquillizzarla, continueremo ad avere romanzi interessanti scritti da donne e uomini, purché ci siano uomini e donne che continuino a leggerli».

Come fa una macchina a scrivere un testo?

«I sistemi di Intelligenza Artificiale, di cui oggi sentiamo parlare e che usiamo, sono basati su metodi di apprendimento automatico (machine learning). Nel caso del linguaggio naturale, il modello viene fatto lavorare su una grande quantità di testi ai quali sono state tolte delle parole. L’algoritmo deve imparare a predire quelle parole. Esercitandosi a fare questo, il sistema impara a scrivere un testo o a conversare con noi, come ad esempio fanno Alexa, Siri, e altri assistenti virtuali».

Cosa hanno in comune il linguaggio naturale e quello generato artificialmente?

«Le differenze sono tante. Grazie al metodo di apprendimento di cui parlavo prima, abbiamo sistemi che generano testi apparentemente di qualità, grammaticalmente corretti e fluidi. Usano però parole molto generiche e incorrono spesso in contraddizioni. Il nostro uso del linguaggio è un atto complesso: parliamo per comunicare, per raggiungere un obiettivo. Durante una conversazione ci sono poi aspetti sociali che entrano in gioco. Se invece ci riferiamo ai romanzi, quelli scritti dagli uomini sono il risultato della creatività e unicità dell’autore».

Che cosa s’intende per dialogo multimodale?

«Se Alexa o Siri potessero parlare con noi delle cose che vedono, avremo un dialogo multimodale, in cui le modalità coinvolte sono il linguaggio e la visione. Similmente si potrebbe allargare lo spettro ad altre modalità, ad esempio l’olfatto o il tatto. Nel mio gruppo di ricerca studiamo appunto sistemi che sappiano collegare linguaggio e visione, cioè l’espressione linguistica all’oggetto, azione o evento a cui si riferisce. Questo è un aspetto fondamentale dell’intelligenza umana che fino a pochi anni fa era precluso all’Intelligenza Artificiale».

Cosa ha reso possibile questi risultati e qual è l’impatto sociale?

«A rendere possibile tutto ciò è stato l’uso delle reti neurali per codificare un testo, un’immagine o un video. Le reti neurali artificiali sono state proposte negli anni Cinquanta ispirandosi ai risultati delle neuroscienze. Oggi, queste reti hanno a disposizioni una grande quantità di testi digitali e un’enorme capacità di calcolo. La possibilità di integrare linguaggio e visione ci permetterà, ad esempio, di avere strumenti di supporto per i non vedenti, che potranno vedere tramite una semplice applicazione che 'parla' con loro».

Qual è il tipo di contributo del vostro gruppo a questa linea di ricerca?

«Nei nostri lavori ci avvaliamo di modelli che vengono sviluppati da informatici e condivisi con la comunità scientifica e ne valutiamo le capacità cognitive. Tramite queste valutazioni, identifichiamo i loro limiti, e proponiamo revisioni che li rendano più vicini agli esseri umani».

Su cosa lavorerà nel prossimo futuro?

«Grazie a una donazione di Amazon, nei prossimi anni potrò lavorare sullo sviluppo di modelli che sappiano adattarsi alle competenze e conoscenze del proprio interlocutore. In tal senso, la doppia affiliazione a CIMeC e DISI mi permette di partecipare alla vita di ricerca e didattica di entrambe le strutture. Da sempre lavoro come ponte tra discipline diverse: un tempo erano la linguistica e l’informatica, ora sono le neuroscienze cognitive e l’informatica».

Sul lato delle patologie del linguaggio, quale contributo può venire dallo sviluppo di interfacce intelligenti?

«Sono già stati svolti diversi studi sull’applicazione di tecniche di processamento automatico del linguaggio nel settore clinico. Ad esempio, per monitorare pazienti con Alzheimer. Un’applicazione che vedo utile e a cui mi piacerebbe lavorare è l’utilizzo di assistenti virtuali multimodali che possano assistere anziani nel loro quotidiano. Penso a persone con tumori cerebrali che hanno problemi a completare un’azione, l'assistente virtuale potrebbe aiutarle a completarla e permettere loro cosi di continuare a godere della loro indipendenza in un contesto comunque controllato e quindi sicuro».