Foto: Adobe Stock

Eventi

Le basi etiche dell'intelligenza artificiale

A Lettere e Filosofia un workshop per ragionare su questioni strutturali, locali e globali

13 ottobre 2022
Versione stampabile
di Johnny Gretter
Studente collaboratore Ufficio stampa e relazioni esterne

Lo scorso anno, al Dipartimento di Lettere e Filosofia, si è tenuto il workshop "Intelligenza artificiale ed etica: questioni strutturali, locali e globali". A confrontarsi Guglielmo Tamburrini, filosofo della scienza della Federico II di Napoli, Carlo Casonato, professore di Diritto costituzionale comparato della Facoltà di Giurisprudenza, e Paolo Traverso, responsabile dell’area di Strategic Marketing and Business Development di FBK. Federico Laudisa, professore di Logica e Filosofia della Scienza e responsabile scientifico dell’iniziativa, racconta a UniTrentoMag le riflessioni emerse e spiega come la filosofia e l’etica si occupino di queste nuove applicazioni tecnologiche.

La riflessione sull’intelligenza artificiale ha sempre sollevato problemi di natura etica. Basti pensare ai racconti di fantascienza di Asimov, con la formulazione delle tre leggi alle quali tutti i robot devono ubbidire: non recare danno agli esseri umani; ubbidire agli esseri umani; proteggere la propria esistenza senza disubbidire alle prime due leggi.

Lasciando da parte la fantascienza, questi temi sono centrali anche nel dibattito accademico attuale. Un esempio è proprio il workshop Intelligenza artificiale ed etica, in cui, accanto a riflessioni più generali, sono state discusse anche le implicazioni etiche dell’intelligenza artificiale in certi campi specifici, come nelle auto a guida autonoma e nelle armi autonome.

«I filosofi possono aiutare a definire in modo rigoroso i principi che le macchine devono seguire, soprattutto quando l’intelligenza artificiale può mettere in pericolo le persone» spiega Federico Laudisa, docente di logica e filosofia della scienza del Dipartimento di Lettere e Filosofia. «Infatti, la filosofia non si occupa solo dei principi e dei metodi alla base delle scienze: nel caso dell’intelligenza artificiale si occupa anche delle sue conseguenze e di come questa tecnologia viene applicata».

Entra però in gioco una componente politica su cui i filosofi possono intervenire meno. «Quella dell’intelligenza artificiale è una questione dibattuta anche a livello pubblico e internazionale, e non solo nelle università. I filosofi possono contribuire a individuare protocolli o linee guida che i programmatori delle macchine devono rispettare, ma il controllo effettivo su di esse spetta alle istituzioni. Ad esempio, esistono organismi sovranazionali che si occupano di armi autonome. Sono loro ad assicurarsi che i protocolli vengano rispettati».

Cosa deve fare un veicolo a guida autonoma quando si trova di fronte un passante che non può evitare? Deve cercare di salvare la vita del conducente o del pedone? Con quali istruzioni e principi dobbiamo addestrarlo? Quali limiti di intervento devono avere le armi controllate da un’intelligenza artificiale? E con quali basi etiche dobbiamo programmare queste macchine? Come spiega Laudisa, le diverse applicazioni dell’etica possono trovare una risposta a queste domande: «Possiamo partire dal presupposto che le macchine, per principio, non possono fare certe cose. Oppure, possiamo verificare di volta in volta a quali conseguenze portano questi principi di partenza.  Discussione teoriche  sui principi etici come queste sono fondamentali per creare vincoli e punti di riferimento per l’intelligenza artificiale».

Il workshop è stato organizzato nell'ambito del progetto "Jean Monnet Trento Artificial Intelligence Laboratory TRAiL", sostenuto dalla Commissione Europea.