Mano cibernetica e l'icona della bilancia di giustizia. Foto Adobe Stock

Ricerca

Intelligenza artificiale e diritto

Medicina, processi e guida autonoma nel webinar di TrAIL-Jean Monnet

16 marzo 2022
Versione stampabile
a cura di Matteo Largaiolli
Ufficio Stampa e Relazioni Esterne dell'Università di Trento.

Una macchina che si guida da sola, un robot che interagisce con i pazienti di un ospedale, strumenti di indagine capaci di riconoscere un volto. È ormai un’esperienza comune: l’intelligenza artificiale incide sulla nostra vita e modifica il nostro modo di rapportarci con la realtà. C’è chi ne è entusiasta e chi ha paura, chi ne vede i vantaggi e chi vede i rischi. Da un lato l’efficienza, la velocità e la possibilità di trovare un aiuto concreto nelle attività quotidiane. Dall’altro, i possibili errori e l’opacità nel processamento, una possibile crisi di fiducia nei confronti della tecnologia, il rischio del divario tecnologico e della discriminazione tra chi può avere accesso ai nuovi strumenti e chi no.

C’è però una domanda di fondo: qual è il rapporto tra l’essere umano e la macchina? Finché c’è anche una presenza umana che decide, che orienta, che spiega, l’intelligenza artificiale è un aiuto. Ma quando si affida sempre più spazio all’IA e la presenza umana si riduce, emerge il rischio della deumanizzazione. È per questo che è sempre più importante far maturare la responsabilità e la consapevolezza, essenziali per garantire la tutela di diritti e libertà.

Questi sono solo alcuni degli interrogativi emersi dal webinar conclusivo di TrAIL, il progetto Jean Monnet curato da Carlo Casonato e Simone Penasa che ha avviato un laboratorio interdisciplinare sui temi dell’intelligenza artificiale. Un rapporto che nel webinar è stato esaminato da tre punti di osservazione privilegiati: la medicina, il processo, la guida autonoma.

La medicina, innanzitutto. Un campo in cui negli ultimi anni sta cambiando l’idea stessa di rapporto di cura. Strumenti diagnostici, app per la gestione delle terapie, strumenti per migliorare l’organizzazione di un ospedale sono già una realtà nella pratica clinica. E è facile vedere gli aspetti positivi: diagnosi più accurate e veloci, terapie più vicine alle esigenze della singola persona, una maggior consapevolezza da parte dei pazienti e quindi una miglior tutela del diritto alla salute. D’altro canto, non mancano le difficoltà. Capire come funziona una macchina, sapere come sono state prese le decisioni che ci riguardano, non avere la possibilità di accedere a sistemi di intelligenza artificiale sono problemi a cui si deve dare una risposta. 

Come si può gestire questa situazione complessa? Marta Fasan, assegnista di ricerca della Scuola di Studi internazionali, propone di partire da principi noti, reinterpretati alla luce delle nuove necessità. Tradurre ad esempio il principio di trasparenza in un principio di “conoscibilità”: i dati devono essere tracciabili, le informazioni devono essere chiare e ogni paziente deve sapere come sono state prese le scelte sulla sua salute. Si può riaffermare il principio di eguaglianza e di non discriminazione, per limitare il divario tecnologico e per assicurare l’accesso universale alle cure, l’inclusività, il pluralismo. E ancora, riconoscere il diritto alla non esclusività e all’autodeterminazione, per essere sicuri che in tutto il percorso clinico ci sia sempre anche una presenza umana.

Anche la giustizia è uno dei campi in cui l’applicazione dell’intelligenza artificiale suscita aspettative e timori. L’ipotesi di un robot-giudice, in grado di arrivare a una decisione in modo automatico, è ancora fantascienza. Tuttavia, come ha mostrato Luca Rinaldi, del corso di dottorato in Studi giuridici comparati ed europei, la tecnologia fa ormai parte anche dell’attività giudiziaria, con i sistemi di supporto per le indagini, le banche dati, l’analisi automatica di atti e documenti. In questi casi siamo di fronte a strumenti in cui la presenza umana è sempre determinante. Più problematiche sono altre applicazioni dell’intelligenza artificiale, come l’uso dei big data da parte di privati per valutare le probabilità di successo di una linea difensiva o per profilare il comportamento di un giudice o un tribunale. Molte più resistenze incontra la prospettiva di sostituire il giudice con una decisione automatica, per i molti limiti che un’idea di questo tipo porta con sé: l’opacità della decisione, la natura statistica e non giuridica del ragionamento di una macchina, la cultura stessa del giudizio che è sempre pensato di competenza di un essere umano. 

Anche nei casi apparentemente più semplici, però, è necessario essere cauti, sia per il digital divide che incombe quando interviene la tecnologia, sia per i rischi di distorsione dell’informazione e di adesione acritica ai risultati di un algoritmo. Per regolare l’intelligenza artificiale, quindi, Luca Rinaldi propone due linee guida: da un lato, evitare dogmatismi e riconoscere che le tecnologie possono essere un aiuto reale, senza cadere nel pregiudizio antitecnologico; dall’altro, ricordare che il processo deve tutelare dei diritti e orientare quindi ogni nostra decisione sulla base di questo principio.

Infine, le automobili a guida autonoma, una delle promesse tecnologiche a cui forse siamo più abituati, ormai entrate nell’immaginario comune. Il che non vuol dire che non presentino dei limiti, come ha messo in luce Tommaso de Mari Casareto dal Verme, assegnista di ricerca della Facoltà di Giurisprudenza. I sistemi di intelligenza artificiale hanno sicuri effetti benefici nel mondo dei trasporti, come la diminuzione degli incidenti, le nuove possibilità di mobilità, una gestione del traffico più efficiente. D’altro canto, anche in questo caso, non mancano i problemi: difetti nell’informazione e nella gestione dei dati, un eccesso di fiducia riposta in sistemi pur sempre fallibili, la necessità di regolamentare le sperimentazioni. 

L’automazione completa, in realtà, è un obiettivo ancora molto lontano e che si raggiungerà solo dopo una lunga fase di compresenza di essere umano e macchina. Al momento, si parla di veicoli con sistemi di assistenza, in cui a guidare è ancora una persona in carne e ossa. La tecnologia sta cambiando la percezione sociale della mobilità e ci costringe a ripensare alcuni concetti di rilevanza giuridica, come quelli di veicolo “guidato dall’uomo” o di “circolazione”. Riuscire a interpretare questi cambiamenti è necessario per fissare criteri e standard di sicurezza. L’UE ha già iniziato un percorso in questo senso, che ha portato a primi risultati importanti, come l’AI Act del 2021. 

Trento Artificial Intelligence Laboratory (TrAIL), coordinato da Carlo Casonato e da Simone Penasa, è un progetto di divulgazione Jean Monnet finanziato dalla Commissione Europea nell'ambito del Programma Erasmus+ in collaborazione con il Centro Jean Monnet UniTrento.
Il laboratorio si propone come un luogo fisico e virtuale di scambio e di dibattito culturale, di formazione e di discussione sui rischi e le potenzialità dell’intelligenza artificiale. Rivolto a studenti e studentesse delle scuole superiori, dell’università, di dottorato e alla cittadinanza nel suo complesso ha tra i suoi punti di forza l’interazione tra ricerca e società, la prospettiva europea, l’interdisciplinarità
Il webinar conclusivo del progetto, “Diritto e potere nell'era dell'intelligenza artificiale”, che si è tenuto il 25 febbraio, è stata l’occasione per discutere i risultati della ricerca e per interrogarsi sulle prospettive future.