Img Adobe Stock

Internazionale

Intelligenza artificiale e diritti delle persone

Il Global Forum on AI for Humanity. Intervista a Carlo Casonato

29 novembre 2019
Versione stampabile

La sfida dell’intelligenza artificiale è stata al centro della riflessione del Global Forum on Artificial Intelligence for Humanity (Parigi, 29-30 ottobre 2019), l’evento con il quale è stato lanciato il nuovo International Panel on Artificial Intelligence (IPAI), già annunciato lo scorso agosto al G7 di Biarritz.

Ai lavori del Global Forum ha partecipato, in qualità di membro del Program Commettee, Carlo Casonato, professore ordinario di Diritto costituzionale comparato dell’Università di Trento e componente del Comitato Nazionale per la Bioetica.

Professor Casonato, qual era il principale obiettivo del Global Forum on AI for Humanity?

Semplificando molto, si può dire che vi sono diverse prospettive nello sviluppo dell’intelligenza artificiale (AI). Da una parte si può privilegiare la velocità e l’efficienza dello sviluppo tecnologico; d’altro canto, si può puntare alla creazione di ricchezza, non sempre equamente distribuita. La prospettiva che il Global Forum ha voluto proporre per l’Europa consiste nell’orientare lo sviluppo della AI alla tutela e alla promozione su larga scala dei diritti delle persone. 

Si tratta di lanciare una sfida in cui l’intelligenza artificiale possa essere messa a frutto per un innalzamento globale dei livelli di benessere dell’intera umanità. Per questo, non sorprende che i governi francese e canadese, artefici del Global Forum, abbiano chiesto anche a giuristi e bioeticisti di lavorare assieme a informatici e ingegneri. Questa è una sfida che si può vincere solo con un approccio realmente interdisciplinare.

L’intelligenza artificiale presenta più pericoli o potenzialità?

La AI presenta molti vantaggi in settori vitali per gli esseri umani, dalla sicurezza nei trasporti alla protezione e promozione della salute individuale e collettiva, dalla velocità e accuratezza della ricerca tecnologica e biomedica alla tutela dell’ambiente. Il valore aggiunto di conoscenza e comprensione di una quantità impressionante di fenomeni che può offrire all’essere umano è in sé un valore fondamentale. Ogni giorno utilizziamo, ormai quasi inconsapevolmente, sistemi che elaborano dati con l’ausilio dell’intelligenza artificiale, dai motori di ricerca ai navigatori: la AI, insomma, agisce nelle nostre vite con una portata e un’incisività straordinaria.

I risultati dei sistemi che utilizzano AI, in ogni caso, non sono così neutri e precisi come talvolta si pensa. Possono anzi essere del tutto errati e fuorvianti, a causa dei pregiudizi nell’inserimento dei dati o degli errori interni al loro funzionamento. Sono ormai noti, ad esempio, alcuni casi in cui l’utilizzo della AI per il riconoscimento facciale, in medicina o a fini di giustizia, è risultato viziato da variabili riconducibili al colore della pelle delle persone coinvolte.

In generale, oltre ad essere fruitore, ognuno di noi è anche “materia prima” che le compagnie che gestiscono la AI utilizza per vendere i propri prodotti. Tutte le tracce che lasciamo a ogni nostro passaggio sui social, a ogni acquisto che facciamo in internet, a ogni riconoscimento facciale a cui siamo soggetti in diverse città o nei principali aeroporti, costituiscono dati che, a discapito di qualsiasi tenuta della privacy, consentono una profilazione accuratissima di ogni nostra dimensione personale: dai gusti commerciali alle opinioni politiche, dall’orientamento sessuale allo stile di vita o allo stato di salute. Dopo essere stati trasformati da cittadini a consumatori, un ulteriore passaggio verso la disumanizzazione rischia di vederci tramutati in merce di scambio.

Esiste una disciplina giuridica che possa promuovere i vantaggi e impedire i rischi dell’intelligenza artificiale?

In diverse sedi, dall’Unesco all’Unione europea, si sta lavorando in questa prospettiva. Sono molte le proposte sul tavolo, ma ancora poco numerose le regole approvate e davvero applicate e rispettate. In prospettiva, in ogni caso, si può pensare di applicare in via analogica alcuni principi e diritti già esistenti o di pensarne di totalmente nuovi. Così, ad esempio, il regolamento generale sulla protezione dei dati (GDPR) parla di un diritto ad essere destinatari di decisioni che non siano totalmente automatizzate, ma che vedano un ruolo significativo dell’essere umano. Tale posizione, però, è indebolita da una diffusa tendenza sociale verso una progressiva deresponsabilizzazione: nel momento in cui si considera l’intelligenza artificiale più oggettiva e neutra del giudizio umano, quale sarà il responsabile di procedimento o il medico che vorrà opporre la propria valutazione a quella della macchina?

Un altro diritto a cui si potrà pensare è quello di conoscere la natura (umana o artificiale) del proprio interlocutore. In effetti, le conseguenze della rivelazione del proprio stato di salute o delle proprie opinioni politiche a un nostro pari piuttosto che a una macchina, interconnessa con il cloud, sono assai diverse. Vista l’opacità con cui lavorano le macchine dotate di machine learning, e in particolare deep learning, un altro diritto da rivendicare sarà quello legato alla conoscenza delle ragioni e dei passaggi motivazionali alla base dei risultati prodotti dalla AI: un diritto difficilmente tutelabile visto il fenomeno della black box. E, ancora, si dovrebbe pensare a una sorta di diritto alla discontinuità; un prolungamento del diritto all’oblio, a tutela della possibilità di cambiare idea e di non essere rigidamente profilati sulla base della nostra esperienza passata.

Il lavoro da fare sembra ancora molto.

Moltissimo. A Trento siamo privilegiati dallo stretto contatto che può esistere fra diverse forme di sapere. Il Progetto Biodiritto ha stretto molti rapporti con la Fondazione Bruno Kessler (FBK) per incrociare l’expertise tecnologica con la conoscenza giuridica ed etica: abbiamo così potuto avviare due importanti attività di ricerca e di formazione realmente interdisciplinare, premiati dal programma Jean Monnet. E a livello nazionale, siamo in contatto con la Fondazione Leonardo che ha un forte interesse a combinare i progressi tecnologici con uno sviluppo di carattere umanistico.


Artificial intelligence, law and fundamental rights

The Global Forum on AI for Humanity. An interview with Carlo Casonato

The challenges of artificial intelligence were the focus of the Global Forum on Artificial Intelligence for Humanity, which was held in Paris on 29 and 30 October 2019 and served as the launch of the new International Panel on Artificial Intelligence (IPAI), announced last August at the G7 Summit in Biarritz.
Carlo Casonato, professor of Comparative constitutional law at the University of Trento and member of the Italian National Bioethics Committee, attended the Global Forum as member of the Program Committee.

Professor Casonato, what was the main objective of the Global Forum on AI for Humanity?

Well, to put it simply, the development of artificial intelligence (AI) offers different perspectives. Some favour the speed and efficiency of technological progress; others facilitate the production of wealth, which is not always equally distributed. The perspective adopted for Europe by the Global Forum consists in guiding the development of AI towards the protection and promotion of people's rights on a large scale. 

The challenge consists in using artificial intelligence as a tool for the global improvement of the well-being of all humankind. In this view, it is not surprising that the French and Canadian governments, that created the Global Forum, invited experts in law and bioethics, as well as IT experts and engineers to participate. This challenge can be won only by taking a genuinely interdisciplinary approach.

Are there more risks or opportunities associated with artificial intelligence?

AI has many advantages in areas that are crucial for humans, from transportation security to the protection and promotion of personal and collective health, from the speed and accuracy of technological and biomedical research to the protection of the environment. The added value it brings in terms of knowledge and understanding of facts and phenomena is per se a great advantage. Every day we use technology based on AI, like search engines and GPS devices for instance, and sometimes we are not even aware of it: artificial intelligence is already part of our lives and has a massive influence on us.

Yet, the information provided by systems that use AI is not unbiased and accurate as we may think. Information can be wrong and misleading because of the way in which data were acquired or because an error occurred. A few cases are known, for example, in which AI facial recognition devices were used in medical or legal matters and produced biased results based on the skin colour of the people involved.

In addition to that, in general, we are not simple "users" of AI devices, we also provide the "raw material" that they need to sell their products. Every time we spend time on social networks, we buy online, or we are identified by facial recognition in cities or airports, we are leaving traces that, despite privacy regulations, facilitate our profiling with a very high level of accuracy: we are providing information on our preferences, political opinions, sexual orientation, lifestyle, health. As citizens, we were transformed into consumers, and now we may be dehumanized again and be traded for something in return.

Is there legislation promoting the advantages and limiting the risks of artificial intelligence?

Different organizations, from Unesco to the European Union, are working on that. Many proposals have been tabled, but not many laws have been passed so far and are enforced and respected. While waiting for new legislation, however, we should refer to principles and rights that are already ensured or establish new ones. The General Data Protection Regulation (GDPR), for example, established that people have the right not to be subject to a decision based solely on automated processing, and to obtain human intervention. Yet, this position clashes with an increased trend to dodge responsibility: if we take that artificial intelligence is more objective and less biased than human judgement, who will question machine judgement in a court of law or during a medical procedure?

A new right we could be granted is the right to know if we are interacting with human or artificial entities. The implications of providing personal information on our health status or our political opinions to a human or a machine connected to the Cloud, are different. Given the lack of transparency of devices based on machine learning and, in particular, deep learning methods, citizens could demand the right to know the reasons behind the decisions generated by AI: but ensuring this right in the case of black box systems would be difficult. Moreover, we could ensure a sort of "right to discontinue", an extended version of the right to be forgotten, to protect the right to change your mind and not to be profiled based on past experience.

It seems there is still work to do.

Yes, a lot of work. We are in a privileged position in Trento because there is collaboration across different areas. For our BioLaw project, for instance, we work with Fondazione Bruno Kessler (FBK) to combine technological knowledge with legal expertise and ethics: in this way, we were able to start two interdisciplinary research and training projects within the Jean Monnet action. While, at national level, we have contacts with Fondazione Leonardo, which aims to combine technological progress with human development.

[Traduzione Paola Bonadiman]