Photo: Adobe Stock

Ricerca

Libertà d’espressione, nuovi media e intelligenza artificiale

Con Carla Maria Reale e Marta Tomasi alla ricerca di un nuovo ecosistema costituzionale

11 ottobre 2022
Versione stampabile
di Paolo Fisichella
Studente collaboratore Ufficio Stampa e Relazioni Esterne

Quanto l'Intelligenza Artificiale interagisce o interferisce con la libertà d’espressione nelle democrazie contemporanee? Quali i rischi e le possibilità del suo impiego nel mondo della comunicazione? E ancora, quali i principi e i regolamenti delle nuove tecnologie nella società dell’iper-informazione? A queste e altre domande, risponde la ricerca di Carla Maria Reale, docente presso la Facoltà di Giurisprudenza, e Marta Tomasi, ricercatrice in diritto pubblico comparato, entrambe appartenenti al gruppo Biodiritto

Il diritto alla libertà d’espressione e all’informazione costituisce il cuore delle democrazie contemporanee, essendo imprescindibile per l’esercizio di ogni libertà fondamentale, per il progresso della società e lo sviluppo di ogni essere umano. Questi diritti si trovano però ora ad affrontare un mutamento epocale nel mondo della comunicazione e dell’informazione, vale a dire l'ingresso in questi ambiti dell'Intelligenza Artificiale. "Compito di giuriste e giuristi – spiegano le ricercatrici – è studiare quali siano le minacce che mettono a rischio questi diritti oggi, ma anche – perché no – quali siano i punti di forza di queste tecnologie in relazione alla tutela e alla promozione dei diritti fondamentali”.

Per tentare di riassumere tutte le possibili interazioni tra l’IA e queste libertà è necessario fare in prima sede una distinzione tra tecnologie artificiali che producono discorsi (ad esempio, le chatbots di Alexa di Amazon o Siri di Apple) e quelle che selezionano e ordinano contenuti determinandone la circolazione e la diffusione (ad esempio, gli algoritmi di Facebook o Instagram). 

Nel primo caso, i sistemi di Intelligenza Artificiale non hanno ancora raggiunto un alto grado di sviluppo, ma ciò non impedisce loro di riuscire a mimare il comportamento umano intervenendo nei dibattiti virtuali e influenzando l'opinione pubblica, spesso distorcendo la verità. Si tratta, ad esempio, dei celebri political bots che sembrano aver avuto un ruolo anche in alcuni eventi recenti, come le elezioni del 2016 negli Stati Uniti. Quasi ironicamente, questa tendenza è arginata proprio dalle tecnologie che determinano e selezionano i contenuti. Queste sono di fatto in grado di controllare la diffusione di notizie false setacciando quantità enormi di informazioni alla ricerca di fake news.

Oltre alla veridicità dei contenuti, un valore fondamentale è quello della trasparenza. In tal senso, non solo è necessario comunicare agli utenti quando siano in presenza di una IA, ma sarebbe auspicabile rendere noti i fondamenti tecnici delle decisioni automatizzare della tecnologia. Nonostante il Regolamento europeo abbia proposto l'obbligo di trasparenza per l’intelligenza artificiale, ad oggi non vi sono strumenti per esaminare con trasparenza quali siano i criteri decisionali. Questo rappresenta un problema laddove vengano poi lesi i diritti di espressione o informazione. "Il risultato – affermano le ricercatrici - è che è arduo o impossibile applicare le cautele alle quali solitamente ci affidiamo per riconoscere un’informazione distorta o parziale".

Lo sviluppo delle tecnologie dell’IA ha avuto inoltre, negli ultimi anni, pesanti ripercussioni sul ruolo classico dell’editoria nell’informazione. Con l’avvento della network information economy, ogni utente è chiamato a contribuire nella produzione di materiale informativo, al pari di un qualsiasi giornalista. Questo ha portato a nuove e inattese riflessioni, ad esempio la necessità di una maggiore tutela nei confronti della professione (dal segreto sulle fonti, alle clausole di coscienza). Tuttavia, come sottolineato da Carla Maria Reale, le problematicità vere e proprie emergono nel momento in cui viene interrogata la posizione dell’utente. Sebbene infatti, la produzione di informazioni sia in mano a una molteplicità di soggetti, l’ordine e l’accessibilità di queste è controllata da un gruppo estremamente limitato, spesso con un elevato potere economico (come Google o Facebook). Le piattaforme di questione, quali motori di ricerca e social network, filtrano i contenuti confacendoli agli interessi dell’utente in senso conservativo. Si tratta infatti di una vera e propria filter bubble: un pluralismo ovattato in cui l’utente non viene mai esposto a sollecitazioni che fuoriescano dalla propria opinione. "Proprio a causa di questo - affermano le ricercatrici - si è iniziato a parlare di un diritto della persona all’incoerenza e alla discontinuità, la possibilità di ricevere plurimi stimoli, mutare opinione e, dunque, evolvere come persona".

Le tecnologie dell’IA mettono inoltre in luce la necessità di un principio di eguaglianza e di non discriminazione. Noti, ad esempio, sono i casi della deep learning di Amazon che penalizzava il reclutamento delle donne nell’azienda, o ancora il caso olandese della violazione delle leggi nazionali sulla protezione dei dati da parte di Facebook nella targhettizzazione della pubblicità, senza dimenticare la questione sui limiti e doveri degli Internet Service Provider sulla crescente diffusione di discorsi d’odio. "Ad oggi – ci ricordano le ricercatrici - abbiamo solamente una proposta di regolamento in materia di IA alla quale le istituzioni europee stanno lavorando. Questo vuol dire che tale atto normativo non è ancora vigente. Attualmente il testo della proposta di regolamento è ancora aperto alle proposte di modifica avanzate dalle parti e, se tutto andrà bene, potrebbe entrare in vigore il prossimo anno".

Nonostante, quindi, esista già una proposta di regolamento il dibattito è ancora molto vivo, e si snoda tra questioni di natura giuridica e tecnica. Senza dimenticare che le logiche e i fini dell’artificiale sono ben radicati in questioni umane. "Spesso infatti - dicono le ricercatrici - il timore attorno alle tecnologie di IA è quello legato alla perdita di controllo da parte degli esseri umani sulle stesse, quando in verità anche gli elementi più problematici di queste sono proprio insiti nella radice umana di tali sistemi.

Il percorso è ancora lungo e complesso ma, concludono Carla Maria Reale e Marta Tomasi: "ciò che non deve mancare è l’esigenza che il diritto si ponga in un dialogo effettivo con queste nuove tecnologie e questo non può che presupporre uno studio e una comprensione dei reali meccanismi delle stesse".

La ricerca è disponibile gratuitamente e interamente online a questo indirizzo.