Il regolamento europeo sull’intelligenza artificiale non è abbastanza
La proposta lascia spazio all’uso ostile delle tecnologie da parte delle forze dell’ordine, e lascia troppe libertà alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini
La proposta lascia spazio all’uso ostile delle tecnologie da parte delle forze dell’ordine, e lascia troppe libertà alle aziende che le usano per profitto, minacciando il futuro dei diritti di tutti i cittadini
Da quando la presidente della Commissione europea Ursula Von Der Leyen ha promesso di consegnare un regolamento per l’intelligenza artificiale “all’avanguardia, ma affidabile” nei suoi primi 100 giorni di mandato, i riflettori della politica tecnologica globale sono stati puntati sulla risposta dell’Ue. E mercoledì è stato finalmente presentato dalla Commissione il progetto di regolamento UE sull’IA.
Ad una prima lettura il regolamento sembra incentrato sulla tutela dei diritti fondamentali e sul divieto di utilizzo di tecnologie di sorveglianza di massa. In realtà, secondo diversi esperti e diverse organizzazioni non governative del settore, il progetto di legge non proibisce tutti gli usi inaccettabili dell’IA e in particolare tutte le forme di sorveglianza biometrica di massa, permettendo un margine troppo ampio di autoregolamentazione da parte delle aziende che usano queste tecnologie per profitto.
I sistemi di IA sono sempre più utilizzati, per monitorarci – ad esempio – durante delle manifestazioni, per identificarsi all’accesso dei servizi pubblici, per fare previsioni sul nostro comportamento, o sul “rischio” che rappresentiamo. Ma queste tecnologie non sono infallibili e, anzi, ereditano i pregiudizi dei dati su cui vengono “esercitate.” Non solo, molti di questi sistemi sono indirizzati verso gruppi specifici e, di conseguenza, violano i principi di non discriminazione.
Essendo i modelli di intelligenza artificiale esercitati su set di dati pre-esistenti, non hanno però modo di essere indipendenti e super partes: in caso di usi da parte delle forze dell’ordine, i dataset sarebbero per forza necessariamente curati dalla polizia stessa. Le previsioni e i giudizi formulati da questi modelli possono avere un impatto sulle persone che vi sono soggette, aumentando la frequenza delle interazioni ingiustificate con le forze dell’ordine. In alcuni casi, questi punteggi di rischio sono pesantemente intrecciati con i sistemi di assistenza sociale, con le liste di controllo per la protezione dei bambini, e con la classificazione di certi quartieri come “ghetti.” Al centro dei sistemi di polizia predittiva c’è l’idea che il rischio e il crimine possano essere oggettivamente e accuratamente previsti. L’aumento dell’uso di questi sistemi è un altro aspetto di una vera e propria ideologia secondo la quale i problemi sociali potrebbero essere risolti assegnando più potere, risorse — e ora tecnologie — alla polizia. Lo si è visto, ad esempio, con la nuova legge francese sulla sicurezza globale che limita i diritti delle persone e, al tempo stesso, fornisce alle forze dell’ordine – dalla polizia municipale alla gendarmeria – tecnologie sofisticate di sorveglianza.
Ma i dati alla base dei sistemi di applicazione della legge sono intrinsecamente razzializzati e classificati. Due esempi: sistema algoritmico utilizzato nei Paesi Bassi per tracciare il profilo di persone di etnia Rom e Sinti per contrastare la pratica del borseggio e il progetto britannico Gang Matrix, che consisteva nel catalogare liste di sospetti criminali nelle città britanniche. Nel caso britannico è ancora più evidente come l’algoritmo fosse costruito su pregiudizi: Amnesty ha scoperto che il 78% delle persone inserite all’interno della Gangs Matrix nel 2017 fossero nere, nonostante solo il 29% dei crimini legati alle gang fossero commessi da persone afrodiscendenti.
Ne abbiamo parlato con Philip Di Salvo, giornalista e ricercatore post-doc presso l’Istituto di media e giornalismo dell’Università della Svizzera italiana (Usi) di Lugano.
Negli ultimi anni abbiamo visto un’implementazione nell’utilizzo di tecnologie di sorveglianze di massa in diversi Paesi europei, nonostante mancasse una normativa a regolarne l’utilizzo. Quali sono i rischi per i nostri diritti fondamentali?Il rischio concreto è che tecnologie estremamente impattanti e controverse, come il riconoscimento facciale, vengano implementate senza la dovuta trasparenza, senza un reale dibattito pubblico o senza che vi sia consapevolezza dei rischi connessi all’uso di soluzioni di questo tipo. Il caso di Como, dove il riconoscimento facciale è stato implementato con eccessiva leggerezza, è emblematico: la nostra inchiesta, pubblicata da Wired a giugno 2020, ha fatto muovere il Garante, che ne ha intimato lo spegnimento. Sono le spinte commerciali, o quelle più soluzioniste — che vedono, ovvero, nella tecnologia la soluzione a tutti i mali della società — a guidare queste decisioni, senza che vi sia spazio per argomentazioni critiche o più profonde sulle ripercussioni di queste tecnologie.
È appena stata presentata a Bruxelles la proposta del Regolamento UE sull’Intelligenza Artificiale. Da esperto del settore, quali sono le tue prime impressioni? E soprattutto, quali sono i limiti?
Trovo sia importante che la UE si muova in questo senso, stabilendo un quadro normativo per il settore, come fu per il GDPR qualche anno fa. Ed è importante che alcuni scenari di utilizzo dell’IA siano espressamente vietati. Non sono un esperto di policy, ma condivido le impressioni di chi ha fatto notare come vi siano dei punti deboli nel testo, dove era auspicabile trovare azioni più dirette e incisive, in particolare in relazione all’uso dell’IA per scopi di sorveglianza biometrica. Mi pare che il testo lasci ancora troppi spazi, entro i quali alcune applicazioni malevole o discriminatorie di queste tecnologie possono essere implementate. In altri passaggi, invece, mi sembra si dia eccessivo margine alle aziende per autoregolamentarsi, un approccio che, storicamente, sappiamo non essere particolarmente vincente. Come ha dichiarato Carly Kind, Direttore dell’Ada Lovelace Institute di Londra, il testo ha troppi margini di interpretazione. Il percorso davanti al Regolamento è ancora lungo, però: vedremo quale sarà la reazione dell’Europarlamento e poi quella degli Stati membri.
Esiste ormai una montagna di evidenza scientifica che dimostra i bias intrinsechi nella programmazione di numerosi sistemi algoritmici con ripercussioni sociali e politiche importanti. Di nuovo, il riconoscimento facciale è l’esempio più lampante in questo senso. La regolamentazione è fondamentale, in questa ottica, ma occorre un ragionamento critico sull’intera filiera dell’IA. Per questa ragione, sono in totale accordo con le tante voci che, di recente, hanno insistito tanto sulla necessità di trasparenza, diversità ed equità nelle aziende, e nei team che si occupano di creare questi sistemi in particolare. Abbiamo già creato un web che è lo specchio delle contraddizioni della Silicon Valley ed è fondamentale che questo non si ripeta per l’IA, le cui ripercussioni sono se possibile ancora più profonde. La vicenda di Timnit Gebru, scienziata licenziata dal team dedicato all’etica dell’intelligenza artificiale di Google — come altre storie simili — sono un brutto segnale in questo senso.
Diversi gruppi parlamentari europei, tra cui alcuni eurodeputati dei Verdi, stanno sostenendo la campagna #ReclaimYourFace, l’iniziativa dei cittadini europei che chiede il divieto assoluto dell’utilizzo della sorveglianza biometrica. Quanto è verosimile che il testo del Regolamento venga approvato senza modifiche dal Parlamento Europeo?Difficile fare previsioni politiche in questo senso, anche perché le forze del centrosinistra non sono necessariamente e fermamente contrarie alla sorveglianza. Personalmente, sposo il punto di vista delle tante forze, sia politiche che di attivismo, che chiedono la messa al bando del riconoscimento facciale. Non credo si tratti di decidere come usare questa tecnologia, si tratta di decidere se vogliamo che faccia parte del futuro della democrazia. Sono convinto che il riconoscimento facciale sia una tecnologia di sorveglianza di massa e che, come tale, non debba avere residenza nelle democrazie. Nessuna tecnologia è un destino.
Segui Leila su Instagram e Twitter