Intelligenza artificiale, i primi paletti dell’Ue contro sorveglianza e manipolazione di massa

Intelligenza artificiale, i primi paletti dell’Ue contro sorveglianza e manipolazione di massa

L’Europa traccia i primi confini di come sarà l’intelligenza artificiale (IA) nel Continente. Ovvero quali devono essere le regole per favorirne uno sviluppo rispettoso dei diritti fondamentali e orientato agli interessi collettivi. Lo si legge nella bozza, trapelata nelle scorse ore, del regolamento sulla IA che la Commissione europea presenterà la prossima settimana.

Due sono i punti chiave. Il primo: alcune tecnologie di IA, considerate pericolosissime, saranno vietate in Europa. E sono quelle per la sorveglianza di massa e quelle usate per manipolare i nostri comportamenti, decisioni e opinioni a nostro danno. Il secondo: ogni azienda dovrà valutare se la propria tecnologia di IA sia ad “alto-rischio”. In questo caso prima di adottarla deve sottoporla a una valutazione dell’impatto che questa tecnologia può avere sulla società, sui diritti delle persone. L’Europa immagina anche super-sanzioni per le aziende che violano i divieti: pagheranno fino al 4 per cento del loro fatturato mondiale. Proprio come quelle previste dalla normativa europea Gdpr sulla privacy, che è stato finora faro mondiale, in Europa e altrove, sulla tutela dei diritti nell’era digitale. Anche il concetto di “valutazione di impatto” è tratto dal Gdpr.

Il Gdpr – recepito in Italia nel 2018 – contiene alcune norme per contenere gli effetti lesivi dell’IA, ma comincia già a mostrare qualche limite di fronte alla rapida evoluzione di queste tecnologie. Un boom favorito anche dalla pandemia, come riportano vari studi (come uno di marzo a cura di Stanford University e Brookings, sul boom dell’automazione nelle aziende a causa del covid).

A differenza di quanto previsto dal Gdpr, la Commissione Ue ora propone un divieto assoluto verso alcune applicazioni di AI. Qui sono comprese, dalla Commissione, le applicazioni (commerciali) di sistemi di sorveglianza di massa e sistemi di punteggio sociale (come quelli in vigore in Cina). Sono applicazioni che l’Europa considera inconciliabili con i nostri valori. Qualche eccezione si prevede per la sorveglianza a scopo di pubblica sicurezza. Vietati anche i sistemi di AI “progettati per manipolare il comportamento umano, le decisioni o le opinioni, per un fine dannoso”. Idem i sistemi che utilizzano i dati personali per generare previsioni sfruttando e amplificando le vulnerabilità di persone o gruppi sociali.

Qualcuno qui potrebbe pensare a quanto fanno le big tech, in particolare a mezzo social, con i nostri dati. La lettera della proposta della Commissione non vieta però ogni tipo di profilazione atta a influenzarci, ma solo una influenza “dannosa” per persone e società. Sarebbe insomma vietata solo una profilazione che – per esempio – arrivi a discriminare gruppi sociali, scoraggiare il voto o disinformare; come hanno tentato di fare potenze straniere su Facebook durante le elezioni americane del 2016, poi vinte da Donald Trump. “Si dovrebbe riconoscere che l’intelligenza artificiale può consentire nuove pratiche di manipolazione, dipendenza, controllo sociale e sorveglianza indiscriminata che sono particolarmente dannose e dovrebbero essere vietate in quanto in contrasto con i valori dell’Unione del rispetto della dignità umana, della libertà, della democrazia, dello stato di diritto e del rispetto dei diritti umani”, si legge nella bozza.

La Commissione ha evitato di proporre un divieto sull’uso del riconoscimento facciale con IA nei luoghi pubblici. Qualcosa che pure stava valutando (a quanto risultava da una precedente bozza) e che viene chiesto da molte associazioni per i diritti umani e civili, in Europa e Usa, per i gravi rischi connessi a queste applicazioni di IA. Videocamere con riconoscimento facciale – usata da alcune polizie nel mondo, ad esempio a New York – possono attuare il più grande sistema di sorveglianza di massa nella storia dell’umanità.

Tuttavia, nella bozza “l’identificazione biometrica a distanza” nei luoghi pubblici (con riconoscimento facciale e non solo) richiederà il regime autorizzatorio più forte, tra quelli previsti per le tecnologie “ad alto rischio”. Si legge di “procedure più rigorose di valutazione della conformità attraverso il coinvolgimento di un organismo notificato”. Ovvero una “procedura di autorizzazione che affronta i rischi specifici impliciti nell’uso della tecnologia” e che include una valutazione obbligatoria dell’impatto sulla protezione dei dati. “Inoltre l’autorità che autorizza dovrebbe considerare nella sua valutazione la probabilità e la gravità del danno causato dalle imprecisioni di un sistema utilizzato per un determinato scopo, in particolare per quanto riguarda l’età, l’etnia, il sesso o le disabilità”, dice la bozza. “Dovrebbe inoltre considerare l’impatto sociale, considerando in particolare la partecipazione democratica e civica, così come la metodologia, la necessità e la proporzionalità per l’inclusione delle persone nel database di riferimento”. I sistemi di IA “che possono principalmente portare a implicazioni negative per la sicurezza personale” sono anche tenuti a subire questa “procedura più rigorosa”.

Per il resto, sta alle aziende valutare se l’applicazione di IA è ad alto rischio. Un’autovalutazione che – anche questa – ricalca il Gdpr, con il doppio vantaggio di costringere le aziende ad auto-responsabilizzarsi e di assicurare una maggiore flessibilità alle norme e capacità di adattamento (utile in un ambito a rapida evoluzione, come quello dell’IA). Spiega la Commissione: “La classificazione di un sistema di intelligenza artificiale come ad alto rischio dovrebbe essere basata sulla sua destinazione d’uso – che dovrebbe fare riferimento all’uso a cui è destinato un sistema di intelligenza artificiale, compresi il contesto e le condizioni d’uso specifici e – ed essere determinata in due fasi, considerando se può causare determinati danni e, in tal caso, la gravità del danno possibile e la probabilità che si verifichi”. Così si legge in un “considerando” (una nota esplicativa) della proposta. Sono escluse dal regolamento le applicazioni militari; un ambito che non rientra nei trattati europei.

Esempi di “danni” associati ai sistemi ad alto rischio di IA sono elencati nella bozza e comprendono: “Il ferimento o la morte di una persona, danni alla proprietà, impatti negativi sistemici per la società in generale, interruzioni significative della fornitura di servizi essenziali per lo svolgimento ordinario di attività economiche e sociali di importanza critica, impatto negativo sulle opportunità finanziarie, educative o professionali delle persone, impatto negativo sull’accesso ai servizi pubblici e qualsiasi forma di assistenza pubblica, e impatto negativo sui diritti fondamentali”. Tra gli esempi: sistemi di reclutamento e assunzione personale; sistemi che forniscono l’accesso agli istituti di istruzione o di formazione professionale; servizi di emergenza; valutazione della solvibilità creditizia; i sistemi per l’assegnazione di sussidi pubblici; i sistemi decisionali applicati alla prevenzione, all’individuazione e alla persecuzione del crimine; e i sistemi decisionali utilizzati per assistere i giudici. C’è anche obbligo a riferire “qualsiasi incidente grave o qualsiasi malfunzionamento del sistema IA che costituisce una violazione degli obblighi” a un’autorità di vigilanza entro 15 giorni dopo esserne venuti a conoscenza.

“I sistemi AI ad alto rischio possono essere immessi sul mercato dell’Unione o messi in servizio in altro modo a condizione di rispettare i requisiti obbligatori”, osserva il testo. La Commissione tiene conto anche del fatto che l’IA è dinamica. Continua ad apprendere e quindi potrebbe avere un impatto, sulle nostre vite, mutevole e potenzialmente via via più importante. E così, si legge: “per i sistemi di intelligenza artificiale che continuano ad apprendere dopo essere stati immessi sul mercato o messi in servizio (cioè che adattano automaticamente le modalità di esecuzione delle funzioni), le modifiche all’algoritmo e alle prestazioni che non sono state predeterminate e valutate al momento della valutazione della conformità richiedono una nuova valutazione della conformità del sistema di intelligenza artificiale”.

La Commissione propone anche per la prima volta il diritto a sapere se si sta interagendo con un umano o un bot (ad esempio quando parliamo con una banca, un operatore e su Twitter). Ma anche a sapere se quella foto è una persona vera o è generata dall’intelligenza artificiale (deepfake). L’obbligo viene meno nei casi di “sicurezza pubblica o per l’esercizio di un diritto legittimo o della libertà di una persona, come nel caso della satira, della parodia o della libertà delle arti e delle scienze, e fatte salve adeguate garanzie per i diritti e le libertà di terzi”.

In cambio e a fronte di tutte queste norme, le imprese conformi potranno mostrare un marchio europeo di qualità connesso all’intelligenza artificiale. “I sistemi AI ad alto rischio dovrebbero portare il marchio CE per indicare la loro conformità al presente regolamento in modo che possano muoversi liberamente all’interno dell’Unione”, nota il testo, aggiungendo che: “Gli Stati membri non dovrebbero creare ostacoli all’immissione sul mercato o alla messa in servizio dei sistemi di intelligenza artificiale che sono conformi ai requisiti stabiliti nel presente regolamento”. “Si tratta di un elemento fondamentale della proposta di Regolamento, in quanto consentirà alle aziende di dimostrare più facilmente la conformità dei sistemi di AI che immettono sul mercato; per una piena attuazione di questo sistema di marcatura CE si dovrà però attendere l’adozione di standard appositi da parte degli enti di normazione quali ISO e CEN”, spiega Luca Tosoni esperto privacy e ricercatore all’università di Oslo. 

Lo scopo ultimo del regolamento e della strategia europea sull’IA, del resto, non è solo la tutela dei diritti ma anche lo sviluppo positivo dell’innovazione, con benefici collettivi. Le istituzioni europee, anche nel Gdpr, hanno osservato che questo sviluppo sosterrà economia e benessere ma richiede la conquista della fiducia dei cittadini nei confronti della società digitale. Il rispetto delle norme e, ora, anche questo bollino sono quindi funzionali alla crescita della fiducia (e quindi dell’adozione) verso le tecnologie innovative.

Un principio che anche gli Usa cominciano a fare proprio. Non solo le istituzioni – come risulta dalle numerose proposte di legge ora valutate dal Congresso Usa per regolamentare le big tech; ma anche le stesse aziende ne prendono atto. “Facebook sarà sostenibile nei prossimi anni solo se conquista la fiducia dei cittadini, attraverso la trasparenza, il rispetto della privacy e garantendo agli utenti il controllo sui propri dati”, ha detto il vice presidente di Facebook Nick Clegg ad aprile presentando una nuova barra che consente agli utenti di controllare meglio il proprio news feed.

“La normativa europea sembra essere solida, per promuovere uno sviluppo dei sistemi di AI utili per la vita degli individui e per la società in generale, anche se ovviamente la regolamentazione rimane prevalentemente difensiva, ovvero intesa a sminare i possibili impatti negativi dell’AI sui diritti fondamentali”, commenta Marco Pierani, di Euroconsumers e autore di un recente libro (con Marco Scialdone) su questo tema (Espress Edizioni). “In questo scenario, coloro che sono pronti a dar prova di leadership dovranno assicurarsi, sia nel mondo imprenditoriale, sia nelle istituzioni e nella società civile, che le rispettive organizzazioni comprendano insieme ai rischi anche il potenziale dell’Intelligenza Artificiale, l’UE sta ponendo un quadro solido di riferimento perché tali tecnologie possano contribuire a raggiungere obiettivi ambiziosi di sostenibilità, rispettando al contempo i diritti della persona – continua Pierani. Per crescere e operare al massimo del suo potenziale, l’intelligenza artificiale dovrà riportare però necessariamente i consumatori al centro della progettazione, e alimentare così la costruzione di una economia e una società che devono guardare dritto alla costruzione di un futuro migliore per tutti”, continua.

Aggiunge Marco Martorana, avvocato specializzato in privacy e digitale: “L’Europa sta seguendo la direzione di una legislazione umano centrica fondata su principi etici condivisi, per far sì che le persone possano sfruttare al meglio i benefici dell’intelligenza artificiale senza diventarne vittime, in particolar modo disciplinando le tecnologie di IA cosiddette “ad alto rischio”. Ricordiamoci inoltre che le regole giuridiche, in un settore come quello delle nuove tecnologie, assumono un ruolo fondamentale per infondere fiducia negli individui, rendendo sicuri questi strumenti e, di conseguenza, incentivandone l’utilizzo e la diffusione nella società”.

“Finalmente, grazie all’Europa, l’IA entra in una dimensione nuova. L’IA necessita di una forte regolamentazione, per evitare danni irreversibili alle nostre società e per svilupparsi in modo positivo”, osserva Rocco Panetta, avvocato esperto di privacy e digitale. “L’Europa si mostra molto forte in questo campo e, come con il Gdpr, potrebbe mostrare la via maestra al resto del mondo”, aggiunge.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *