Multa da 20 milioni dal garante della Privacy a Clearview AI: no al riconoscimento facciale di massa

Multa da 20 milioni dal garante della Privacy a Clearview AI: no al riconoscimento facciale di massa

Anche l’Italia ha deciso di multare Clearview AI, la società americana che consente di individuare in automatico le identità delle persone tramite un sistema di riconoscimento facciale potenziato dall’intelligenza artificiale: è di oggi la notizia di una sanzione da 20 milioni di euro dal nostro garante della Privacy, dopo che si è scoperto che la società permette il tracciamento anche di cittadini italiani.

Si erano già mosse le autorità britanniche e francesi, ma l’Italia è la prima nell’Ue a sanzionare Clearview AI; indagini in corso anche negli Usa, in Canada e Australia. 

Il caso Clearview e i rischi del face recognition

Questa società sta quindi diventando, sempre di più, in Occidente, l’emblema dei rischi dell’intelligenza artificiale abbinata ai nostri dati personali, per altro tramite un uso spregiudicato delle nostre foto presenti sui social network e in generale online.

Clearview AI dichiara di possedere un database di oltre 10 miliardi di immagini di volti di persone di tutto il mondo, estratte da fonti pubbliche tramite il cosiddetto scraping (come siti di informazione, social media e video online). E ha appena annunciato di voler arrivare al traguardo di 100 miliardi entro fine anno.

Clearview AI offre un servizio di ricerca altamente qualificata che, grazie a sistemi di intelligenza artificiale, consente la creazione di profili basati sui dati biometrici estratti dalle immagini, eventualmente arricchiti da altre informazioni a esse correlate, come titolo e geolocalizzazione della foto, pagina di pubblicazione e così via: “Noi di Privacy Network siamo soddisfatti di questa decisione presa dal garante a seguito di nostra segnalazione in quanto sarà un importante spartiacque su almeno due questioni importanti – ha commentato Diego di Malta – Si tratta di un provvedimento importante, perché decreta una volta per tutte l’illegittimità della pratica dello scraping”.

A quanto dice l’Autorità, “dall’istruttoria del garante, attivata anche a seguito di reclami e segnalazioni, è emerso che Clearview AI, diversamente da quanto affermato dalla società, consente il tracciamento anche di cittadini italiani e di persone collocate in Italia. Le risultanze hanno rivelato che i dati personali detenuti dalla società, inclusi quelli biometrici e di geolocalizzazione, sono trattati illecitamente, senza un’adeguata base giuridica, che non può sicuramente essere il legittimo interesse della società americana”. 

Insomma: non tiene la giustificazione, ribadita più volte da Clearview AI, che sarebbe lecito usare quelle foto perché sono pubbliche. Lo sono, ma chi le ha pubblicate l’ha fatto (per esempio) per comunicare con gli amici su Facebook; non certo per farle usare a scopi di indagine.

Le rassicurazioni della ministra Lamorgese

Inoltre, la società avrebbe violato altri princìpi base del Gdpr, come quelli relativi agli obblighi di trasparenza, “non avendo adeguatamente informato gli utenti delle finalità del trattamento, avendo utilizzato i dati per scopi diversi rispetto a quelli per i quali erano stati pubblicati online e non avendo stabilito tempi di conservazione dei dati. Pertanto, l’attività di Clearview AI si pone in violazione delle libertà degli interessati, tra cui la tutela della riservatezza e il diritto a non essere discriminati”.

Da qui la sanzione da 20 milioni di euro. In più, l’Autorità ha ordinato alla società di cancellare i dati relativi a persone che si trovano in Italia e ne ha vietato l’ulteriore raccolta e trattamento attraverso il suo sistema di riconoscimento facciale. Infine, il garante ha imposto a Clearview AI di designare un rappresentante nel territorio dell’Unione europea che funga da interlocutore, in aggiunta o in sostituzione del titolare del trattamento dei dati con sede negli Stati Uniti, al fine di agevolare l’esercizio dei diritti degli interessati.

“Non tutto ciò che è tecnicamente possibile è eticamente corretto – ci ha detto Guido Scorza, del collegio del garante – E questa differenza è caposaldo di uno status democratico, che dobbiamo costantemente tutelare”.

Sappiamo che il software di Clearview AI è usato da migliaia di agenzie e forze dell’ordine in tutto il mondo nel corso di operazioni, indagini, investigazioni e altre attività e consente di confrontare le immagini in possesso di un operatore con quelle del database alimentato dall’azienda. Anche la polizia italiana avrebbe utilizzato la piattaforma in molte occasioni, probabilmente tramite test gratuiti; così risulterebbe da un’inchiesta di BuzzFeed News, cui è seguita a settembre un’interrogazione di Filippo Sensi (Pd) alla ministra dell’Interno, Luciana Lamorgese. In risposta, la ministra ha assicurato che le nostre forze dell’ordine utilizzano solo un sistema di riconoscimento facciale più tradizionale, con una banca dati di “17.592.769 cartellini fotosegnaletici, acquisiti a norma di legge, corrispondenti a 9.882.490 individui diversi, di cui 2.090.064 si riferiscono a cittadini italiani”.

Ancora: “Sul fronte della tutela della riservatezza – ha detto Lamorgese – il garante ha ritenuto che non configuri un trattamento nuovo di dati personali bensì solo una nuova modalità di trattamento di dati biometrici nel rispetto delle norme vigenti”. Un altro sistema di riconoscimento facciale in tempo reale, anche se tecnicamente già disponibile, non sarebbe stato ancora usato in assenza di parere positivo da parte del garante della Privacy. Il fatto di essere in tempo reale permetterebbe “di acquisire e trasmettere flussi video in contesti operativi differenziati attraverso un sistema multi-tecnologico, qualora sia necessario confrontare in tempo reale immagini con i volti presenti in una determinata banca dati”, ha detto la ministra.

Nel frattempo, il Parlamento, grazie a un emendamento del Pd, ha anche stabilito una sospensione per tutti i sistemi di riconoscimento facciale nei luoghi pubblici (tramite videocamere) fino al 31 dicembre 2023. Il blocco non tocca quindi l’uso del software di riconoscimento sul database della polizia.

Anche altrove nel mondo, i sistemi di riconoscimento facciale, basati su uso indiscriminato dei dati personali, affrontano una maggiore attenzione da parte delle autorità: l’anno scorso, il Regno Unito aveva sanzionato per 17 milioni di sterline proprio Clearview AI; la Francia ha chiesto alla società di eliminare i dati dei cittadini francesi; una corte federale in Illinois (negli Usa) ha dato a febbraio 2022 il via a procedere della causa contro Clearview.

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *