Le foto finite nel database di Clearview Ai

Anche la Polizia di Stato italiana ha fatto uso dei servizi di Clearview Ai, la più discussa azienda statunitense specializzata nel riconoscimento facciale. La sua tecnologia è in grado di identificare una persona confrontando una sua foto con un archivio di immagini pescate a strascico da web e social network. Secondo la startup di New York, sono circa 3 miliardi le foto di volti presenti dei suoi database, utilizzate per allenare un algoritmo venduto a forze di polizia e aziende private.

A conclusione di una lunga inchiesta effettuata sulla base di dati interni di Clearview Ai, il sito di informazione BuzzFeedNews ha svelato come dipartimenti di polizia, procure, università e ministeri di 24 paesi, oltre agli Stati uniti, abbiano eseguito più di 14mila ricerche con il software di riconoscimento facciale di Clearview Ai, tra il 2018 e il 2020. Inoltre, secondo le interviste svolte dai giornalisti, molte di queste ricerche sarebbero state effettuate da agenti di polizia senza autorizzazione o controllo da parte dei superiori.
WiredLeaks banner

Il mercato europeo

La società di New York ha cercato di farsi strada in tutta Europa e anche in alcuni paesi noti per i loro governi repressivi, come l’Arabia saudita o gli Emirati arabi uniti. In Unione europea, BuzzFeed ha confermato l’utilizzo del software in Danimarca, Finlandia, Lettonia, Svezia, Olanda Spagna, Portogallo, Francia, Slovenia, Irlanda, Malta, da parte della stessa Interpool – l’agenzia di polizia europea – e in Italia. Nel nostro paese le ricerche condotte su Clearview sarebbero state tra le 101 e le 500, ma la Polizia di Stato non ha voluto rispondere a nessuna domanda posta da BuzzFeed a riguardo.

Clearview Ai ha commercializzato il suo sistema di riconoscimento facciale in Europa, offrendo prove gratuite alle conferenze di polizia, dove è stato spesso presentato come uno strumento per rintracciare le vittime di abusi sessuali. Secondo BuzzFeed, nell’ottobre 2019, le forze dell’ordine di 21 diverse nazioni e l’Interpol si sono riunite presso il Centro europeo per la criminalità informatica all’Aja, nei Paesi Bassi, per setacciare milioni di file per l’identificazione delle vittime di abusi sui minori. Alla riunione, alcuni partecipanti esterni che non erano membri dello staff di Europol hanno presentato Clearview Ai come uno strumento di supporto alle indagini. Al termine della conferenza, secondo un portavoce di Europol, molti specialisti hanno deciso di sfruttare quanto appreso e cominciare a usare il software nei propri paesi d’origine.

Immagini raccolte senza consenso

L’utilizzo del software di Clearview è stato fortemente contestato dalle autorità della privacy di diversi paesi ed è stato dichiarato illegale in Canada lo scorso febbraio. Secondo il garante canadese infatti, la società avrebbe creato un sistema che “infligge un danno su vasta scala a tutti i componenti della società, che si ritrovano di continuo in uno schedario della polizia”, prestandosi a una sorveglianza senza limiti.

Questo perché, per addestrare i suoi algoritmi, la società si è avvalsa di miliardi di immagini di volti disponibili su internet, prendendole da programmi di festival, albi di docenti universitari o altre immagini pubbliche. Il tutto senza chiedere il consenso alle persone interessate, mettendo chiunque a rischio di essere schedato in uno dei più grandi database di sorveglianza del mondo. Lo scorso marzo, il coordinatore del sito di Wired Italia Luca Zorloni ha svelato di essere finito proprio in questo database con 13 sue foto, prese da diversi siti tra cui Twitter.

Clearview è riuscita a fare incetta di miliardi di immagini prese dai grandi social network, prima che questi ne venissero a conoscenza e si imponessero per fermare la cosa. Facebook, per esempio, è intervenuta precisando che “lo scraping di informazioni personali viola le nostre politiche, per questo abbiamo chiesto a Clearview Ai di smettere di accedere o usare dati da Facebook o Instagram”. Come l’azienda di Menlo Park, anche Linkedin e YouTube hanno preso misure di contrasto contro la raccolta delle immagini di profilo dei loro utenti.

Una violazione della privacy

L’utilizzo del software di Clearview Ai è così controverso che la polizia di Los Angeles ha preso le distanze dalla compagnia e ha promesso di usare solo tecnologie di sua proprietà per il riconoscimento facciale. Mentre in Unione europea il suo utilizzo è sotto la lente delle autorità garanti della privacy. In Francia e in Germania sono già state condotte indagini sulla società. A giugno dell’anno scorso l’organismo che riunisce i garanti della privacy europei ha affermato che “l’uso di un servizio come Clearview Ai da parte delle forze dell’ordine in Unione europea sarebbe, allo stato attuale, probabilmente non coerente con il regime di protezione dei dati dell’Unione europea”. Anche Australia e Gran Bretagna hanno aperto un’indagine congiunta contro Clearview per il suo uso dei dati personali.

The post Anche la polizia italiana ha consultato i database della più controversa società di riconoscimento facciale al mondo appeared first on Wired.



Leggi l’articolo su wired.it