Le foto finite nel database di Clearview Ai

Anche l’autorità italiana per la protezione dei dati personali prende di petto il caso di Clearview Ai, azienda statunitense specializzata nel riconoscimento facciale. La sua tecnologia è in grado di identificare una persona confrontando una foto con un archivio di immagini pescate a strascico da web e social network. A detta della startup di New York, sono 3 miliardi le foto di volti all’interno dei suoi database, utilizzate per allenare un algoritmo venduto a forze di polizia e aziende private.

A quanto risulta a Wired, lo scorso marzo l’azienda si è vista recapitare una richiesta di chiarimenti da parte del Garante italiano, in merito alle modalità tecniche con le quali vengono gestiti e protetti i dati. In particolare, l’autorità vuole sapere se avviene una elaborazione di dati biometrici dalle foto trattate, se queste sono adeguatamente protette e se vi siano processi di decisione automatica dietro all’analisi dei volti. Già contattato da Wired, lo scorso febbraio l’amministratore delegato di Clearview Ai, Hoan Ton-That, aveva commentato: “La nostra tecnologia non è disponibile nell’Unione europea. Attendiamo di attivare un dialogo con il Data protection officer di Amburgo nell’ottica di rimediare alle loro preoccupazioni”.

Lo sbarco in Europa

Tuttavia è noto che la startup ha provato a venderla anche a Stati europei e ha preso contatti con vari Paesi, tra cui l’Italia. Inoltre, facendo scraping di dati in rete (ovvero automatizzando le operazioni di raccolta dei dati), Clearview Ai ha stoccato nei suoi database anche i volti dei cittadini europei, come già raccontato in un’inchiesta di Wired, ma senza chiedere un consenso, necessario per il tipo di trattamento che effettua. Di fatto, l’azienda ha creato un motore di ricerca delle facce presenti su internet, provenienti da qualsiasi fonte pubblica, a cui assegna un codice (il cosiddetto hash).

Rivolta principalmente, ma non esclusivamente, alle autorità, l’azienda permette di inserire una foto nei suoi sistemi e di confrontarla con oltre “3 miliardi di immagini” alla ricerca di un incrocio. Questa tecnologia è stata utilizzata da enti privati, fondazioni bancarie e casinò e oggi serve direttamente le forze dell’ordine statunitensi, anche se qualche dipartimento, come quello di Los Angeles, ha fatto un passo indietro sospendendone l’uso.

Grazie a Clairview Ai, “le autorità statunitensi utilizzano l’archivio biometrico per individuare in foto e video ulteriori informazioni appartenenti a persone altrimenti sconosciute”, si legge in una nota pubblicata da Noyb (acronimo di None of your business, “Non sono affari tuoi”), un’organizzazione internazionale che si occupa di privacy e che ha promosso diverse azioni contro gli strumenti di riconoscimento massivo. Colossi del digitale come Facebook e Youtube hanno diffidato l’azienda dall’usare le immagini caricate sui loro siti.

Un appello al Garante

L’istruttoria di piazza Venezia arriva in seguito alla richiesta di intervento presentata da Privacy Network, organizzazione italiana per la difesa dei diritti fondamentali connessi al mondo digitale, che in una lettera aperta inviata al presidente dell’Autorità garante, Pasquale Stanzione, definisce i servizi di Clearview Ai “una forma di sorveglianza elettronica massiva ed invasiva, in violazione dei principi fondamentali dei cittadini europei e della normativa europea per la protezione dei dati (Gdpr).

“La software house ha raccolto, e continua a raccogliere, fotografie dal web all’insaputa delle persone raffigurate, per poi elaborare dati biometrici con l’esplicito scopo di renderli accessibili alle forze dell’ordine”, scrivono dall’associazione, osservando che i dati sono raccolti in assenza di consenso e dietro modalità opache e non conosciute agli utenti.

Il precedente in Germania

Il Garante italiano non è la prima autorità della privacy in Europa a intervenire nei confronti di Clearview Ai. Con una decisione senza precedenti nel diritto comunitario, lo scorso febbraio l’omologa autorità di Amburgo ha ordinato all’azienda di cancellare qualsiasi informazione relativa a un cittadino tedesco, il quale aveva inviato una richiesta all’azienda scoprendo che il suo volto era reperibile dal motore di ricerca.

Ma la decisione di Amburgo non ha prodotto effetti generali, in quanto il provvedimento ha riguardato solo i dati del richiedente e dunque non vale come principio da applicarsi a tutti i cittadini dell’Unione europea. Una misura in seguito alla quale, come osservato da Noyb, “ciascun cittadino dovrebbe ricorrere contro Clearview Ai in modo da non venire incluso nei risultati di ricerca del database biometrico”.

Un tema che rinfocola il dibattito pubblico e politico sull’opportunità di lasciare campo libero ai servizi basati sul riconoscimento dei volti, oggetto di una proposta di legge presentata da poco dal deputato del Partito democratico, Filippo Sensi, che ne chiede la sospensione e che è in attesa di essere dibattuta nel parlamento italiano. Un passo per volta, sembra che qualcosa stia accadendo. Dopo l’inchiesta di Wired decine di lettori hanno segnalato alla nostra testata di essersi attivati con Clearview Ai per sapere se l’azienda conserva i loro dati. Ora la palla passa al Garante della privacy.

The post Il Garante italiano della privacy indaga sulla più controversa società di riconoscimento facciale al mondo appeared first on Wired.



Leggi l’articolo su wired.it