Telecamere di videosorveglianza (Pixabay)

Velocizzare il lavoro delle guardie di frontiera fornendole di un aiuto-poliziotto in forma di avatar in grado non solo di rilevare i dati biometrici dei viaggiatori, quali impronte digitali e tratti del volto, ma anche di scoprire le loro emozioni, individuando chi mente ed è quindi un potenziale terrorista. È questo l’obiettivo del progetto iBorderCtrl – acronimo per Intelligent portable border control system – finanziato con 4,5 milioni di euro dal programma di ricerca della Commissione europea Horizon 2020 e sperimentato ai confini dell’Unione dal settembre 2016 all’agosto 2019.

Una delle sue componenti tecnologiche si chiama “silent talker” ed è un sistema di analisi dei movimenti facciali sviluppato dall’Università metropolitana di Manchester per identificare le emozioni di chi parla e quindi capire se mente. Chi scrive ha potuto testarlo nel 2019 nel corso della sua sperimentazione avvenuta al confine serbo-ungherese e, pur rispondendo onestamente alle domande poste dal sistema, è stata identificata come una viaggiatrice “potenzialmente pericolosa”. Oggi un documento riservato datato 2017 che Wired ha potuto visionare svela un piano di pressione sulle istituzioni per favorire la modifica delle norme europee in modo che il sistema sia commercializzabile e – al contempo – evitare di diffondere i dettagli di questa tecnologia al grande pubblico, per evitare un dibattito temuto come “controverso” e quindi controproducente.
WiredLeaks banner

La “macchina della verità”

Qual è la tua data di nascita? Hai una sola cittadinanza? Quale Paese ha emesso il documento che vuoi usare per questo viaggio? Qual è la tua prima destinazione?” Sono solo quattro delle sedici semplici domande che mi sono state poste dall’avatar di un poliziotto quando – munita di laptop in un hotel alla cittadina di Subotica alla frontiera serbo-ungherese – nel gennaio 2019 mi sono sottoposta alla “macchina della verità” sviluppata con il progetto europeo iBorderCtrl. Richieste alle quali ho risposto in modo corretto ma – come ho scoperto più tardi – il “sistema di identificazione delle bugie” (indicato come Adds – Authomatic deception detection system nei documenti del progetto) ha ritenuto che mentissi.

Al termine dell’intervista con l’avatar, il sistema mi ha rilasciato un codice Qr. Conteneva il risultato dell’analisi dei micro-movimenti del mio volto, che erano stati registrati dalla telecamera del mio computer mentre rispondevo alle sedici domande, ed erano stati automaticamente analizzati dal sistema di riconoscimento dell’inganno. Il giorno successivo mi sono recata al posto di confine e ho presentato il codice Qr al poliziotto ungherese che mi ha dato il mio punteggio: 48 su 100, ovvero persona a rischio. Una possibile terrorista. Attraverso una richiesta di accesso agli atti, inoltrata a EuroDynamics – la società capofila del progetto iBorderCtrl – secondo la normativa europea per la privacy, ho potuto conoscere le motivazioni di un punteggio tanto basso. Secondo il sistema di individuazione delle bugie avevo mentito rispondendo a quattro domande su sedici – quelle indicate all’inizio di questo paragrafo – mentre su nove risposte il sistema non era sicuro della mia sincerità. Sarei stata onesta solo nel rispondere alle restanti tre domande.

Un piano di lobby che i cittadini non dovevano conoscere

Il dibattito pubblico potrebbe ostacolare l’attuazione delle politiche necessarie per iBorderCtrl”, è scritto sul “Piano di diffusione e comunicazione” di iBorderCtrl datato 2017 e consultato da Wired. “Alcuni cittadini potrebbero ritenere che le tecnologie proposte non dovrebbero essere utilizzate per preoccupazioni etiche”, continua il documento in cui si raccomanda che, per queste ragioni, “i passi per la diffusione dei risultati del progetto devono essere attentamente valutati”. Il documento è stato ottenuto dall’europarlamentare tedesco Patrick Breyer a seguito di una richiesta di accesso agli atti inoltrata attraverso la piattaforma AskTheEu.

Ma le frasi che abbiamo menzionato erano state oscurate dai funzionari della Commissione europea che rilasciato il documento e sono sono state fatte riemergere da Breyer grazie all’aiuto di un esperto informatico. L’europarlamentare ha denunciato l’Agenzia esecutiva responsabile dei progetti di ricerca della Commissione di fronte alla corte di giustizia dell’Aja per la mancanza di trasparenza su questo e altri documenti riguardanti iBorderCtrl. “Ha motivato il rifiuto di darmi i documenti affermando che conteneva informazioni commerciali riservate – afferma Breyer – ma da quanto leggo la preoccupazione è che i cittadini europei, che pagando le tasse hanno finanziato la sperimentazione di questa tecnologia, vengano a conoscenza dell’abuso di fondi pubblici”.

La Commissione ha finanziato la sperimentazione di una tecnologia che sarebbe illegale secondo le attuali normative europee – sottolinea – e da questo documento emerge che non intendevano limitarsi a un progetto di ricerca, ma hanno pianificato nei dettagli come giungere alla sua commercializzazione”. Un portavoce della Commissione europea risponde che “è una pratica normale mostrare le opportunità offerte da una nuova tecnologia ai legislatori, anche mostrando quando per introdurla sia necessario di aggiornare le leggi”. Per Breyer però, questo non dovrebbe essere fatto con soldi pubblici per la ricerca.

Pressioni su Commissione, Europarlamento e industria

Le funzionalità principali di iBorderCtrl richiederanno aggiustamenti nel quadro normativo – chiarisce il piano di diffusione e comunicazione di IborderCtrl – per questo è importante diffondere i risultati del progetto tra coloro che fanno le leggi e le politiche, nella misura in cui queste tecnologie hanno bisogno di essere integrate in diversi servizi di controllo delle frontiere”. Il documento descrive particolari cautele da usare nelle attività di lobby nei confronti di europarlamentari e Commissione. “Non è raccomandabile approcciare i policy makers chiedendo in modo diretto modifiche legislative in questa fase del progetto – è scritto -. Le attività di diffusione dovrebbero invece focalizzarsi su informazioni di base, come i problemi che la tecnologia proposta da iBorderCtrl potrebbe contribuire a risolvere”.

Le aziende che fanno parte del consorzio iBorderCtrl hanno anche pianificato come approcciare i media. Nel documento si parla di “buoni contatti” con la Bbc e altre aziende basate nella MediaCity, nell’area di Manchester. Si afferma che lo staff dell’azienda Silent Talker Ltd – nata per promuovere la tecnologia sviluppata dall’università di Manchester – ha incontrato i rappresentanti della produzione Double Act che realizzerà una serie sull’intelligenza artificiale per Channel 4: “Si spera di realizzare un servizio video di forte impatto coinvolgendo un reporter nell’esperimento”.

Sono poi elencati e descritti i settori industriali potenzialmente interessati alle tecnologie sviluppate dal progetto. Si tratta innanzitutto di fornitori di “materiali hardware come sensori e scanner usati nelle procedure di controllo delle frontiere” per l’analisi di passaporti e visti, ma anche “di dati biometrici (vene del palmo della mano e impronte digitali)” e “per la rilevazione della presenza umana all’interno di veicoli o container”. Si parla in particolare di sistemi Mrz (Machine Readable Zone), Ocr (Optical Character Recognition) e Rfid (Radio Frequency Identification). Il secondo comparto considerato di interesse per iBorder è quello dei fornitori delle applicazioni software specializzati in “analisi per la gestione del rischio alle frontiere, che includa raccolta sistematica e valutazione puntuale di informazioni e intelligenza che distingua alto e basso rischio”.

Le ombre del regolamento sull’intelligenza artificiale

La proposta della Commissione per un regolamento europeo per l’intelligenza artificiale non vieta le “macchine della verità” come quella sviluppata da iBorderCtrl. Nell’allegato 3 ammette esplicitamente la possibilità di utilizzo per le forze dell’ordine di “poligrafi e simili sistemi di identificazione dello stato emozionale delle persone” pur considerandoli “sistemi di Ai ad alto rischio”.

Si può dire che il piano di lobby di iBorderCtrl abbia avuto effetto? “È una bella domanda – risponde Breyer -. Quello che è stato discusso nel contesto dell’intelligenza artificiale è principalmente sorveglianza di massa, soprattutto attraverso sistemi biometrici, mentre non è stato affrontato il tema delle tecnologie per l’individuazione delle bugie”. “Anche se il regolamento europeo non le bandisce, l’uso di queste tecnologie da parte dei governi richiederebbe però una base legale positiva, che le autorizzi esplicitamente”, afferma l’europarlamentare: “Quello che più mi preoccupa è che queste tecnologie possono essere vendute ad aziende per esaminare i candidati a un posto di lavoro e a banche per decidere sulla concessione di un prestito”.

Gli utilizzi privati non richiedono una base legale positiva – spiega Breyer – ma solo il rispetto della legislazione per la protezione dei dati e se hanno il consenso del soggetto analizzato potrebbero probabilmente utilizzarli. Questa tecnologia potrebbe poi essere venduta a Paesi fuori dall’Unione europea come Cina e Arabia Saudita. Per questo ritengo che l’argomentazione data dalla Commissione europea, che questo è stato solo un test, solo una ricerca – e quindi non importa se non è etica o è contro la legge – è sbagliata, perché queste tecnologie potranno essere commercializzate anche se l’Unione europea non le autorizzerà mai”.

The post La “macchina della verità” alle frontiere di cui l’Europa preferiva non parlare appeared first on Wired.



Leggi l’articolo su wired.it