Photo credit should read: Daniel Leal-Olivas/PA Wire

L’Unione europea vieti lo sviluppo di sistemi di intelligenza artificiale per il riconoscimento automatico di genere e orientamento sessuale. Lo chiede, con una campagna online che ha già raccolto decine di migliaia di adesioni, l’organizzazione globale per i diritti lgbt+ All Out, in collaborazione con l’ong Access Now e la campagna europea per vietare la sorveglianza biometrica di massa Reclaim Your Face. La Commissione europea ha proposto un quadro legislativo – ovvero un pacchetto di norme e linee guida – per regolamentare i sistemi d’intelligenza artificiale. È in questa sede che, secondo gli attivisti, si sarebbe dovuto inserire il divieto del riconoscimento automatico di genere e orientamento sessuale, ma non è stato fatto, sebbene alcuni divieti e paletti siano stati inseriti.
WiredLeaks banner
Yuri Guaiana, senior campaign di All Out, spiega che “l’utilizzo sempre più frequente da parte di governi, forze di polizia e aziende in tutto il mondo dell’intelligenza artificiale per prevedere il genere e l’orientamento sessuale analizzando l’aspetto, il modo di parlare o di muoversi di una persona, pone le persone queer a rischio di essere eccessivamente monitorate, ingiustamente prese di mira e discriminate. E nelle mani sbagliate, come quelle della polizia in Paesi anti-lgbt+, questi strumenti potrebbero essere ancora più pericolosi. Non si tratta di un problema del futuro – sta già accadendo, e dobbiamo porvi un freno. La Commissione europea ha compiuto un passo nella giusta direzione, ma ha perso un’occasione unica per vietare il riconoscimento automatico. La nostra campagna è solo all’inizio”. Oltre 22mila firme di aderenti alla petizione sono già state consegnate ai vertici della Commissione europea, compresa la presidente Ursula von der Leyen.

Discriminazione in atto

Alcuni casi di discriminazione sono già stati denunciati da persone trans e queer: la app riservata a sole donne Giggle, lanciata a febbraio dell’anno scorso, permette l’iscrizione attraverso l’analisi del viso da parte della cam. “Questo – spiega Guaiana – ha portato alla discriminazione di diverse persone perché l’algoritmo non considerava la loro fisionomia facciale compatibile con quella di una donna”.

Ma non stiamo parlando solo di luoghi virtuali. L’anno scorso, in occasione dell’8 marzo, la metropolitana di Berlino ha permesso alle donne di viaggiare gratis, ma sarebbe più corretto dire che lo ha permesso solo alle persone identificate come tali dall’intelligenza artificiale che sbloccava i tornelli. Sistemi di identificazione del genere sono stati utilizzati, inoltre, nella metropolitana brasiliana per “settare” la pubblicità degli schermi a seconda di chi hanno davanti.

Spotify, invece, ha depositato un brevetto che analizza la voce per proporre a chi ascolta una colonna musicale basata sul suo presunto stato d’animo e sul suo genere. “Questo – spiega Guaiana – è preoccupante da diversi punti di vista: perché riduce l’identità di genere a caratteristiche biometriche e perché, inoltre, lega i gusti presunti al genere”, rafforzando così stereotipi e alimentando discriminazioni.

Sono tutti esperimenti e possibili sviluppi che riducono la libertà di tutti, ma preoccupano soprattutto la comunità trans e le persone gender fluid. “Le persone trans che si muovono nel mondo hanno già così tanti occhi addosso, e li sentiamo tutti. Non farebbe che esasperare la situazione esistente. Non serve un altro paio d’occhi robotici a opprimerci. Se le telecamere di sicurezza tentassero costantemente di stabilire il mio genere, penso che mi sentirei aggredita. E credo che sarei esposta a molte violenze evitabili”, è la testimonianza di una persona trans femminile raccolta dalla petizione di All Out (e desunta da questo studio).

Rischi per la privacy

Meno casi concreti riguardano al momento il riconoscimento dell’orientamento sessuale delle persone attraverso le caratteristiche biometriche e il modo di muoversi. “Ma sappiamo per certo che ci si sta muovendo anche in quella direzione perché è stato pubblicato nel 2018 uno studio dell’Università di Stanford su questi argomenti, studio che è stato ferocemente criticato ma che indica comunque che non stiamo parlando di fantascienza, ma di ricerche in corso”, dice Guaiana.

Esiste inoltre uno studio pubblicato su Arxiv, a cui ha partecipato Google (che quindi si pressuppone sia interessata al tema), che analizza potenzialità ma soprattutto rischi dell’utilizzo delle intelligenze artificiali per il riconoscimento dell’orientamento sessuale. Ci sono problemi di privacy e di consenso all’utilizzo dei nostri dati da parte delle grandi multinazionali, innanzitutto, perché è chiaro che strumenti del genere possono portare a outing nei confronti di persone che non vogliono o non possono svelare il proprio orientamento. Ammesso che poi la “predizione” sia corretta, diversamente l’intelligenza artificiale causerebbe spiacevoli equivoci.

C’è poi un problema di censura e di accesso ai pubblici spazi qualora questi strumenti venissero utilizzati dalla polizia e dalle forze dell’ordine per selezionare l’ingresso delle persone in determinati luoghi. O si pensi, ad esempio, a screening di massa fatte attraverso le foto caricate sui social network da parte di governi anti-lgbt+, dove la persecuzione è già oggi in corso. Al fondo di tutto, conclude Guaiana, c’è un problema enorme di come consideriamo l’identità di genere e l’orientamento: “Sono caratteristiche che hanno a che fare con l’essenza della persona o sono semplicemente desumibili dall’aspetto fisico, dal tono di voce, da come ti muovi? Il vero paradosso è che rischiamo di tornare a Cesare Lombroso.

The post Gli algoritmi che analizzano genere e orientamento sessuale mettono a rischio la comunità lgbt+ appeared first on Wired.



Leggi l’articolo su wired.it