Gli esempi ormai si sprecano: algoritmi incaricati di decidere quali carcerati hanno diritto alla libertà condizionale che discriminano i neri, programmi per la valutazione di testi narrativi che danno punteggi negativi a frasi come “sono gay”, sistemi di riconoscimento facciale che si dimostrano inaccurati quando si tratta di individuare uomini e (ancor più) donne appartenenti alle minoranze etniche e tantissimi altri ancora

Negli ultimi anni, il tema del pregiudizio algoritmico è finalmente finito sotto la luce dei riflettori, tanto da essere al centro di libri di successo – come Armi di distruzione matematica di Cathy O’Neil o Automating Inequality di Virginia Eubanks – ed entrare anche nel dibattito politico (statunitense) grazie all’esplicita denuncia di Alexandria Ocasio-Cortez e alla decisione della città di San Francisco (e non solo) di vietare il riconoscimento facciale.

In un mondo in cui gli algoritmi di intelligenza artificiale sono utilizzati per scopi sempre più delicati e importanti (tra cui assumere i candidati a un lavoro o decidere a chi erogare un mutuo), non possiamo acccettare che questi sistemi perpetuino e automatizzino i pregiudizi esistenti nella società: bisogna creare delle intelligenze artificiali eque, giuste e neutrali. Già, ma come?

Spesso si sottolinea come il problema principale sia la raccolta dei dati utilizzati per l’addestramento di questi sistemi: “Se inserisci spazzatura, uscirà spazzatura”, dicono i data scientist, intendendo che se i dati utilizzati per addestrare le intelligenze artificiali – che nella forma più comune sono strumenti statistici in grado di scovare correlazioni all’interno di immensi database – sono difettati in qualche modo, il risultato non potrà che essere pessimo. Ed è esattamente ciò che è avvenuto, per fare un esempio ormai classico, con gli algoritmi di riconoscimento facciale che – addestrati soprattutto con volti di persone bianche – si sono dimostrati troppo imprecisi quando si tratta di identificare persone nere, con risultati inquietanti.

È quindi sufficiente fare attenzione in fase di raccolta dati per risolvere il pregiudizio algoritmico? Purtroppo, le cose non sono così semplici. “Si prendano in considerazione i sistemi di machine learning utilizzati nella polizia predittiva, in cui agli algoritmi viene fornito uno storico dei dati relativi ai crimini allo scopo di prevedere la loro futura distribuzione geografica”, spiega sulla Boston Review Annette Zimmermann, docente di Etica dell’Intelligenza Artificiale a Princeton. “L’algoritmo segnala i quartieri più soggetti ai crimini violenti: su questa base, i dipartimenti di polizia decidono dove mandare i loro agenti”.

In questo caso, non ci sono dati selezionati in maniera inaccurata. Ciononostante, molteplici studi hanno dimostrato come anche gli algoritmi di polizia predittiva non facciano che automatizzare i pregiudizi già esistenti. La ragione è semplice: i dati saranno anche selezionati in maniera neutra, ma sono essi stessi intrisi di pregiudizi: “Sappiamo che le comunità più emarginate sono soggette a eccessivi controlli, prosegue Zimmermann. “Di conseguenza, in queste aree vengono scoperti più crimini e quindi vengono fatti più arresti (…). Inevitabilmente, i dati associati sono distorti.

E così, si crea un circolo vizioso: alcune comunità appaiono in maniera sproporzionata nei database relativi alle attività criminali a causa di una sorveglianza eccessiva, gli algoritmi segnalano di conseguenza queste zone come le più pericolose, portando a ulteriore sorveglianza e quindi a maggiori arresti. I dati non sono stati selezionati in maniera parziale o errata: sono essi stessi intrisi di pregiudizi umani. Una situazione simile si è verificata con un algoritmo sperimentale di Amazon per il reclutamento di professionisti. Dal momento che, storicamente, alcuni lavori sono stati eseguiti per lo più da uomini, l’algoritmo che doveva vagliare i curriculum favoriva i candidati uomini rispetto alle donne. Non erano i dati a essere selezionati in maniera distorta, erano distorsioni decennali relative al mondo del lavoro a condizionare l’algoritmo (che quindi è stato ritirato).

In una società caratterizzata da profonde diseguaglianze, è possibile evitare che questi problemi – che si stanno verificando in qualunque ambito – continuino a presentarsi? “Prima di tutto, le aziende produttrici devono documentare chiaramente tutti i modi in cui hanno cercato di minimizzare – e quindi di misurare – il trattamento discriminatorio, ha scritto Andrew Burt sulla Harvard Business Review. Devono, in altre parole, monitorare e documentare attentamente i loro sforzi per ridurre l’ingiustizia algoritmica. Secondariamente, “le organizzazioni devono dare valide giustificazioni per l’eventuale utilizzo di determinati modelli. Qualora esistessero dei sistemi più equi che assicurano il raggiungimento degli stessi obiettivi, ne dovrebbero conseguire determinati obblighi”.

Più che una soluzione al pregiudizio algoritmico, questo sembra però il minimo indispensabile per limitare i danni. Qualche passo in avanti  l’ha invece fatto l’Europa, che in un documento della Commissione stilato da 52 esperti ha individuato 7 linee guida per dare vita a una intelligenza artificiale etica, sottolineando la necessità che gli algoritmi siano tracciabili e trasparenti, che vengano verificati continuamente per ridurre i possibili impatti negativi, che non provochino discriminazioni e altro ancora. Come tutto ciò si possa ottenere praticamente, però, è ancora da capire.

Altrettanto vaga è la strada tracciato in uno studio di IBM, secondo cui “nei prossimi cinque anni, il numero di sistemi e algoritmi affetti da pregiudizi aumenterà. Ma li affronteremo di conseguenza, trovando nuove soluzioni per controllare i bias e liberare da essi i sistemi di AI”. La soluzione, quindi, passa dal portare pazienza e attendere che le evoluzioni tecnologiche rendano il prodotto migliore e più efficiente (e poco male se nel frattempo i più deboli continuano a pagarne le conseguenze).

Nel saggio The Ethical Algorithm, Michael Kearns e Aaron Roth indicano una strada simile: “Crediamo che per ridurre i comportamenti scorretti siano necessari algoritmi migliori, che possano aiutare gli enti regolari, i gruppi di attivisti e altre organizzazioni umane a monitorare e misurare gli effetti non desiderati e non desiderabili del machine learning”. In entrambi i casi, sembra che la soluzione al pregiudizio dell’algoritmo sia sempre la stessa: algoritmi più efficienti, magari con il supporto di un occhio umano esterno.

Funziona questo approccio tecnologico? Alcuni esempi sembrano mostrare come gli effetti collaterali siano sempre dietro l’angolo, anche quando le modifiche all’algoritmo vengono eseguite con le migliori intenzioni. In New Jersey, per esempio, si è deciso di eliminare dai software per la libertà condizionale le informazioni relative all’età, al genere, al livello di educazione, alla residenza e ai precedenti penali della famiglia, per evitare che questi dati diventassero elementi discriminatori nei confronti di chi vive nei contesti più disagiati.

Gli unici parametri mantenuti sono quelli comportamentali, tra cui i precedenti penali del soggetto. Risultato? “Dal momento che le comunità di colore subiscono dei controlli sproporzionati da parte della polizia e, di conseguenza, subiscono arresti a livelli più elevati, anche i dati ‘puramente comportamentali sono comunque correlati alla razza, alla classe e al genere”, scrive ancora Zimmermann. “L’esempio del New Jersey mostra come eliminare le circostanze sociali non conduce a una vera imparzialità.

Giunti a questo punto, il problema è chiaro: per creare algoritmi neutrali dovremmo vivere in una società giusta che quindi ci permette di avere dati altrettanto neutri. Poiché così non è, è inevitabile che ci si trovi in continuazione, anche quando animati dalle migliori intenzioni, alle prese con software discriminatori. Secondo Zimmermann, insomma, non c’è una soluzione tecnologica: “Fare le scelte giuste in questo contesto è tanto un lavoro morale quanto tecnico. I nuovi prodotti farmaceutici hanno spesso effetti collaterali inattesi, ed è proprio per questa ragione che, prima di essere messi in commercio, devono essere sottoposti a test e sperimentazioni rigide e prolungate”.

Se l’utilizzo dell’intelligenza artificiale ha spesso effetti imprevedibili, è a maggior ragione necessario che gli algoritmi siano testati in maniera approfondita – da enti terzi, indipendenti e qualificati – prima di essere impiegati. Non solo: il loro utilizzo in ambiti sensibili deve diventare una materia di discussione che coinvolga l’opinione pubblica. “Soprattutto”, spiega sempre Zimmermann, “perché questi strumenti sono usati per automatizzare decisioni che, in alcuni casi, erano precedentemente prese da funzionari pubblici incaricati da organi democratici o direttamente eletti”.

L’impiego etico dei sistemi di intelligenza artificiale, seguendo le indicazioni di Annette Zimmermann, non passa quindi da possibili progressi tecnici, ma da un controllo preventivo e indipendente che verifichi quali possono essere le problematiche sollevate dall’utilizzo dell’intelligenza artificiale e, prima ancora, dal coinvolgimento dell’opinione pubblica. Questa, d’altra parte, è una materia che ha enormi ripercussioni sui cittadini ed è quindi necessario che essi abbiano voce in capitolo. Così, potremo anche decidere che alcuni sistemi di machine learning preferiamo non vederli proprio in azione, indipendentemente da quanto possano essere ottimizzati.

The post Si può fare a meno del “pregiudizio” degli algoritmi? appeared first on Wired.



Leggi l’articolo su wired.it