Digital Human Brain Covered with Networks

Sono utilizzate nel marketing, nella finanza, per predire le condizioni meteorologiche, assisterci nella vita quotidiana o rendere più realistiche le nostre sessioni di gioco. Alcune delle intelligenze artificiali che ci accompagnano sono utili, altre sono figlie dell’idea che la tecnologia possa dare una risposta a tutto. Insieme però pongono sul tavolo una questione rilevante: come sono realizzate, da chi e che impatto hanno sugli esseri umani? Stiamo parlando di etica, anche se la ricerca di cosa sia bene o male è un concetto che accompagna gli esseri umani più che le macchine.

Il dibattito sull’etica degli algoritmi o della tecnologia è molto florido negli ultimi anni. Ne discutono associazioni o autorità internazionali, così come l’Unione europea. Il 21 aprile proprio quest’ultima ha pubblicato una proposta di regolamentazione delle intelligenze artificiali, con un approccio che mette al centro l’individuo e che classifica le tecnologie su diversi livelli di rischio. Una proposta che da molti difensori dei diritti umani, anche digitali, è stata definita deludente poiché vaga e poco dettagliata sugli utilizzi concreti di alcune tecnologie, come il riconoscimento facciale

I dati non sono la realtà, ma una rappresentazione

Alla base di almeno una parte del discorso sull’etica delle intelligenze artificiali c’è l’idea che un algoritmo, ovvero un programma informatico che compie una serie di azioni per arrivare ad un dato obiettivo, sia dotato della capacità di definire cosa sia meglio o peggio fare davanti ad un quesito posto dai suoi sviluppatori.

Gli algoritmi però si possono definire dotati di un “agire morale” nel senso che noi umani deleghiamo alle macchine scelte e decisioni che hanno, a volte, anche un impatto etico. La risposta dell’algoritmo viene considerata oggettivamente corretta perché basata sui dati, ma qualsiasi dato creiamo non corrisponde alla realtà bensì a una rappresentazione della stessa. “Qualcuno, in un dato momento, decide esplicitamente di collezionare dei dati su un certo fenomeno. Ciò significa che decide quali sono i parametri e le proprietà rilevanti a tal fine: se andiamo all’ospedale per fare dei controlli ci daranno delle informazioni sulla pressione del sangue, non sul colore delle nostre calze”, commenta a Wired Virginia Dignum, docente del dipartimento di Scienze informatiche dell’Università Umeå in Svezia

In questa prima fase stiamo quindi già esprimendo preferenze o pregiudizi su cosa riteniamo utile alla nostra classificazione del dato. Oltre a ciò, sono da considerare anche altri due punti. “A volte i dati che raccogliamo per uno scopo A sono potenzialmente utilizzati per uno scopo B, e molto spesso sono combinati con altri dati che non sono stati collezionati con gli stessi requisiti o parametri”, continua Dignum.

Inoltre, per capire qual è l’impatto di un sistema di intelligenza artificiale sulle nostre vite è necessario pensare anche al modo in cui vengono “allenati” gli algoritmi, ovvero come le macchine apprendono gli input forniti dagli sviluppatori. “Un modo molto utilizzato è quello del supervised learning (apprendimento sotto controllo, nda), che consiste nel fornire al sistema una serie di esempi che corrispondono a una certa definizione, per esempio identificare o meno un cane in una foto continua Dignum-. Questa procedura di tagging è nella maggior parte dei casi realizzata da esseri umani, spesso sotto pressione, pagati poco o non pagati per niente”. Di questo tema ha discusso Antonio Casilli, sociologo e professore all’Università Télécom di Parigi, nel libro Schiavi del clic, in cui si fa riferimento anche a una pratica di login che svolgiamo pressoché tutti i giorni quando accediamo a numerosi servizi online. A chi non è capitato infatti di segnalare semafori, idranti, montagne, macchine, per assicurare alle piattaforme digitali la nostra natura umana e non artificiale (a volte invano).

In queste procedure di tagging tendiamo a individuare oggetti che ci sono familiari, contribuendo all’insinuazione di pregiudizi all’interno del sistema. I risultati che derivano dall’apprendimento delle intelligenze artificiali possono portare a falsi negativi (non c’è un cane nell’immagine ma in realtà c’è) o a falsi positivi (c’è un cane anche se così non è) che hanno profonde conseguenze, così come emerso da una ricerca svolta dai giornalisti di ProPublica nel 2016 sull’algoritmo Compas, utilizzato per stabilire la possibilità di recidiva di criminali americani (risultata più bassa) o afroamericani (risultata più alta). 

Più che di etica si dovrebbe parlare di potere

Pensiamo a un algoritmo che categorizza l’imputato in un processo penale: se un giudice decide che l’imputato sarà libero o meno basandosi esclusivamente sulla previsione di questo algoritmo, si può affermare che l’algoritmo ha avuto un certo tipo di agency morale. Questo però non significa affatto che gli algoritmi siano “etici””, commenta Gry Hasselbach, ricercatrice indipendente sui temi dell’etica dei dati e delle intelligenze artificiali e membro del gruppo di esperti sull’intelligenza artificiale della Commissione europea tra il 2018 e il 2020. 

Se un algoritmo fa una previsione distorta perchè è stato addestrato su dati pieni di pregiudizi che portano a una discriminazione, non “si preoccupa” degli effetti che ha creato perché fondamentalmente non mette in discussione il proprio giudizio. Solo gli esseri umani hanno la capacità critica per farlo” continua Hasselbach. La proposta di regolamentazione europea sulle intelligenze artificiali mette al centro delle decisioni “etiche” l’uomo, e ciò è ritenuto da entrambe le ricercatrici un passo in avanti soprattutto perché negli ultimi anni abbiamo visto come vari impieghi delle intelligenze artificiali siano sfuggite di mano ai privati, così come al settore pubblico.

Benché la manipolazione suggestiva, il social scoring e i rischi per i gruppi vulnerabili siano stati proibiti, “mi preoccupano le scappatoie per l’utilizzo di questa tecnologia per questioni di sicurezza pubblica. Prevedere eccezioni significa consentire la progettazione di uno spazio pubblico che tecnicamente è incline alla sorveglianza e agli squilibri di potere, un problema molto serio in una società democratica” commenta Hasselbach. La creazione di team con figure professionali diverse per etnia, genere ed età può effettivamente fare la differenza e non solo perché include. Il coinvolgimento umano è utile quando conscio delle dinamiche di potere, dei vari interessi e dei pregiudizi presenti nella nostra società.  

Penso che concentrarsi sul design dell’Ai non sia la strada da percorrere. Abbiamo bisogno di un approccio più orizzontale: il bias può iniziare e finire ovunque in un sistema di intelligenza artificiale. Nella scelta del modello, nella progettazione dei compiti, nell’elaborazione dei dati prima e dopo, nell’uso e nell’adozione. Ma anche se ci sedessimo e aggiungessimo manualmente immagini di persone non bianche a un database di persone bianche, i bias troverebbero sempre un modo per entrare nell’intelligenza artificiale. Perché i pregiudizi derivano dalle dinamiche generali del potere nella società, continua Hasselbach.

Gli effetti discriminatori dell’Ai si verificano molto spesso perché i modelli che le regolano vengono adottati in modo acritico e hanno la priorità sul processo decisionale umano. L’intelligenza artificiale è solo un sistema di dati che agisce e si comporta come se fosse completo. Quindi qualunque azione si metta in campo nella progettazione dell’Ai, questa è solo una modifica in un quadro più ampio di soluzioni a problemi sociali sistemici e molto complessi. Come spiega Kate Crawford nel suo libro Atlas of Ai, che indaga da un punto di vista politico, sociale e ambientale lo sviluppo delle intelligenze artificiali, ci dovremmo interrogare su chi tiene le redini di questo “progresso tecnologico” e che tipo di mondo vogliamo costruire per il nostro futuro.

The post Ha senso parlare di etica degli algoritmi? appeared first on Wired.



Leggi l’articolo su wired.it