20 (foto: Alain Pitton/NurPhoto)

Da una parte gli Stati Uniti, che mantengono il primato nel campo dell’intelligenza artificiale grazie alla ricerca avanzata di attori pubblici come la Darpa e di privati come Google, Amazon, Facebook e gli altri. Dall’altra la Cina, già oggi all’avanguardia nel settore del riconoscimento immagini e che punta a diventare leader della Ia entro il 2030; anche approfittando di investimenti diretti di decine di miliardi di dollari, del massiccio afflusso di dati garantito dai suoi 1,4 miliardi di abitanti (in un paese in cui le leggi sulla privacy sono molto lasche) e dei costanti progressi di colossi come Baidu, Tencent, Alibaba, oltre a startup come SenseTime o Megvii.

In tutto questo, come si posiziona l’Europa? Che il Vecchio continente stia rimanendo indietro rispetto alle due superpotenze tecnologiche non è un segreto. Nell’aprile 2018, la Commissione europea ha però battuto un colpo e presentato finalmente un piano di investimenti: “Il nostro obiettivo da qui al 2020 è investire direttamente 1,5 miliardi di euro e convincere il settore privato a entrare in gioco con almeno 20 miliardi”, ha spiegato il vicepresidente della Commissione Andrus Ansip.

Il progetto europeo più ambizioso – la creazione di un laboratorio congiunto europeo sulla IA (chiamato Ellis, European Laboratory for Learning and Intelligent Systems) – ha invece mosso i suoi primi passi nel dicembre dello scorso anno, potendo contare sul supporto di realtà europee (più che altro tedesche: Audi, Siemens, Bayer, Porsche e altre) e statunitensi (tra cui le solite Google, Facebook e Amazon).

Tutto questo rappresenta un netto passo avanti; ma è appena sufficiente a scalfire i timori di numerosi esperti sull’ormai irrecuperabile arretratezza dell’Europa. Potrebbe perciò non essere un caso che il Vecchio continente, tenendo fede al suo soprannome, abbia deciso di puntare su una qualità a cui, soprattutto in questo campo, non sempre viene dato il giusto valore: la saggezza.

Per la precisione, la Commissione europea è stata la prima istituzione al mondo a stilare, nell’aprile 2019, le “linee guida etiche per un’intelligenza artificiale affidabile”. Il documento, elaborato da 52 esperti, prevede che i sistemi di deep learning debbano essere, da un punto di vista tecnico, “rispettosi della legge e dei valori etici; in entrambi i casi tenendo in considerazione l’ambiente sociale”.

Per ottenere questi obiettivi (tanto vaghi quanto ambiziosi), gli esperti europei si sono focalizzati su sette requisiti chiave. Prima di tutto, gli esseri umani devono sempre essere in grado di supervisionare i sistemi di Ia e dev’essere sempre pronto un piano di riserva “nel caso in cui qualcosa vada per il verso sbagliato”; oltre a essere rispettate tutte le norme in materia di privacy.

Non solo: le decisioni dei sistemi di deep learning devono essere trasparenti (e comprensibili da qualunque attore interessato, non solo dai tecnici), non essere afflitte da pregiudizi sociali e devono produrre beneficio per tutta la società, evitando di esacerbare le discriminazioni e la marginalizzazione dei gruppi più vulnerabili.

Nell’estate di quest’anno dovrebbe venire pubblicato un documento che sviluppa in senso più pratico questi principi generali. Già adesso, però, ci si può chiedere cosa significhi pretendere che i sistemi di intelligenza artificiale si comportino in maniera etica e non discriminatoria. La risposta a questa domanda è in due termini tecnici: black box e pregiudizio dell’algoritmo.

A differenza dei classici software (che eseguono un codice che spiega loro che cosa devono fare), i programmi basati sul deep learning imparano da soli; sfruttando un set di dati che consente loro di apprendere un compito specifico. Una volta che hanno imparato a eseguire questo compito (per esempio, riconoscere un gatto in una foto) non c’è modo di sapere con esattezza perché sono riusciti a imparare. Per un essere umano, insomma, è praticamente impossibile analizzare i miliardi di calcoli compiuti dall’algoritmo e scoprire esattamente come la macchina è riuscita a riconoscere i gatti. Sotto questo aspetto, dunque, il deep learning è una scatola nera (black box) dentro la quale non c’è modo guardare.

Il problema della black box è strettamente collegato a quello del pregiudizio dell’algoritmo. In svariate occasioni, i sistemi di riconoscimento facciale (come Amazon Rekognition) hanno dimostrato di discriminare le persone di colore (riconoscendole con un’accuratezza inferiore e quindi compiendo più errori nei loro confronti); mentre gli algoritmi di analisi del testo hanno in alcuni casi giudicato negativamente aggettivi come “ebreo” od “omosessuale”. Non sono gli unici casi, ma il problema è evidente: utilizzando set di dati creati da esseri umani, gli algoritmi rischiano di fare loro gli stessi pregiudizi della società.

In poche parole, se nelle foto di agenzia (usate spesso come database) sono presenti in larghissima maggioranza uomini bianchi, come ci si può aspettare che un sistema allenato con queste immagini impari a distinguere in maniera ugualmente accurata le donne di colore (che infatti sono quelle che subiscono le maggiori discriminazioni algoritmiche)? Spesso, però, questi pregiudizi non sono facilmente riconoscibili, anche a causa della già citata black box. Poniamo il caso degli algoritmi che scelgono a chi concedere un mutuo: come si fa a scoprire se questo sistema prende decisioni viziate da pregiudizi, se non c’è modo di analizzare i meccanismi da cui le decisioni scaturiscono?

È per queste ragioni che l’Europa – dopo essere stata all’avanguardia nella protezione dei dati con il Gdpr– sta promuovendo l’uso responsabile delle nuove tecnologie anche nell’intelligenza artificiale; nella speranza di diventare leader nel campo della Ia affidabile e conquistare la fiducia dei consumatori europei.

“L’etica e la competitività sono intrecciate”, ha spiegato Pekka Ala-Pietila, a capo del gruppo di esperti assoldati dalla Commissione europea. “Dobbiamo creare un ambiente in cui l’utilizzo della Ia è considerato affidabile. Se questa necessità si consoliderà, le aziende saranno incentivate a creare prodotti e servizi in cui l’etica è parte del loro vantaggio competitivo”. E così, saranno proprio le società europee le prime ad avvantaggiarsene.

“Sono sicura che che queste linee guida etiche saranno portatrici di innovazione nel campo dell’intelligenza artificiale: la storia ci darà ragione”, ha affermato il commissario europeo al Digitale Mariya Gabriel. Non tutti, però, sono convinti che questa strada sia la migliore da seguire. Secondo Daniel Castro, vicepresidente del think tank Itif, si tratta di una visione ingenua e che causerà un ulteriore ritardo dell’Europa rispetto a Cina e Stati Uniti: “Ai consumatori interessa che un prodotto sia efficace”, ha spiegato Castro a Politico. “Non c’è nessuna prova che siano invece disposti a pagare per un prodotto soltanto perché etico”.

A queste obiezioni, il gruppo di esperti ha risposto sottolineando come, finora, non siano stati presentati “prodotti affidabili nella maniera in cui abbiamo proposto di progettarli”. Così come ci sono consumatori disposti a pagare di più per avere cibi biologici, secondo il ragionamento europeo ci saranno consumatori che richiederanno una Ai affidabile. Magari non servirà a competere con Alibaba e Google, ma si potrebbe creare una nicchia di mercato più esigente e quindi interessata ai prodotti etici made in Europe.

In tutto questo, non mancano però ulteriori ostacoli da superare: la grande attenzione dell’Europa nei confronti della privacy si riflette inevitabilmente sulla quantità di dati che le aziende possono raccogliere e utilizzare. E dal momento che proprio i dati sono il cibo di cui gli algoritmi di intelligenza artificiale si nutrono, è inevitabile subire delle penalizzazioni rispetto a nazioni dove la protezione delle informazioni personali è molto meno rigida (com’è il caso degli Usa e ancor più della Cina).

Quello che è evidente, è che l’Europa – quasi ammettendo la sua incapacità di competere da un punto di vista esclusivamente tecnologico – sta provando a ritagliarsi un suo spazio nell’uso responsabile delle nuove tecnologie. Il continente che ha prodotto il Gdpr e che per primo ha stilato le linee etiche nel campo delle auto autonome, adesso ha rivolto la sua attenzione verso l’intelligenza artificiale nel suo complesso.

Il ruolo dell’Europa assomiglia sempre di più a quello del vecchio saggio alle prese con ragazzi scalpitanti e poco giudiziosi (Usa e Cina). Se riuscirà a stabilire dei principi fondanti (come in parte è avvenuto con il Gdpr) in un campo di cruciale importanza come quello dell’intelligenza artificiale, potrà sicuramente cantare vittoria.

The post In che senso l’Europa punta sull’intelligenza artificiale “etica” appeared first on Wired.



Leggi l’articolo su wired.it