(Getty Images)

Se non sarà la tecnologia a limitare l’intelligenza artificiale, allora dovrà essere l’etica. Ma creare delle intelligenze artificiali basate sul rispetto di “valori” ha senso? E soprattutto, è una buona idea?

A Shanghai, durante l’evento annuale organizzato da Huawei per parlare di cloud, reti e sistemi di calcolo, il tema dell’intelligenza artificiale è stato di importanza primaria. Simmetricamente a quanto giù fanno AWS di Amazon e Google nel suo cloud, i cluster di computer in rete vengono usati per l’addestramento delle reti neurali, che sono i veicoli del machine learning più utilizzati attualmente. Anche la Cina vuole la sua parte e Huawei sta costruendo il servizio da offrire agli sviluppatori locali (e internazionali).

Per questo sul palco dell’evento il tema della “responsabilità delle AI” è tornato, simmetricamente a quanto accade nel dibattito in Occidente, dove più o meno tutti hanno espresso una opinione (tendenzialmente preoccupata) sul ruolo che le AI senza freni possono avere: da Steve Hawkins a Bill Gates.

Perché basare le AI su “valori tradizionali” è un errore
Huawei Connect 2019 (Foto Antonio Dini)

Come ci ha spiegato a Shanghai Wu Shenkuo, Segretario generale del centro di ricerca della Internet Society di Cina, e consulente delle Nazioni Unite: “Quello della sicurezza e protezione della privacy è un tema molto importante, ma lo scenario cambia radicalmente se lo pensiamo nella chiave di quel che può succedere con le intelligenze artificiali”.

La risposta, proposta da Huawei oggi ma già presentata in passato da altri, è logica: diamo una base etica alle AI. Leghiamole a dei valori tradizionali.

E qui c’è il problema degno di un romanzo di Isaac Asimov (già padre delle tre leggi della robotica): legare le AI a dei valori cosa vuol dire? E se sono “tradizionali” per di più? Parliamo di valori condivisi dalla società americana o di quelli della società cinese? O degli europeo? (Ma anche qui: italiani, francesi, tedeschi e spagnoli fanno già abbastanza confusione). E poi, se anche fossimo d’accordo sul “posto”, di quale generazione parliamo? I valori dei nonni o dei giovani millennial? Quelli dei figli del ’68 o quelli dei figli dell’11 settembre? Esiste un set di valori universali capace di abbracciare tutti, dai giovani in coda davanti agli Apple Store di Shanghai per comprare il nuovo iPhone 11 a quelli di Hong Kong che protestano per la propria città?

Le AI faranno delle scelte o più probabilmente forniranno indicazioni, valutazioni e consigli per scelte fatte da operatori umani su milioni di casi diversi. E le loro scelte, anche le più innocenti, avranno delle conseguenze etiche. Prima di addestrarle a rispettare dei “valori”, men che meno “tradizionali”, forse è il caso di affrontare il problema e parlarne in maniera più esplicita e soprattutto problematica, non partendo da un punto di vista già preconfigurato.

The post Perché basare le AI su “valori tradizionali” è un errore appeared first on Wired.



Leggi l’articolo su wired.it