È fin troppo facile ingannare l’intelligenza artificiale. L’ultima dimostrazione si è avuta pochi giorni fa, quando due ricercatori di McAfee hanno beffato l’autopilot delle Tesla (che, a dispetto del nome, è in realtà un assistente di guida) modificando leggermente i cartelli stradali che riportavano il limite di velocità. In sintesi, è bastato usare del nastro adesivo per far credere al software delle Tesla che il limite fosse di 85 miglia orarie invece di 35. Un portavoce di Mobileye, la compagnia che fornisce il sistema di guida autonoma all’azienda fondata da Elon Musk, si è difeso spiegando che quel trucco avrebbe ingannato anche l’occhio umano.

Non si è trattato però dell’unico caso che ha coinvolto una Tesla. Soprattutto, è ormai noto come siano sufficienti delle leggere modifiche, a volte anche invisibili all’occhio umano, per mettere in crisi il sistema di riconoscimento immagini basato su deep learning (l’algoritmo alla base di quasi tutto ciò che oggi chiamiamo intelligenza artificiale). È una disciplina nota come adversarial attack e che, ironicamente, è stata studiata proprio dai ricercatori di OpenAI, la non-profit finanziata da Elon Musk per studiare limiti e potenzialità dell’intelligenza artificiale. È bastato per esempio applicare una leggera distorsione alla foto di un panda per far credere a un algoritmo di image recognition di trovarsi di fronte a un gibbone (un primate). Lo stesso sistema è stato utilizzato per creare le t-shirt che mandano in tilt i sistemi di riconoscimento facciale e potrebbe venire impiegato anche per ingannare i droni in ambito militare.

A peggiorare la situazione, però, c’è un altro aspetto. Non è sempre necessario che siano gli esseri umani a ingannare le intelligenze artificiali: questi sistemi riescono a ingannarsi benissimo da soli. L’esempio più illuminante ha come protagonisti dei gatti. Nel tentativo di insegnare a un sistema di deep learning a creare in autonomia delle fotografie di gatti, gli addestratori hanno fornito all’algoritmo centinaia di migliaia di immagini prese da internet. Ma c’è un problema: i gatti sono gli indiscussi protagonisti di innumerevoli meme. In cui, quindi, oltre all’immagine è presente anche una parte testuale. Risultato? L’intelligenza artificiale si è convinta che il testo del meme fosse parte integrante di ciò che un gatto è. E quindi non ha riprodotto solo dei gatti, ma ha anche ricreato (a suo modo) il testo, perché statisticamente sicura che fosse un elemento costitutivo del gatto.

Cosa serve all’intelligenza artificiale per diventare più intelligente

Perché avviene una cosa del genere? Semplicemente, perché l’intelligenza artificiale utilizza la statistica per portare a termine i suoi compiti. Se nella maggioranza delle immagini di gatti che le vengono fornite è presente del testo, è quindi inevitabile che lo consideri parte del gatto. Se si vuole generalizzare, si può dire che il problema dell’intelligenza artificiale è che gli algoritmi di deep learning sono bravissimi a portare a termine alcuni compiti ma non hanno la più pallida idea di cosa stiano facendo. Anche quando riconoscono il nostro volto su Facebook o sconfiggono il campione mondiale di scacchi, stanno solo scovando le correlazioni nascoste tra centinaia di migliaia di dati e traendo da ciò le loro conclusioni.

Ma individuare correlazioni può portare a conclusioni decisamente azzardate. Per esempio, lo sapevate che negli Stati Uniti la quantità di persone morte in piscina è direttamente correlata alla quantità di film con Nicholas Cage usciti in un anno? O che il consumo di panna acida è correlato ai decessi causati dagli incidenti in moto? Per noi esseri umani è facile capire che si tratta di collegamenti privi di qualunque significato (detto in linguaggio più tecnico, sono correlazioni spurie). Per un sistema di intelligenza artificiale, che si basa esclusivamente sulla statistica, la correlazione tra fumo di sigarette e tumori ai polmoni ha lo stesso valore di quella tra i morti annegati e i film con Nicholas Cage.

Cosa serve all’intelligenza artificiale per diventare più intelligente

È un grosso limite per l’avanzata dell’intelligenza artificiale. Che mostra anche perché avremmo dovuto usare più cautela prima di affidare a questi sistemi compiti importanti come decidere a chi erogare un mutuo o a quali carcerati offrire la libertà vigilata, visto che le loro decisioni potrebbero essere basate su correlazioni che non hanno alcun valore. Come mai si presenta questo problema? “La ragione è che i sistemi di intelligenza artificiale non comprendono la causalità. Vedono solo che alcuni eventi sono associati con altri, ma non sono in grado di verificare quale cosa stia direttamente facendone avvenire un’altra”, si legge sulla Mit Tech Review. “Sarebbe come se tu sapessi che la presenza delle nuvole rende più probabile la pioggia, ma non potessi comprendere che sono proprio le nuvole a causare la pioggia.

In poche parole, le Ai non possono capire la relazione causa-effetto. Volendo, si potrebbe dire che mancano completamente di buon senso. Questo non rende solo problematiche alcune applicazioni dell’intelligenza artificiale, ma limita seriamente i loro potenziali progressi. Un esempio recente è relativo a Google Duplex, il nuovo progetto di assistente digitale capace di prenotare per telefono un appuntamento dal parrucchiere o un tavolo a ristorante, comunicando a voce e rispondendo alle domande gli vengono poste.

Nonostante la prima dimostrazione di questo sistema sia stata accolta con entusiasmo dal pubblico presente, la verità è che Google Duplex non è l’alba delle macchine intelligenti in grado di comunicare come l’essere umano. Per il momento, infatti, può agire solo all’interno di ambiti estremamente circoscritti, com’è il caso delle prenotazioni del ristorante o del parrucchiere. Come ha scritto il neuroscienziato Gary Marcus, “Google Duplex non è così limitato perché sta compiendo i primi passi verso obiettivi ben più ambiziosi; la verità è che gli esperti di intelligenza artificiale non hanno nessuna idea di come riuscire a fare meglio di così. Le conversazioni non predefinite in cui si affrontano una vasta gamma di argomenti non sono ancora nemmeno in vista”.

La ragione è sempre la stessa: l’intelligenza artificiale può scovare le correlazioni che caratterizzano una comunicazione relativa alla prenotazione del parrucchiere o del ristorante (dopo aver ricevuto centinaia di migliaia di esempi da analizzare) e così individuare qual è la risposta statisticamente più corretta da dare quando le vengono poste determinate domande, ma per poter affrontare delle discussioni di carattere più ampio serve la capacità, tipicamente umana, di astrarre e generalizzare. In poche parole, serve il buon senso.

“La tecnica che ha consentito alle macchine di diventare campioni di giochi come gli scacchi e il Go è quella dei tentativi ed errori, che consente loro di capire quale mossa potrà far vincere la partita”, si legge ancora sulla Tech Review. “Ma questo approccio non funziona negli ambienti più caotici che contraddistinguono il mondo reale. Non fornisce alla macchina nemmeno una generale comprensione di come giocare altri giochi”.

È per questo che si definisce debole l’intelligenza artificiale oggi utilizzata: perché può eseguire un solo compito per volta e dev’essere interamente riprogrammata per imparare qualcosa di nuovo. Ed è per questo che viene rinviato in continuazione l’avvento delle tanto attese auto autonome, che non sono in grado di navigare in sicurezza ambienti complessi come le città affidandosi solo alla statistica, perché le variabili sono talmente tante che è impossibile ricondurle a un modello probabilistico.

È possibile superare questo limite e fornire alle macchine un po’ di buon senso, facendo comprendere loro il concetto di causa ed effetto? Secondo Elias Bareinboim, direttore del laboratorio di Causal Artificial Intelligence della Columbia University, questo è l’unica strada per conquistare un giorno l’auspicata – e temuta – intelligenza artificiale generale, di livello umano. “Se le macchine potessero capire che alcune cose conducono ad altre, non dovrebbero ricominciare da capo ogni volta che devono imparare qualcosa di nuovo, potrebbero sfruttare ciò che hanno imparato in un campo e applicarlo in un altro”.

Tra gli scienziati che stanno lavorando per portare a termine questa impresa c’è anche Yoshua Bengio, scienziato informatico dell’Università di Montreal e vincitore del Turing Award 2018 – assieme a Yann LeCun e Geoff Hinton – proprio per il suo lavoro nel settore del deep learning. L’obiettivo è fornire alle macchine ciò che Bengio chiama “meta-apprendimento”. Semplificando al massimo, invece di imparare a distinguere le persone che ballano da quelle che corrono mostrando all’algoritmo centinaia di migliaia di immagini di persone che eseguono le due diverse attività (lo stesso modo in cui impara a distinguere un gatto da un cane), la macchina potrebbe apprendere che alcuni movimenti delle gambe causano la danza o la corsa, e poi applicare questo concetto per comprendere che è sempre grazie alle gambe che le persone saltano, camminano o calciano un pallone.

Sarebbe un primo passo verso la comprensione del rapporto di causa ed effetto e anche verso una generalizzazione della conoscenza. Non è detto che sia sufficiente per arrivare all’intelligenza artificiale di tipo umano, ma una cosa è certa: senza un briciolo di buon senso, gli algoritmi di deep learning non impareranno mai a distinguere un meme da un gatto.

The post Cosa serve all’intelligenza artificiale per diventare più intelligente appeared first on Wired.



Leggi l’articolo su wired.it