Si racconta spesso come il vero motore dell’innovazione digitale sia il porno. Dalla diffusione dei vhs ai pagamenti elettronici, fino alla realtà virtuale: una buona parte delle tecnologie che hanno segnato gli ultimi decenni si sono diffuse anche grazie all’industria a luci rosse. L’ultimo esempio di questa tradizione è il deepfake, lo strumento che grazie al deep learning permette di sostituire i volti di due persone (face swapping) e soprattutto di manipolare i video per far dire a chiunque tutto quello che si vuole, riproducendone la voce e sincronizzando il labiale. In poche parole, rendendo indistinguibile un video fake da uno autentico.

Come avviene di frequente quando si tratta di strumenti che sembrano creati apposta per scatenare troll, ondate di panico e teorie del complotto, anche i deepfake nascono su Reddit. La loro prima notorietà si deve infatti a un utente noto (non a caso) come Deepfakes, che attorno al dicembre 2017 iniziò a diffondere filmati porno in cui le protagoniste femminili avevano il volto di alcune star di Hollywood.

La prima vittima, Gal Gadot

A farne le spese fu soprattutto Gal Gadot, l’attrice diventata famosa grazie a Wonder Woman e che suo malgrado divenne la diva prescelta per la prima invasione dei deepfake di Reddit. Non è stata l’unica vittima: Jessica Alba, Taylor Swift, Daisy Ridley e molte altre iniziarono a ritrovarsi a loro insaputa protagoniste di film porno.

A differenza delle immagini taroccate che da sempre imperversano su internet, i risultati ottenuti con gli algoritmi di face swapping sono estremamente accurati. Non solo: questi software non sono creati e custoditi da scienziati informatici che lavorano nei laboratori di intelligenza artificiale, ma sono reperibili ovunque e sempre più facili da usare. Così, subito dopo l’avvento dei primi deepfake, si sparge il timore di una loro diffusione incontrollata.

Timori ben riposti: le applicazioni come FakeApp, che permettono a chiunque di cimentarsi in questo triste gioco, iniziano a circolare in brevissimo tempo. “Voglio che il mio programma diventi preciso al punto che gli utenti possano scegliere un video dal loro computer, scaricare un network neurale collegato a un determinato volto, sfruttando una libreria disponibile pubblicamente, e sostituire il viso del protagonista del video con un altro, semplicemente schiacciando un tasto, raccontò a Motherboard Usa uno dei creatori di questi software.

Il turno di Barack Obama

A poco è servita la messa al bando, nel febbraio 2018, del canale di Reddit dedicato ai vari deepfakes. Il dado, ormai, è tratto. E così, da Gal Gadot e le altre celebrità, si passa a Barack Obama e al mondo della politica. È proprio l’ex presidente degli Stati Uniti a diventare protagonista del più celebre video dedicato ai deepfake. Un video in cui un finto Obama – indistinguibile da quello vero, con la sua voce e il labiale perfettamente sincronizzato – afferma: “Potrei dire cose come ‘Killmonger aveva ragione’. Oppure che il presidente Trump è un completo stronzo.

“Potrebbe” dire tutte queste cose. Perché il video in questione (quasi 7 milioni di visualizzazioni) è stato ideato e pubblicato nell’aprile 2018 da BuzzFeed, con la collaborazione di Jordan Peele (il regista di Get Out), allo scopo di mettere in guardia sui rischi di questi contenuti. Missione compiuta. Nella mente di tutti inizia infatti a formarsi una domanda: ma se sono bastate le fake news per scatenare il panico, cosa succederà quando questa tecnologia verrà usata a fini elettorali e in rete circoleranno video finti in cui politici veri vengono piazzati nelle situazioni più imbarazzanti o dicono cose che non hanno mai nemmeno pensato?

Un timore reso ancora più concreto dal fatto che le persone – che ormai tendono a diffidare dalle news – considerano invece naturalmente vero ciò che appare in video. Per la serie: “L’ho visto coi miei occhi”. E infatti, dopo Gal Gadot e Barack Obama, a fare le spese dei più noti programmi di deepfake (ormai alla portata di qualunque utente scarichi software come Fsgan) sono anche Donald Trump e Vladimir Putin.

Nancy Pelosi ubriaca

Ma la prima vera vittima è Nancy Pelosi (speaker democratica della Camera Usa), che in un video manipolato del maggio 2019 appare come se stesse parlando a un convegno completamente ubriaca. A differenza degli altri e più evidenti video falsi, in questo caso in tanti ci cascano, compreso Rudolph Giuliani, ex sindaco di New York e oggi avvocato di Trump (anche perché la Pelosi è detestata dalla destra americana più becera, una sorta di Laura Boldrini d’oltreoceano).

In uno scenario da Dottor Stranamore, ce n’è abbastanza da far scoppiare una guerra mondiale perché qualche adolescente, nel buio della sua stanzetta, si sta divertendo a manipolare video di Kim Jong-un o Xi Jinping. Tanto più che, nel giugno di quest’anno, Mark Zuckerberg ha fatto sapere che Facebook non rimuoverà i deepfake. La scusa ufficiale è che “non abbiamo una politica che stipuli che le informazioni pubblicate su Facebook debbano essere vere”. La verità, probabilmente, è che riconoscere immediatamente i deepfake è complesso e il social network non se la sente di ingaggiare un’altra battaglia dopo i ripetuti fallimenti sul fronte delle classiche fake news.

Da Mark Zuckerberg a Matteo Renzi

Tempo qualche giorno, ed è proprio Mark Zuckerberg a fare le spese della sua politica: “Immaginate questo per un secondo: un solo uomo, con totale controllo sui dati di miliardi di persone, i loro segreti, le loro vite, il loro futuro. Devo tutto alla Spectre. La Spectre mi ha mostrato che chiunque controlla i dati, controlla il futuro”. A pronunciare queste parole è proprio il fondatore di Facebook, in un ennesimo deepfake creato proprio per mettere alla prova la volontà del social network di non rimuovere questo tipo di contenuti.

E così, arriviamo all’attualità. A Matteo Renzi che a Striscia la Notizia afferma che “Conte c’ha la faccia da cretino e Zingaretti ha il carisma di Bombolo” e che fa le pernacchie a Mattarella, senza che si faccia la necessaria divulgazione sul tema e quindi esponendosi al rischio che una parte della popolazione non si renda conto di che cosa sta vedendo.

Come dare loro torto? D’altra parte, secondo un report appena pubblicato, nemmeno l’intelligenza artificiale – su cui vengono riposte le speranze di identificazione dei deepfake – potrebbe essere in grado di scovare con la necessaria accuratezza questi video manipolati. “A un certo punto, probabilmente non sarà più possibile identificare i deepfake usando strumenti automatici, di conseguenza è necessario un differente approccio”, ha spiegato Hao Li, docente alla University of South California.

Quale approccio? Inevitabilmente, bisogna passare dall’educazione e da una maggiore consapevolezza: “Sul web bisogna comportarsi come se ogni giorno fosse il primo d’aprile, si legge in uno studio per il Parlamento europeo. Il problema è che anche un criterio basato sulla più totale diffidenza verso tutto ciò che vediamo online (e non solo) rischia di avere non pochi rovesci della medaglia e di generare una cultura del sospetto al limite dell’isteria. Come se ne esce? Difficile a dirsi. Il rischio, secondo alcuni, è di trovarci presto di fronte al collasso della realtà, in cui nessuno distingue più il vero dal falso e in cui le persone non sanno più a cosa credere; uno scenario che avrebbe reso fiero Philip K. Dick.

The post L’invasione dei deepfake: tutti quelli di cui forse non vi ricordate appeared first on Wired.



Leggi l’articolo su wired.it