(foto: iStock/Getty Images)

Il suo nome è Liam Porr, anche se i suoi articoli sono firmati con lo pseudonimo Adolos. È un giovane studente di informatica all’università di Berkeley, in California, e come hobby ha deciso nelle scorse settimane di aprire un blog sui generis: anziché riempirlo di contenuti originali scritti di suo pugno, li fa scrivere in modo automatico da un’intelligenza artificiale, a cui dà solo qualche imbeccata.

Un’iniziativa che non avrebbe fatto notizia, se non fosse che Porr ha utilizzato un tool tutt’ora in fase beta di sviluppo e non ancora reso pubblico (è riuscito ad avere accesso al tool attraverso “una collaborazione” con un dottorando che fa parte del team di sviluppo), e soprattutto che gli articoli fake scritti in questo modo sono diventati virali e hanno scalato molte classifiche di visualizzazione, guadagnando temporaneamente il primo posto su Hacker News. Nello specifico, il tool di deep learning impiegato si chiama Gpt-3, che sta per Generative Pretrained Transformer, ed è di proprietà della OpenAi di San Francisco.

Una scalata “fin troppo facile”

A rendere eclatante l’esperimento, peraltro partito per gioco, è stata la semplicità con cui grazie all’intelligenza artificiale gli articoli hanno accumulato visualizzazioni. Fino a qualche giorno prima di andare online con il suo finto blog, Porr non era nemmeno a conoscenza dell’esistenza dei software della famiglia Gpt, e in pochissimo tempo (e con molto meno di mezza giornata di lavoro, ha dichiarato) è passato dal non avere contenuti all’essere virale e in cima alle classifiche, con decine di migliaia di visualizzazioni. Solo uno sparuto numero di lettori ha commentato per protestare, ritenendo il contenuto del post “poco autentico”, ma quei commenti sono stati penalizzati dai voti della community. Allo stesso tempo, il blog ha raccolto un buon numero di iscrizioni.

Prima ancora delle questioni strettamente tecniche, l’accaduto ha subito sollevato alcune perplessità di carattere etico: che cosa accadrebbe se quello strumento fosse usato con intenzioni deplorevoli? Vale davvero la pena, una volta terminata la fase di sviluppo, di rilasciare pubblicamente il software Gpt-3, che al momento pare essere il più avanzato al mondo del suo genere? Il primo a porsi queste domande è stato lo stesso Porr, che prima in modo criptico e poi in modo esplicito ha raccontato quali strategie ha adottato per far guadagnare click ai suoi contenuti.

L’altro grande interrogativo, che ormai è un evergreen dei sistemi automatizzati di scrittura, lo ha riproposto il Mit di Boston: siamo ormai al punto in cui un sistema computerizzato e intelligente di scrittura può eguagliare o superare nelle performance i competitor umani? O, detto altrimenti, si potrebbero generare con questi sistemi grandi quantità di testi di disinformazione capaci di ingannare almeno una parte dei lettori? Difficile dare una risposta, ma i risultati ottenuti con un software addestrato solo da metà luglio e usato da un neofita per pochi giorni lasciano intendere che si stiano facendo passi da gigante.

Tecnologia e astuzia per la viralità

A conti fatti, sono almeno un paio gli ingredienti (altrettanto importanti) che si sono rivelati vincenti. Anzitutto l’innegabile valore tecnologico del software di intelligenza artificiale, che dopo aver digerito miliardi di strutture sintattiche e di collegamenti logici tra parole è in grado di formulare in piena autonomia intere frasi, o addirittura un testo strutturato in paragrafi a partire semplicemente da un titolo e un sottotitolo. Il modo di ragionare dell’algoritmo è piuttosto diverso da quello umano, perché è in grado di trovare pattern e regolarità nell’uso della lingua, individuando quali parole è meglio accostare tra loro sia in termini di significato sia di struttura del periodo.

Nonostante il testo che ne risulta sia piuttosto povero a livello di contenuti e consista di una serie di frasi un po’ vuote di significato ma piene di parole chiave, nel complesso gli articoli sono leggibili, sensati e scorrevoli, e non così diversi da molti altri testi che si trovano online, scritti da umani e con un occhio attento alla Search Engine Optimization (Seo).

A partire da questa piattaforma potentissima, Porr ci ha poi messo del suo. Da un lato ha selezionato molto accuratamente gli argomenti da affrontare, in modo che fossero sia capaci di interessare un pubblico vasto sia abbastanza generici (e incentrati sulla fuffa) da scongiurare problemi legati a strafalcioni, mancanza di approfondimento e falsità contenutistiche. Dall’altro ha fatto una rilettura dei testi prima di metterli online, eliminando sia gli errori lessicali sia tutte quelle frasi che avrebbero più probabilmente fatto sospettare i lettori dell’originalità del testo. Modifiche comunque molto piccole, e in alcuni casi addirittura nulle. Va detto che nel caso specifico i testi sono fake nel senso che non sono autentici, ma a livello di contenuti non contengono bufale. E non è un caso che il risultato migliore sia stato ottenuto con un classico articolo acchiappa-click, ossia Ti senti improduttivo? Forse dovresti smetterla di pensare troppo, né di taglio davvero giornalistico né particolarmente tecnico.

Infine, una piccola nota dal dietro le quinte: nonostante Porr abbia tutte le qualifiche per avere accesso formalmente alla versione beta del software – e nonostante la stia usando da settimane – finora l’uso del software gli è stato ufficialmente negato. Qualcuno ipotizza che l’esperimento non abbia fatto piacere ai gestori del progetto.

The post Un articolo scritto da un’intelligenza artificiale ha battuto quelli tradizionali appeared first on Wired.





Leggi l’articolo su wired.it