Il robot Pepper

Richard Feynman, il fisico premio Nobel nel 1965 per l’elaborazione dell’elettrodinamica quantistica, era solito dire che ci sono due tipi di conoscenza e che di solito ci focalizziamo su quello sbagliato. Il primo tipo si concentra sulla conoscenza del nome di qualcosa, il secondo invece si concentra sul conoscere qualcosa. Sono due cose molto diverse: tutti conosciamo parole come “intelligenza artificiale”, “machine learning”, “reti neurali”, perché ne leggiamo e ne sentiamo parlare in continuazione: sono parole entrate nelle nostre vite e che addirittura – ci dicono – mettono a repentaglio i posti di lavoro, la privacy e creano timori sul nostro futuro. Sono paure giustificate? Il fatto è che sono molto pochi quelli che hanno capito di cosa si parla realmente quando si parla di intelligenza artificiale e compagnia. Il trucco, secondo Feynman, sta semplicemente nel conoscere qualcosa e non fermarsi al suo nome.

È questo il motivo principale per cui oggi il libro di Alessandro Longo e Guido Scorza Intelligenza artificiale – L’impatto sulle nostre vite, diritti e libertà (Mondadori Università) è molto utile, oltre che ben fatto. Il lavoro di Longo, giornalista, e di Scorza, avvocato, docente, blogger e commentatore, va infatti proprio nella direzione di oltrepassare il semplice nome delle cose e andare a toccare la materia di cui sono fatte. Nel caso dell’intelligenza artificiale, come dice nell’introduzione Francesco Pizzetti, ex Garante della privacy e professore emerito del Politecnico di Torino, il libro ha il merito “di aprire scenari e di far capire il tipo di problemi che già abbiamo di fronte, di conseguenza anche quelli che ci possono aspettare nel prossimo futuro”.

La copertina del libro di Longo e Scorza sull'intelligenza artificiale
La copertina del libro di Longo e Scorza sull’intelligenza artificiale

La definizione di Ai

Il modo con il quale viene spiegato cosa sia l’intelligenza artificiale e perché sia importante nelle nostre vite è a metà fra il reportage e il manuale pratico, che pone il dibattito in corso su basi concrete, fattuali, legate agli aspetti normativi e della ricerca. La definizione minima di intelligenza artificiale di Longo e Scorza arriva letteralmente nel primo paragrafo della prima pagina del libro ed è una definizione aperta che serve come strumento di lavoro per andare avanti nella lettura. L’intelligenza artificiale per Longo e Scorza è “una forma di intelligenza non biologica, in grado persino di aprire scenari e di far capire il tipo di problemi che già abbiamo di fronte, di conseguenza anche quelli che ci possono aspettare nel prossimo futuro”.

La definizione è volutamente aperta e pragmatica e lascia spazio a una serie di problemi molto più ampi. L’intelligenza artificiale, se ci si ferma all’idea di Feynman di conoscere soltanto il nome di qualcosa, diventa un contenitore di ansie e di paure. A parte i ricercatori informatici che lavorano su problemi di intelligenza artificiale, sviluppando algoritmi e modalità di funzionamento pratico, si perde completamente la prospettiva e quindi la progettualità. Gli aspetti lavorativi, esistenziali e quotidiani, il lavoro della politica e delle associazioni, l’attività del legislatore e le decisioni che ogni giorno vengono prese sia in sede esecutiva da parte del governo e degli enti locali che da parte della magistratura: tutti mondi nei quali esistono fortezze di idee e di pensieri strutturati e ben ancorati alla realtà e ai principi comuni del nostro ordinamento nei quali entra un’idea leggera, inafferrabile, ma dalle conseguenze enormi.

L’impatto sulle nostre vite

Longo e Scorza, dopo aver spiegato le basi storiche e tecnologiche dell’intelligenza artificiale, si chiedono quali sino le promesse e quali siano i rischi che questa pone per la società e per l’economia, dalla privacy alla politica. Vale a dire anche quali vantaggi e rischi non solo economici ci siano per via dell’intelligenza artificiale (si pensi ai rischi etici, sociali e politici) oltre che al lavoro. E qui gli autori articolano una tipologia di aree di lavoro dove l’intelligenza artificiale si espanderà: quale sarà l’impatto sulle specifiche professioni. Si va dagli autisti ai notai, dai commessi e cassieri a chi insegna o lavora nelle professioni sanitarie. Il lavoro fatto è dettagliato, particolareggiato e unico, a memoria di chi scrive, per mettere insieme l’impatto prevedibile e stimare quello imprevedibile del progresso tecnologico orientato all’intelligenza artificiale nel nostro Paese e non solo.

Longo e Scorza immaginano l’intelligenza artificiale all’opera nella quotidianità delle nostre vite future: dalla casa all’automobile, fino alla sanità. Tutte queste sono sfide che aprono interi mondo di scelte per il legislatore, e che dovranno essere trasformati in regole e regolamenti per tutta l’amministrazione pubblica prima ancora che per il settore privato, e compresi dagli operatori del diritto, cioè la magistratura, per poter essere regolati nel caso di controversie e liti giudiziarie.

Al riguardo di quest’ultimo tema, non si tratta solo di stabilire delle regole (che già ci sono, notano Longo e Scorza, anche se sono poche) per governare l’intelligenza artificiale, ma anche di costruire una cultura basata su principi e idee consolidate da una riflessione giuridica che comporta la comprensione dei concetti nel senso che Feynman indica come più profondo e completo. E bisogna farlo in fretta, o almeno con tempi compatibili con quelli ultra-rapidi dell’evoluzione tecnologica, prima che le singole innovazioni superino il portato di norme e decisioni non davvero universali. I 4-5 anni che occorrono perché l’idea di una normativa europea si trasformi in delle leggi nei singoli stati sono un’intera era geologica ad esempio nello sviluppo delle auto a guida autonoma.

La macchina induttiva

I computer, osservano gli scienziati informatici, sono macchine deterministiche. L’elaboratore esegue i passi definiti dall’algoritmo trascritto nel software per risolvere un problema. Lavora in modo cioè deduttivo e totalmente prevedibile: se si inceppa e il problema non viene risolto è relativamente facile risalire al bug perché è tutto scritto e definito a priori. La complessità estrema del software e dei sistemi oggi in funzione ci fanno talvolta dimenticare che si tratta sempre dello stesso paradigma pensato da Alan Turing e Alonzo Church negli anni Trenta. Però, alla base, il funzionamento del software tradizionale è questo.

Lo stesso elaboratore, però, quando esegue un software di intelligenza artificiale, si appoggia a un paradigma completamente differente. L’algoritmo scelto dal programmatore per risolvere un determinato problema viene addestrato con voluminose quantità di dati che rappresentano casi risolti del problema, e viene così tarato in maniera tale da creare una serie di connessioni per cui vengono definite in maniera autonoma una o più soluzioni “originali”, cioè non predefinite dal programmatore. È cioè un sistema induttivo, che induce la regola dagli esempi, anziché il contrario di essere capace di dedurre il comportamento dalla regola. Ed è una black box, nel senso che nessuno sa, salvo impegnarsi a fare un’opera di reverse engineering, quali siano in effetti i pesi e i criteri con i quali il sistema di intelligenza artificiale prende le decisioni.

La “magia nera” dei computer

La conoscenza approfondita e non solo superficiale di cosa sia l’intelligenza artificiale serve a comprendere il significato di quel che si intende parlando di intelligenza artificiale e al tempo stesso serve a togliere l’aurea di magia e di scienza occulta che circonda in generale gli esperti di computer e in particolare chi tratta di intelligenza artificiale. Cominciare a comprendere cosa sia l’intelligenza artificiale e l’informatica in generale richiede un modo di pensare differente da quello tradizionale a cui siamo abituati, così come capire la medicina o l’ingegneria o l’architettura richiede una forma mentis particolare.

È quello che i ricercatori di questo settore definiscono “pensiero computazionale”, partendono dalla felice definizione data da Seymour Papert nel 1980 e popolarizzata (tra gli addetti ai lavori) da Jeannette Wing nel 2006. È un approccio di frontiera, il cui obiettivo ultimo è quello di costruire una “cultura informatica” (intesa come insieme di idee scientifiche condivise sulla base delle quali poter elaborare una riflessione e un avanzamento della società nel suo insieme, non una mera forma di erudizione tecnologica) che possa essere il trampolino di lancio per esempio per un insegnamento nelle scuole dell’informatica efficace e fruttuoso, e non limitato al solo coding o alle attività pratiche come l’Ecdl. Servirebbe insomma alla creazione dell’equivalente di un “liceo classico dell’informatica”, anziché limitarne l’insegnamento come attività professionalizzante.

Il libro di Longo e Scorza secondo me va in questa direzione, quella cioè della creazione di una cultura informatica utile al Paese, perché chiarisce i punti tecnici del discorso e solleva i problemi rilevanti dal punto di vista sociale, economico e giuridico, per metterci in condizione di pensare a come affrontare le conseguenze dell’intelligenza artificiale.

The post Capire davvero le conseguenze dell’intelligenza artificiale appeared first on Wired.



Leggi l’articolo su wired.it