Vittorio Colao guida la task force per la Fase 2 (foto: Chris Ratcliffe/Bloomberg via Getty Images)

Il 12 febbraio, tra i nomi dei ministri scelti dal presidente del Consiglio Mario Draghi per comporre la nuova squadra di governo, è arrivato prevedibilmente anche quello di Vittorio Colao, che guiderà il ministero per l’Innovazione tecnologica e la transizione digitale. Già a capo della task force incaricata dall’ultimo governo Conte per tracciare le basi per la ripartenza economica e strategica del Paese, Colao è un manager con una consolidata esperienza nel settore delle telecomunicazioni.

Nonostante la mancanza di portafoglio, quello di Vittorio Colao sarà un ruolo centrale nell’attuazione dell’agenda per la ripresa voluta da Draghi. A giugno 2020 la sua task force ha consegnato all’ex presidente Giuseppe Conte un piano programmatico, poi lasciato da parte, con sei obiettivi per la ripartenza economica del Paese. Rileggere quel piano oggi – considerando però che Colao non ha ancora presentato un programma ufficiale per il ministero – può tornare utile soprattutto per la sua somiglianza con le intenzioni programmatiche recentemente indicate da Draghi.

Algoritmi e pubblica amministrazione

Uno dei temi ricorrenti sia nel programma del nuovo presidente del Consiglio sia nel piano di giugno è quello della digitalizzazione della pubblica amministrazione. All’interno del documento di Colao era infatti dedicato un intero punto alla semplificazione della pubblica amministrazione, per sburocratizzare i processi e rendere l’intero apparato più efficiente. Tra le azioni specifiche da adottare, si consigliava quella di “ridurre l’area di responsabilità dei dipendenti pubblici conseguente all’adozione di procedure governate da algoritmi”. Allo stesso punto si faceva riferimento alla sentenza 8472 del 2019 del Consiglio di Stato, suggerendo un contesto applicativo senza però specificare quale potrebbe essere il coinvolgimento degli algoritmi nelle procedure.

Ciò a cui si faceva riferimento nel documento è la possibilità di introdurre dei processi decisionali automatizzati nell’ambito della pubblica amministrazione. Nello specifico, il caso citato nella sentenza del Consiglio di Stato riguarda l’algoritmo introdotto con la riforma della Buona Scuola nel 2015, che aveva lo scopo di assegnare migliaia di insegnanti a diversi istituti scolastici sparsi per il territorio nazionale, incrociando una graduatoria con le preferenze espresse dagli stessi docenti. L’idea di partenza era quella di garantire a tutti il miglior match possibile. In realtà, molti tribunali si sono pronunciati contro l’algoritmo in questione per aver erroneamente assegnato migliaia di insegnanti alla scuola sbagliata, come spiega Fabio Chiusi nell’ultimo report di Algorithm Watch.

Con le sentenze del 2019, il Tar del Lazio e il Consiglio di Stato non solo hanno condannato quell’algoritmo, ma hanno creato anche un importante precedente. Entrambe le sentenze, seppur molto diverse, forniscono per la prima volta una serie di principi – ispirati al Gdpr – da rispettare nell’impiego dell’intelligenza artificiale in processi decisionali che coinvolgono i cittadini italiani.

Cosa succede nel resto d’Europa

Gli stessi sistemi che impiegano algoritmi per prendere decisioni nel settore pubblico sono già ampiamente impiegati in Europa. Sempre nel report di Algorithm Watch vengono elencati i loro utilizzi nei vari Paesi, monitorando le loro applicazioni soprattutto nel caso di effetti negativi sui cittadini. Un caso recente ed emblematico dell’utilizzo di questi sistemi è avvenuto nei Paesi Bassi, dove il 15 gennaio uno scandalo legato agli aiuti statali alle famiglie ha causato la caduta del governo.

Un report presentato in Parlamento e chiamato Ingiustizia senza precedenti denunciava come oltre 26mila famiglie fossero state ingiustamente accusate di frode dall’autorità fiscale olandese tra il 2012 e il 2019. Nel corso degli anni era stato chiesto a quelle famiglie di ripagare interamente allo Stato i sussidi precedentemente assegnateli, causando la perdita del lavoro, della casa e il divorzio a moltissime famiglie. Nella maggior parte dei casi non è stato possibile contestare tempestivamente le decisioni, e alle famiglie che hanno chiesto di conoscere il processo decisionale che ha portato alle accuse sono spesso stati forniti documenti quasi interamente oscurati e illeggibili.

Alla base delle accuse di frode fiscale c’era la decisione di un processo algoritmico. Nel 2020, con una sentenza senza precedenti, la Corte dell’Aia ha bloccato l’utilizzo di SyRi (System Risk Indicator), un modello di calcolo del rischio ideato nel 2014 e utilizzato per anni dal governo olandese per prevedere le frodi nell’assistenza sociale. L’algoritmo era stato giudicato illegale per violazione del Gdpr e dei diritti umani. Oltre alla completa mancanza di trasparenza del sistema, dimostrata anche dal fatto che molti membri del governo non erano nemmeno a conoscenza del suo utilizzo, le autorità fiscali avevano ammesso che la doppia nazionalità era uno dei criteri di selezione ufficiale utilizzati da SyRi (oltre al livello di istruzione, la situazione lavorativa e i debiti) per determinare i rischi di frode.

Secondo alcune organizzazioni che da tempo denunciavano il sistema, si trattava di un modo per discriminare ingiustamente e preventivamente le famiglie più in difficoltà attraverso stereotipi razzisti. Come spesso succede quando un software diventa parte della società, i problemi della società vengono espressi nel software e amplificati. Questo perché, a differenza di una decisione umana nello stesso ambito, l’impatto di un algoritmo può avvenire in pochi secondi ed estendersi sistematicamente a milioni di persone, come nel caso dei Paesi Bassi.

Tenere la luce accesa

Nonostante il governo olandese guidato da Mark Rutte abbia deciso di assumersi la responsabilità di quanto accaduto, molti processi decisionali automatizzati continuano a operare in modo poco trasparente. Anche nel Regno Unito Privacy International solleva lo stesso problema. In Italia un dibattito sull’esistenza di questi sistemi e sui controlli necessari da applicare al loro utilizzo è completamente assente. La sentenza del Consiglio di Stato citata nel piano Colao è uno dei pochi punti fermi sul tema, anche se il suo contenuto è in contraddizione con l’intenzione di “ridurre l’area di responsabilità dei dipendenti pubblici”.

Secondo l’organo giurisdizionale, l’essere umano non deve essere deresponsabilizzato, anzi: in casi analoghi a quello dell’algoritmo della Buona Scuola – dove non si potevano verificare le motivazioni che avevano portato la macchina a determinate scelte – la responsabilità umana rimane fondamentale per assicurare alle persone coinvolte la completa comprensione della logica del processo. Il caso olandese dovrebbe insegnare ai governi europei quanto sia importante il coinvolgimento umano anche nella fase di interpretazione delle decisioni algoritmiche, per contrastare una fiducia cieca nel codice e mantenere il suo ruolo a quello di consulente e non di decisore finale.

The post Perché non siamo ancora pronti per affidare agli algoritmi la pubblica amministrazione appeared first on Wired.



Leggi l’articolo su wired.it