(foto: JONATHAN NACKSTRAND/AFP/Getty Images)

Il ministro della Transizione digitale, Vittorio Colao, ne ha fatto uno dei pilastri della pubblica amministrazione del futuro. Il cloud, per l’ex manager di Vodafone, dovrà diventare l’infrastruttura chiave per far circolare le informazioni tra gli enti pubblici. Già nel piano che aveva presentato come regista di una task force di esperti voluta dal secondo governo Conte, Colao aveva suggerito di ottimizzare i data center e rendere interoperabili le banche dati. Dossier, peraltro, che da tempo insistono sulle scrivanie degli uffici incaricati di aggiornare gli uffici pubblici alle nuove tecnologie. Un censimento del 2019, dell’allora team per la trasformazione digitale guidato dal commissario Luca Attias, aveva registrato 11mila data center in Italia, arruolati per servire 22mila enti pubblici. Centri piccoli e piccolissimi, quindi, che tuttavia costavano alle casse circa un terzo del totale della spesa pubblica per l’informatica: 2 miliardi di euro.

La razionalizzazione è partita l’anno scorso. Da un campione di 1.252 centri in forze a un migliaio di enti, dagli uffici centrali dello Stato alle università, è stata scelta una rosa di 35 data center con le carte in regola per entrare in un polo strategico nazionale del cloud. E sarà ora il piano del ministro Colao a determinare il futuro della “nuvola” per il pubblico, forte dei fondi che saranno iniettati dal programma Next generation Eu.

Nei giorni scorsi, nella sua relazione al governo, Colao ha tracciato le linee al 2026. Dotare tutte le famiglie, le scuole e i presidi sanitari la banda larga. Trasferire tutti i principali servizi al cittadino online, dotando l’80% con identità e domicilio digitale e creando un fascicolo sanitario elettronico omogeneo. Coprire con il 5G tutte le aree popolate. Investire sul cloud, con un modello flessibile per enti pubblici centrali e locali, sistemi interoperabili ed elevati standard di sicurezza. E questo si traduce, da un lato, nelle razionalizzazioni dei centri per l’elaborazione dati e, dall’altro, nel definire la configurazione che dovrà avere il polo strategico nazionale.

A che punto è il piano dell’Italia per cloud e data center
Jason Alden/Bloomberg via Getty Images

Il polo nazionale

Partiamo da questo secondo punto, che è quello più delicato dal punto di vista politico e geopolitico. La partita del polo strategico nazionale non si gioca tanto nel gruppo di potenti data center su cui appoggiare l’architettura cloud del pubblico, ma nella scelta di chi dovrà gestire la nuvola. Occorre trovare un operatore o un gruppo di operatori, a cui affidare le redini di questa preziosa infrastruttura. Sotto il cappello di Gaia-X, l’alleanza europea per fissare standard comuni per il cloud a cui far sottostare anche i colossi mondiali del settore, come Amazon, Google, Microsoft e Alibaba, e con le norme sul golden power come morso. Nella sua relazione Colao ha parlato di un modello “flessibile“, con la collaborazione di pubblico e privato.

Anche in Italia il cloud si sta rafforzando. A gennaio il più importante operatore nazionale del settore, Aruba, si è alleato con Leonardo, specializzata in apparati di difesa: da un lato l’offerta di hosting e data center, dall’altra le tecnologie di sicurezza informatica. Tim, invece, ha stretto patti con Google e, sempre a gennaio, ha presentato Noovle, la sua controllata per presidiare il campo del cloud, con sei nuovi data center e servizi pensati per gli enti pubblici. Anche Poste nel suo piano industriale al 2024 ha tracciato investimenti strategici sulla nuvola.

A che punto è il piano dell’Italia per cloud e data center
(Photo by Yann Schreiber / AFP)

I tagli ai troppi data center

L’altra faccia della medaglia è la razionalizzazione dei data center pubblici. Troppi, inefficienti, spesso neanche ben protetti dai rischi informatici è stata la diagnosi delle analisi condotte dall’Agenzia per l’Italia digitale (Agid). La frammentazione, peraltro, è nemica di una condivisione intelligente dei dati, che il piano Colao vuole perseguire. Una situazione che è pesata, per esempio, nella gestione della pandemia. In prospettiva si guarda a un modello di platforming, con bacini di informazioni al centro a cui le strutture periferiche dello Stato si connettono per sfruttare servizi in cloud e conferire dati. Sul modello, per esempio, dell’Anagrafe nazionale popolazione residente (Anpr).

“Un momento di svolta è avvenuto con la pubblicazione nel 2014 dell’Italian Cyber Security Report, con il quale si cercava di comprendere le minacce dalle quali deve proteggersi la pubblica amministrazione”, ha spiegato a Wired Corrado Giustozzi, esperto di sicurezza informatica e fino a poco tempo fa membro del Cert-Agid. “Da allora si sono cercate delle soluzioni per razionalizzare le risorse informatiche del comparto pubblico, nel tentativo di ridurre gli sprechi, diminuire la superficie d’attacco e aumentare l’efficienza dei servizi erogati”, chiosa: “In alcuni piccoli centri, con le infrastrutture interamente basate su piccoli computer, sarebbe stato sufficiente rovesciare una bibita sulla tastiera per paralizzare un intero comune”.  

microsoft data center
(Foto: Microsoft)

Cosa succede sul territorio

Dal punto di vista pratico, tuttavia, sul fronte del taglio ai cloud superflui non è successo ancora granché dall’annuncio, anche a causa dei ritardi causati dalla pandemia. Wired ha contattato tutte le società regionali incaricate di gestire i data center promossi a far parte dei 35 di livello nazionale, ma solo da Umbria e Piemonte sono arrivate risposte. In Lombardia, per esempio, Agid ha accreditato il polo di Aria, la società in-house della Regione finita nella bufera per gli errori e i malfunzionamenti dei sistemi di prenotazione della campagna vaccinale.

Quel che è certo è proprio il 2020 ha messo a dura prova la tenuta di questi sistemi. “Con l’inizio della crisi sanitaria abbiamo registrato inizialmente un aumento del traffico di almeno sei volte, al quale fortunatamente abbiamo potuto far fronte potenziando le nostre infrastrutture in continuità con i progetti di espansione precedenti”, ha spiegato a Wired Pietro Pacini, direttore generale di Csi Piemonte. Con oltre 700 server fisici e settemila macchine virtuali, il centro, fondato da Regione Piemonte, Università di Torino e Politecnico di Torino, ospita nei suoi sistemi il grosso dei servizi necessari al funzionamento degli enti pubblici della regione. 

Secondo i dati forniti dal Csi a Wired, nelle ultime settimane il data center ha registrato un traffico medio di 3,2 gigabit al secondo (Gbps) medi sulle reti degli enti della Regione Piemonte, 800 mega per il Comune di Torino e 2,2 giga sul data center. Dati che rivelano una diminuzione del traffico della pubblica amministrazione legato al forte incremento del lavoro da casa, precisano i tecnici del consorzio.

In parallelo il 2020 ha imposto un aumento dei servizi in rete. Lo sa bene Sogei, tra i poli nazionali. Ai server della Società generale di informatica, controllata dal ministero dell’Economia e delle finanze (Mef), si appoggiano servizi come l’Anpr, il fascicolo sanitario elettronico, la fattura elettronica, ma di recente anche la lotteria degli scontrini, la app di contact tracing Immuni e lo stesso Piano nazionale di ripresa e resilienza (Pnrr), che dovrà indirizzare i fondi europei verso il cloud. Nel 2020 ha gestito 2 miliardi di fatture elettroniche, nel 2019 765.574 730 precompilati, 10 miliardi di transazioni all’anno per i giochi. Sogei in qualche modo già ha sviluppato quel sistema di interoperabilità a cui guarda la riforma del cloud nazionale. Basti pensare all’Anpr, che connette enti locali, ministeri, Inps, Istat, Poligrafico dello Stato, ma anche banche e assicurazioni private.

1411124878_data-center

Gli investimenti

La razionalizzazione dei data center risponde anche a una politica per spendere meglio le risorse. Prendiamo il caso del polo umbro. Il data center locale, sotto il controllo di Umbria digitale, società consortile della Regione, con 91 soci, “ospita circa 1.500 virtual systems”, spiegano a Wired dall’azienda, “con un traffico di poco superiore a 1 Gbps”. La gestione del centro, che consuma circa 100 kilowatt, ha un costo che si aggira intorno ai 2 milioni di euro all’anno. Lo scorso dicembre il consorzio ha portato a bordo nuovi servizi, dopo aver annunciato la fusione con l’omologa società che si occupa del sistema sanitario regionale, Umbria salute e servizi, mettendo così a sistema anche gli applicativi legati alle prenotazioni ospedaliere e alla gestione dei dati delle Usl. 

L’Inail, altro polo nazionale, spende 5 milioni all’anno per gestire il centro. All’Istituto per l’assicurazione contro gli infortuni sul lavoro si appoggiano la stessa Agid, Istat, il dipartimento di amministrazione generale del Mef, Consap e per l’hosting i servizi digitali del ministero della Salute. Come spiegano dall’Istituto a Wired, sono in programma gare per acquisire nuove memorie basate sullo standard Nvme (non-volatile memory express, un nuovo protocollo di trasferimento) per il data center, che conta 700 server fisici, 3.200 virtuali, una capacità di traffico di 10 Gbps (con un media in orario di lavoro di 1,5 Gbps) e un consumo annuo di 330 kilowatt, e per migrare sul cloud il portale dell’Inail stessa. Dal 2019 Csi Piemonte ha inaugurato anche una innovativa sala di controllo dalla quale è possibile monitorare in tempo reale i servizi erogati e negli ultimi cinque anni ha investito in un piano di ammodernamento e riduzione dei consumi, ottenendo un efficientamento energetico dell’8% e spostando tutti i consumi su energia proveniente da fonti rinnovabili

Infrastrutture critiche di questo tipo assorbono risorse per mantenere i data center in sicurezza e, di conseguenza, idee per far tornare i conti. Prendiamo il Csi Piemonte. La sede centrale di Torino, abilitata a ospitare i servizi che convergono sotto il polo strategico nazionale, occupa 1.500 metri quadri di superficie e ha un’architettura tale da garantirne la manutenzione senza interrompere il servizio. Ma ad assicurare che i server restino in piedi anche in caso di guasti, incidenti o interruzioni nell’unità centrale di Torino, c’è un data center secondario a Vercelli.

Così Umbria digitale, che conferma un piano di consolidamento delle infrastrutture su un’architettura basata sulla coesistenza di due siti che ospitano fisicamente i server e che lavorano in parallelo, garantendo un tempo di ripristino dei servizi erogati in caso di problemi tecnici (Rto, recovery time objective) nell’ordine di pochi minuti. Infrastrutture così progettate, con funzioni di sincronizzazione continuamente attive tra i due siti, assicurano che la perdita di dati in caso di incidente informatico sia prossima allo zero

Tuttavia, se a Perugia allo stato attuale “non è prevista un’ulteriore espansione del perimetro di business”, Pacini spiega: “Oggi ci apriamo a nuove sfide, avendo deciso di concentrarci sull’offerta cloud e quindi di diventare un’azienda cloud first”. La stessa Inail sta portando a bordo due nuovi enti locali.

medium_131210-002518_to091213ap_2780
(Foto: Getty Images)

La sfida europea

Il cloud non è solo un tema nazionale. La strategia italiana deve fare i conti con il contesto europeo, che con Gaia-X sta progettando standard comuni. Il progetto, d’ispirazione franco-tedesca, ha chiamato a raccolta centinaia di partner da tutti i paesi dell’Unione, e non solo, per mettere a sistema un’idea di “cloud federato” nel quale l’Europa possa giocare ad armi pari con i big di Asia e Stati Uniti, che siedono allo stesso tavolo (tra i temi dell’ultimo tabloid cartaceo di Wired, attualmente disponibile in edicola). La Germania ha appena lanciato una competizione nazionale mettendo in palio 190 milioni di euro per finanziare la realizzazione di progetti innovativi e – soprattutto – esecutivi, con i quali “portare l’infrastruttura di Gaia-X nella sua fase operativa”. Ora tocca all’Italia, che ha già raccolto molte adesioni e deve lanciare il suo hub nazionale.

The post A che punto è il piano dell’Italia per cloud e data center appeared first on Wired.



Leggi l’articolo su wired.it