Il palazzo del Berlaymont a Bruxelles, sede della Commissione europea (foto: Luca Zorloni per Wired)

La Commissione europea ha presentato il primo pacchetto di norme per regolamentare l’utilizzo dell’intelligenza artificiale. Presentato dalla vicepresidente Margrethe Vestager, responsabile della strategia di digitalizzazione dell’Unione, e da Thierry Breton, commissario europeo per il mercato interno e la competizione, il testo mette al centro del testo la salvaguardia e la sicurezza dei diritti fondamentali delle persone. “Il piano coordinato –  si legge in una nota – delinea i cambiamenti strategici e gli investimenti necessari a livello di Stati membri per rafforzare la posizione di primo piano dell’Europa nello sviluppo di un’Ai antropocentrica, sostenibile, sicura, inclusiva e affidabile“.

La Commissione segmenta le applicazioni dell’Ai in baso al livello di rischio di abusi e danni e, sulla base di questa scansione, stabilisce le regole da adottare. Rischio minimo, basso, alto e “inaccettabile”: questi quattro livelli indicano sia l’intensità delle limitazioni che verranno imposte, sia il modo in cui viene impiegata una tecnologia che usi l’intelligenza artificiale.

I livelli di rischio

Al più basso livello di rischio si trovano quei sistemi che non hanno impatto sui diritti e sulla vita delle persone, come i filtri per bloccare lo spam nelle email o i sistemi per dividere i rifiuti. Queste tecnologie potranno essere usate senza limitazioni ulteriori a quelle tuttora in vigore. Al secondo livello di rischio ci sono quei sistemi che interagiscono direttamente con gli esseri umani, come i bot usati nelle chat di assistenza. In questo caso, la nuova regolamentazione prevede che venga reso esplicito che l’utente si stia interfacciando con un’intelligenza artificiale e non con un essere umano.

Il terzo livello di rischio rappresenta il cuore dell’intervento normativo. Fanno parte di questo livello tutti i sistemi che possono interferire con importanti aspetti della vita umana. Si tratta di Ai che possono filtrare e selezionare i curriculum dei candidati per un posto di lavoro o sistemi usati in ambito sanitario. Le aziende che forniscono queste tecnologie saranno obbligate a usare i dati in modo tale da evitare qualunque discriminazione per le persone e utilizzare adeguati sistemi di valutazione e attenuazione dei rischi. Dovranno fornire regolarmente documentazioni trasparenti e complete alle autorità competenti, per verificare il corretto uso dei dati, e tenere una registrazione puntuale delle attività, per garantire la tracciabilità dei risultati. Dovranno fornire informazioni agli utenti rispetto al funzionamento e all’impiego di queste tecnologie. Inoltre, la normativa impone alle aziende di garantire un costante controllo umano sulla costruzione e sull’implementazione delle Ai e di seguire i più elevati protocolli di sicurezza informatica.

All’ultimo livello, invece appartengono quelle tecnologie considerate estremamente pericolose per la vita delle persone o contrarie ai valori fondamentali dell’Unione europea. Si tratta di sistemi che valutino e categorizzino le persone in base ai loro comportamenti sociali o tecnologie in grado di influenzare in maniera subliminale il comportamento delle persone.

Tecnologie biometriche

Un capitolo a parte riguarda l’uso di tecnologie biometriche. La vicepresidente Vestager ha sottolineato come questi sistemi possano rientrare sia nel terzo che nel quarto livello di rischio. L’impiego sarà quindi severamente regolamentato e consentito solo se affianca direttamente il personale umano in certi tipi di operazioni. Come nel caso dei controlli alle frontiere, con la scansione delle impronte digitali o del volto. Mentre saranno vietati tutti quei sistemi che operano da remoto, in tempo reale e a livello massivo. “Non c’è spazio per la sorveglianza di massa nelle nostre società“, ha detto Vestager. Tuttavia, questi sistemi potranno essere impiegati in particolari circostanze, in caso di estrema necessità, dalle forze dell’ordine. Per consentire questo tipo di utilizzo gli Stati membri dovranno regole ad hoc.

Le autorità nazionali saranno responsabili della vigilanza sul rispetto della nuova normativa. In caso di violazione delle disposizioni, le autorità procederanno con sanzioni graduali in base alla persistenza della violazione. Per esempio, le autorità potranno richiedere il ritiro dal mercato di un particolare prodotto non in linea con il quadro normativo, in caso di una prima violazione delle regole. Mentre potranno sanzionare le aziende, con multe pari fino al 6% del del loro fatturato globale, in caso di reiterate violazioni. Inoltre, verrà istituito un comitato europeo per l’intelligenza artificiale per facilitare l’attuazione dei regolamenti e faciliterà l’attuazione e stimolare lo sviluppo di ulteriori norme per l’Ai.

Ora la proposta dovrà passare all’esame dei governi e del Parlamento europeo. La Commissione europea prevede di garantire un sostegno finanziario allo sviluppo dell’Ai, attraverso i programmi di ricerca comunitari.

 

The post Cosa c’è nel piano della Commissione europea per regolare l’intelligenza artificiale appeared first on Wired.



Leggi l’articolo su wired.it