Approvato l’AI Act, in Europa la prima regolamentazione dell’intelligenza artificiale

Il quadro normativo dovrebbe entrare in vigore nel 2026 e prevede multe fino a 35 milioni di euro

Il Parlamento europeo ha votato con 523, i contrari 46 e gli astenuti 49 l’AI Act, ovvero il quadro normativo finalizzato a gestire l’Intelligenza Artificiale. A Strasburgo (sede dell’Eurocamera) gli addetti ai lavori parlavano di una “giornata storica” perché è il primo tentativo al mondo di definire l’uso dell’intelligenza artificiale e potrebbe fissare uno standard a livello globale.

L’obiettivo di massima è quello di garantire la tutela dei diritti fondamentali, dalla la democrazia allo lo Stato di diritto permettendo allo stesso tempo lo sviluppo e l’implementazione delle più moderne tecnologie. La pubblicazione in Gazzetta ufficiale dovrebbe avvenire entro giugno 2024 per entrare in vigore nel 2026.

L’AI Act prevede quattro livelli di rischio: inaccettabile, alto, limitato e minimo. Le applicazioni che hanno un “rischio inaccettabile” come i sistemi di social scoring , gli strumenti di polizia predittiva, i sistemi di riconoscimento delle emozioni in ambito lavorativo o scolastico saranno vietati così come sistemi che possano sfruttare caratteristiche vulnerabili di un individio come l’età o una disabilità e sono vietati i sistemi di riconoscimento biometrico in luoghi pubblici, con la sola eccezione di utilizzi autorizzati dall’autorità giudiziaria per ricerca di persone scomparse o per prevenire atti di terrorismo.

Per i sistemi ad alto rischio si chiede che ci sia una valutazione dei rischi, che si preveda l’intervento umano come garanzie e che la programmazione sia “trasparente”. Che il funzionamento degli algoritmi sia trasparente è requisito anche dell’AI a “rischio limitato”. Infine i sistemi a “rischio minimio” non prevedono restrizioni.

I sistemi di AI generativa come il noto ChatGPT è inserito nei sistemi ad alto rischio e i contenuti con essi creati dovranno essere riconoscibili in modo evidente. Bisognerà insomma dire che che un dato contenuto scritto, un video o un’immagine è stato realizzato con l’intelligenza artificiale. Le sanzioni per le società che trasgrediscono queste regole potranno arrivare fino a 35 milioni di euro o il 7% dei ricavi.