Il Parlamento europeo approva la prima legge sull’AI
In data 13 marzo 2024, il Parlamento Ue ha adottato la prima legge sull’Intelligenza Artificiale (AI), che garantisce sicurezza e rispetto dei diritti fondamentali promuovendo al contempo l’innovazione tecnologica, con 523 voti a favore, 46 contrari e 49 astenuti.
L’obiettivo è proteggere i diritti fondamentali dell’uomo, la democrazia, lo stato di diritto e la sostenibilità ambientale di fronte all’AI ad alto rischio, mentre si promuove l’innovazione e si fa dell’Europa un leader nel settore. Il Regolamento stabilisce una serie di obblighi per l’AI in base ai suoi rischi potenziali e al livello di impatto.
Applicazioni proibite
Le nuove norme vietano determinate applicazioni dell’IA che violano i diritti dei cittadini, come i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e l’acquisizione indiscriminata di immagini facciali da internet o dalle registrazioni delle telecamere di sorveglianza per creare database di riconoscimento facciale. Saranno anche vietati il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, i sistemi di valutazione dei cittadini, la polizia preventiva (quando basata esclusivamente sul profilo di una persona o sulla valutazione delle sue caratteristiche) e l’IA che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.
Esenzioni per le forze dell’ordine
L’uso di sistemi di identificazione biometrica da parte delle autorità di polizia è vietato a priori, tranne in situazioni molto specifiche e ben definite. I sistemi di identificazione biometrica “in tempo reale” possono essere utilizzati solo se sono soddisfatti una serie di rigorose garanzie, ad esempio il loro utilizzo è limitato a un momento e a un luogo specifici e sono soggetti a autorizzazione giudiziaria o amministrativa preventiva. Tali casi possono includere la ricerca mirata di una persona scomparsa o la prevenzione di un attacco terroristico. Il ricorso a tali sistemi a posteriori è considerato un uso ad alto rischio, che richiede un’autorizzazione giudiziaria in quanto è collegato a un reato penale.
Obblighi per i sistemi ad alto rischio
Sono previsti anche obblighi chiari per altri sistemi di IA ad alto rischio (perché possono essere altamente dannosi per la salute, la sicurezza, i diritti fondamentali, l’ambiente, la democrazia e lo stato di diritto). Esempi di utilizzi ad alto rischio dell’IA includono infrastrutture critiche, istruzione e formazione professionale, impiego, servizi pubblici e privati essenziali (ad esempio, assistenza sanitaria, bancaria), determinati sistemi di forze dell’ordine, gestione delle migrazioni e delle dogane, giustizia e processi democratici (come influenzare le elezioni). Questi sistemi devono valutare e mitigare i rischi, mantenere registri dell’uso, essere trasparenti e accurati e avere una supervisione umana. I cittadini avranno il diritto di lamentarsi dei sistemi di IA e di ricevere spiegazioni delle decisioni basate su di essi che influenzano i loro diritti.
Requisiti di trasparenza
I sistemi di IA ad uso generale e i modelli su cui si basano devono soddisfare determinati requisiti di trasparenza, rispettare la legge sul diritto d’autore dell’UE e pubblicare riassunti dettagliati del contenuto utilizzato per addestrare i loro modelli. I modelli più potenti che potrebbero rappresentare rischi sistemici dovranno soddisfare requisiti aggiuntivi, come la conduzione di valutazioni dei modelli, l’analisi e la mitigazione dei rischi sistemici e la segnalazione degli incidenti.
Inoltre, le immagini artificiali o manipolate, i contenuti audio o video (“deep fake”) dovrebbero essere chiaramente etichettati come tali.
Misure a sostegno dell’innovazione e delle PMI
Spazi di prova e sperimentazione controllati dovrebbero essere resi disponibili alle PMI e alle start-up in condizioni reali a livello nazionale per consentire loro di sviluppare e addestrare IA innovative prima della commercializzazione.