Con 523 voti favorevoli, 46 contrari e 49 astensioni, il Parlamento europeo ha approvato l’AI Act, la prima legge vincolante al mondo sull’intelligenza artificiale, volta a ridurre i rischi connessi all’utilizzo dei sistemi di IA e promuoverne lo sviluppo. Obiettivo del regolamento è quello di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dai sistemi di IA ad alto rischio, promuovendo nel contempo l’innovazione e assicurando all’Europa un ruolo guida nel settore.
Le nuove norme stabiliscono modalità di utilizzo dell’intelligenza artificiale in vari ambiti, come la categorizzazione biometrica e l’estrapolazione indiscriminata di immagini facciali. Saranno vietati anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, i sistemi di credito sociale, le pratiche di polizia predittiva (se basate esclusivamente sulla profilazione o sulla valutazione delle caratteristiche di una persona) e i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità delle persone
In linea di principio le forze dell’ordine non potranno fare ricorso ai sistemi di identificazione biometrica, tranne in alcune situazioni specifiche espressamente previste dalla legge. Per esempio, l’identificazione in tempo reale è consentita solo se sono rispettate rigide condizioni, come la limitazione dell’uso nel tempo e nello spazio e l’approvazione da parte di autorità giudiziarie o amministrative. Questi sistemi possono essere impiegati per scopi come la ricerca di persone scomparse o la prevenzione di attacchi terroristici.
Saranno imposti obblighi di trasparenza per i sistemi di intelligenza artificiale utilizzati per scopi generali e i relativi modelli, i quali dovranno rispettare precisi requisiti di trasparenza e osservare le normative UE sul diritto d’autore durante il processo di addestramento. I modelli più avanzati, che potrebbero presentare rischi sistemici, saranno soggetti a ulteriori obblighi, tra cui la valutazione e la mitigazione dei rischi e la segnalazione di eventuali incidenti. Inoltre, i contenuti audio, video o immagini artificiali o manipolati, noti come “deepfake”, dovranno essere chiaramente identificati come tali.
Per sostenere l’innovazione e le piccole e medie imprese (PMI), gli Stati membri dell’Unione Europea dovranno istituire e rendere accessibili a livello nazionale spazi di sperimentazione normativa e meccanismi di prova in condizioni reali, noti come “sandbox”. Ciò permetterà alle PMI e alle start-up di sviluppare e testare sistemi di intelligenza artificiale innovativi prima di lanciarli sul mercato.
Il regolamento deve ancora essere sottoposto alla verifica finale dei giuristi-linguisti e dovrebbe essere adottato definitivamente prima della fine della legislatura (a giugno). Inoltre, la legge deve ancora essere formalmente approvata dal Consiglio.
Entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta Ufficiale dell’UE e sarà applicato in 24 mesi, tranne per alcune disposizioni che avranno tempi di attuazione diversi: i divieti su pratiche proibite saranno effettivi dopo 6 mesi, i codici di buone pratiche dopo 9 mesi, le norme sui sistemi di IA per scopi generali e la governance dopo 12 mesi, e gli obblighi per i sistemi ad alto rischio dopo 36 mesi.