di Gabriele Franco per Italian Tech
Con 523 voti favorevoli, 46 contrari e 49 astenuti, oggi il Parlamento europeo ha dato il via libera all’Artificial Intelligence Act, il nuovo regolamento europeo sull’IA. Si tratta di un voto storico: l’Unione europea sarà il primo gruppo di Paesi al mondo ad avere una legge generale sull’intelligenza artificiale, battendo sul tempo le altre grandi potenze globali.
Tre anni di lavoro
Tutto è iniziato ad aprile 2021 con la proposta della Commissione, seguita poi dalle posizioni di Consiglio (dicembre 2022) e Parlamento (giugno 2023). Lo scorso 9 dicembre è stato raggiunto l’accordo politico sul testo e subito dopo sono partiti i lavori di rifinitura in vista delle votazioni finali. Quella del Parlamento è arrivata oggi, anche se l’adozione formale avverrà in seduta plenaria ad aprile. La votazione è stata anticipata di un mese, seguendo una procedura accelerata, vista l’imminente tornata elettorale. L’obiettivo è stato comunque raggiunto in tempi rapidi, con un testo ora composto da 113 articoli e 12 allegati.
A cosa e a chi si applica la nuova legge?
L’AI Act regola lo sviluppo, la fornitura e l’uso di sistemi di IA in tutta Europa. La definizione di «sistema di IA» è quella proposta dall’OCSE: restano quindi esclusi i software tradizionali più semplici e gli approcci di programmazione. Ci saranno anche delle linee guida della Commissione sul punto.
Le nuove norme riguardano tutte le aziende e gli enti pubblici che forniscono o utilizzano sistemi di IA in Europa. Ciò vale anche per chi non ha sede in uno paese europeo, a condizione che l’output del sistema sia usato in Ue. La legge obbliga poi anche altri soggetti, come importatori e distributori.
Il regolamento non si applica invece ai sistemi di IA per scopi militari, di difesa o sicurezza nazionale, per finalità di ricerca scientifica e a quelli rilasciati con licenze free e open source (salvo rischio). Escluse anche le attività di ricerca, prova e sviluppo dell’IA e l’uso personale non professionale da parte di singoli individui.
L’approccio basato sul rischio e i sistemi vietati
La legge classifica i sistemi di IA in base al rischio che potrebbe derivare dal loro utilizzo, graduando di conseguenza requisiti e obblighi. In altre parole, maggiore è il rischio, maggiori sono le misure di protezione imposte dall’AI Act. Sono usi a rischio inaccettabile, e per questo proibiti, i sistemi di polizia predittiva e di social scoring, il riconoscimento delle emozioni nelle scuole e a lavoro e lo scraping di immagini facciali da internet per creare banche dati. Vietato anche l’uso di sistemi di identificazione biometrica in tempo reale in spazi accessibili al pubblico, con alcune eccezioni in casi predeterminati e con autorizzazione.
…
Continua a leggere su Italian Tech