I governi europei, raccolti nel Consiglio dell’Ue, finora hanno fatto una scelta, sul grado di libertà da garantire allo sviluppo di tecnologie di intelligenza artificiale. La scelta è concedere ampia libertà se le tecnologie riguardano la sicurezza nazionale.
I governi europei hanno iniziato a lavorare alle modifiche della proposta di regolamento sull’intelligenza artificiale, il cosiddetto AI Act, pubblicato il 21 aprile 2021 dalla Commissione europea. Il testo regolerà lo sviluppo di questa tecnologia nei settori più diversi e per questo è guardato a vista da governi, aziende e società civile.
Da un lato c’è la necessità di avere una norma che non blocchi lo sviluppo tecnologico e dall’altro che non cali l’attenzione sulla tutela dei diritti fondamentali.
Questa prima proposta del Consiglio, prodotta quando ancora la presidenza era quella slovena, presenta alcune modifiche degne di nota e anticipa molti punti di discussione.
Uno tra tutti è la mancata applicazione delle norme e tutele in discussione quando l’uso dell’intelligenza artificiale avviene nel settore della sicurezza nazionale, con potenziali risvolti negativi per i diritti fondamentali.
UN APPROCCIO BASATO SUL RISCHIO
Non potendo trattare l’intelligenza artificiale in modo settoriale, vista la sua possibile applicazione in ogni campo, la Commissione ha scelto peso per un approccio basato sul rischio.