Di Rocco Panetta
Diversi sono i temi che hanno animato la discussione politica attorno all’Artificial Intelligence Act, dai requisiti e gli obblighi per i sistemi ad alto rischio alla visione “umano-centrica”.
Proseguendo nella disamina del nuovo regolamento Ue iniziata qui su Agendadigitale.eu (potete recuperare i numeri precedenti qui) approfondiremo qui le nuove previsioni dedicate ai foundation models, rispetto ai quali in molti di certo ricorderanno la lettera di alcuni Stati membri volta a chiedere una regolamentazione più soft.
Più propriamente, parliamo dei modelli di IA per finalità generali, perché è questa la categoria concettuale che, alla fine, ha trovato residenza all’interno dell’AI Act.
Gli obblighi di trasparenza per determinati sistemi di IA
Prima di discutere le norme sui modelli di IA per finalità generali, credo sia il caso di sui livelli di rischio identificati dall’AI Act. Ciò in quanto il legislatore europeo, oltre ai divieti per le pratiche di intelligenza artificiale a rischio inaccettabile e i numerosi adempimenti per i sistemi di IA ad alto rischio, è intervenuto dettando una serie di obblighi di trasparenza per le ipotesi di intelligenza artificiale “a rischio limitato”.
Questa famiglia di applicazioni comprende innanzitutto quei sistemi di IA destinati a interagire direttamente con le persone, i quali dovranno essere progettati in modo che gli interessati siano consapevoli di comunicare con un algoritmo di intelligenza artificiale.
Continua a leggere su Agenda Digitale.