di Vincenzo Tiani
La notte di venerdi 22 aprile, dopo 16 ore di contrattazione ai cosiddetti triloghi, i tavoli dove i rappresentanti delle tre istituzioni europee, Commissione, Parlamento e Consiglio, si riuniscono per trovare la quadra sulle leggi europee, è stato trovato un accordo politico sul Digital Services Act (Dsa). Il Dsa è il nuovo regolamento europeo, uguale dunque in tutti i 27 Paesi membri, che aggiorna le regole degli intermediari online, con diversi gradi di responsabilità dalle startup alle big tech. Il testo aggiornerà la direttiva ecommerce del 2000, analoga alla norma americana del 1996 della Section 230 del Communications Decency Act, che finora ha permesso a siti e piattaforme di prosperare grazie al proprio ruolo di intermediari, senza doversi preoccupare troppo di ospitare contenuti illegali. L’unico obbligo previsto è che le piattaforme dovessero procedere alla rimozione del contenuto una volta avuta notizia della sua illegalità.
L’accordo del testo finale sul Digital Services Act arriva in poco meno di sedici mesi dalla pubblicazione della proposta della Commissione europea. Per i tempi di Bruxelles e vista la portata della norma si tratta di tempi molto rapidi, segno di una certa convergenza d’intenti tra i gruppi politici e tra le istituzioni. Il file non si può ancora dire chiuso in quanto non è ancora stato pubblicato un testo definitivo per il voto finale che comunque dovrà passare il vaglio finale del Parlamento tra qualche settimana.Cosa prevede il Dsa
Secondo quanto riferito da Parlamento e Consiglio, in attesa che il testo concordato sia pubblicato, nel testo finale si stabilisce che la Commissione e gli Stati membri avranno accesso agli algoritmi delle grandi piattaforme online; gli utenti potranno segnalare i contenuti online illegali che dovranno essere rimossi rapidamente e le piattaforme dovranno offrire maggiori garanzie sui soggetti che ne fanno uso per offrire i loro prodotti e servizi.
Agli utenti dovrà essere spiegato in modo chiaro come sono raccomandati i loro contenuti, mentre per le piattaforme dedicate ai minori dovranno essere garantite misure specifiche per tutelarli. Le piattaforme più grandi dovranno effettuare una valutazione complessiva sull’esistenza di rischi sistematici che possano favorire una diffusione di contenuti illegali, effetti negativi sui diritti fondamentali, o abbiano un impatto sui processi democratici e la sicurezza pubblica. Si tratta di quelle piattaforme che hanno più di 45 milioni di utenti attivi mensilmente in Europa (very large online platforms o Vlop). Queste ultime saranno soggette al controllo della Commissione, in modo da evitare i rallentamenti visti con il Gdpr. Nei casi più gravi le sanzioni raggiungeranno il 6% del fatturato globale.
…
Continua a leggere su Wired Italia