Coincidenza vuole che il 25 agosto, pochi giorni dopo l’orrore del video dello stupro di Palermo, entri in vigore il Digital Service Act, il nuovo regolamento europeo sui servizi digitali. Si tratta delle norme, che riguardano i social network, ma anche le piattaforme di acquisti online, di prenotazione viaggi dal web, le App e i motori di ricerca, senza escludere i servizi di archiviazione cloud. Cosa prevede? Meno ricorso agli algoritmi dell’Intelligenza artificiale e un ritorno al criterio della cronologia, più tutela per i minori e più trasparenza. Una piccola rivoluzione, in assenza di regole a livello europeo, che ha già portato alcuni big ad adeguarsi, come Meta, mentre altri come Amazon sono già sul piede di guerra e annunciano ricorsi. Ma cosa cambia per gli utenti? E soprattutto, questo potrà impedire la circolazione di video come quello dello stupro di Palermo?

Il video dello stupro di Palermo e le nuove norme

L’entrata in vigore delle nuove norme arriva all’indomani delle polemiche per la caccia al video sullo stupro di Palermo. «Video del genere non dovrebbero neppure poter essere caricati, esattamente come avviene per i contenuti che violano il diritto d’autore. Nella maggior parte dei Paesi del mondo la condivisione non consensuale di materiale intimo è reato» spiega l’avvocata Marisa Marraffino, specializzata in reati informatici e minori. È sempre la legale a ricordare la mancanza di leggi efficaci in tal senso in Italia: «La California, dove sono nati i principali social network, ha introdotto una legge contro queste forme di abuso prima dell’Italia. Quello che potrebbe e dovrebbe cambiare con le nuove norme è rendere più difficile se non impossibile caricare certi contenuti», prosegue Marraffino.

Certi video devono essere bloccati all’origine

Le piattaforme, infatti, non hanno un obbligo di sorveglianza preventiva, «ma da oggi hanno doveri di controllo più stringenti. Dovranno mettere in campo tutti gli strumenti oggi esistenti (sistemi di moderazione, algoritmi, ecc.), per evitare danni agli utenti. Si tenta di recuperare un ritardo legislativo che negli anni ha prodotto danni enormi ormai sotto gli occhi di tutti». Il problema, quindi, è soprattutto agire in modo preventivo: «Le regole ci sono, nel senso che se si condivide quel tipo di video si commette il reato di revenge porn, dovrebbero però esserci dei sistemi per impedire che certi filmati siano caricati all’origine. Quello che è accaduto finora e che speriamo non accada più è che si debba sempre rincorrere i video e i loro autori che hanno mille strumenti per rendersi ‘invisibili’», chiarisce l’avvocata.

Cos’è il Digital Service Act

«Le nuove norme del Digital Service Act si applicano a tutti: social network, motori di ricerca, siti di e-commerce, con maggiori obblighi e controlli per chi ha più di 45 milioni di utenti attivi. Per queste piattaforme sarà necessaria, ad esempio, una valutazione annuale dei rischi, che dovranno essere minimizzati senza attendere le segnalazioni degli utenti. Ci saranno inoltre controlli esterni da parte di autorità indipendenti e maggiori obblighi di collaborazione», premette l’avvocata.

A cosa serve il Digital Service Act: pubblicità e minori

«Il Digital Service Act entra in vigore dal 25 agosto, anche se sarà effettivamente attivo da gennaio 2024. Al momento c’è da vedere come realmente i gestori recepiranno le nuove norme, che mirano a offrire più trasparenza: significa che gli utenti capiranno, ad esempio, come mai gli vengono mostrati alcuni contenuti e, in alcuni casi, potranno anche scegliere cosa vedere e cosa no. I due punti fondamentali della normativa hanno a che fare con la pubblicità (perché gli viene mostrata) e con la tutela dei minori, quindi avranno maggiori informazioni su quali dati saranno trattati e come», spiega Elena Farinelli, social media manager.

Cosa cambia sui social con il Digital Service Act

«In concreto l’utente potrà scegliere se accedere alla piattaforma senza essere profilato oppure in forma anonima, accettando ad esempio di visualizzare pubblicità non mirate, ma casuali. La logica dell’algoritmo dovrà in ogni caso essere spiegata, in modo che sia chiara. Non si potranno usare, poi, dati particolari come quelli relativi all’orientamento sessuale, politico o all’appartenenza religiosa per pubblicità mirate – chiarisce l’avvocata Marraffino – Gli utenti potranno anche chiedere un risarcimento in caso di danni derivanti dalle piattaforme che non rispettano i loro obblighi».

Si potrà chiedere un risarcimento

L’obiettivo è fornire maggiori garanzie di tutela agli utenti. «Le nuove norme rispondono a una esigenza sempre più condivisa. Basti pensare che negli Stati Uniti negli ultimi anni si sono moltiplicate le cause degli utenti per “danni da prodotto difettoso”, in caso ad esempio di condotte autolesioniste alimentate da contenuti pericolosi suggerite dagli algoritmi», spiega Marraffino. Ma come ci si protegge, in concreto? A chi ci si rivolge in caso di mancato rispetto della normativa? «L’art. 54 dice che puoi chiedere il risarcimento direttamente alla piattaforma», risponde Marraffino.

Un garante dei Servizi Digitali

A ciò si aggiunge anche una nuova figura di garanzia: «Infatti, ci sarà anche questa nuova figura con la quale sarà possibile interfacciarsi, il Coordinatore dei Servizi Digitali, che sarà responsabile di vigilare appunto sull’applicazione delle nuove norme in ogni Stato Membro».

Le norme su shopping online e contenuti

Le nuove norme, dunque, si applicheranno anche ai siti di shopping online: «Dovranno essere migliorate in generale la comunicazione e la trasparenza», spiega ancora l’avvocata. «Inoltre, come già avviene negli Stati Uniti, se le piattaforme verranno a conoscenza di informazioni che fanno sospettare che un utente abbia commesso un reato che comporta una minaccia per la vita o la sicurezza di una o più persone, dovranno informare subito le autorità competenti dello Stato in cui risiede l’utente e in ogni caso Europol, oltre a fornire tutte le informazioni utili».

Account disattivati o contenuti bloccati: cosa cambia

«Le norme in linea teorica sono chiare, o quantomeno gli obiettivi. Bisognerà vedere come saranno applicate in concreto. Se da un lato è importante che ci siano maggiori controlli, è anche vero che a volte già adesso è difficile stabilire il confine tra l’evitare la circolazione di fake news e contenuti nocivi, e la censura, tra l’esigenza di sicurezza e la libertà di espressione. Ad oggi Facebook, ad esempio, tende a bloccare account quando si toccano certi temi: a volte è giusto, ma in altri casi si bloccano conversazioni con l’obiettivo di essere più prudenti», commenta Farinelli. Lo scopo delle nuove norme, però, è proprio quello di stabilire principi più chiari e condivisi: «Il regolamento prevede che se verrà disattivato un account o rimosso un contenuto, dovrà essere dato uno specifico avvertimento all’utente interessato e fornita una motivazione sulla base del diritto esistente e non soltanto delle policy della piattaforma» chiarisce però Marraffino.

Più tutela per i minori

Come detto, particolare attenzione è riservata ai minori: «È previsto il divieto espresso di profilare i minorenni. Inoltre una volta all’anno le piattaforme con più di 45 milioni di utenti dovranno effettuare una precisa valutazione di rischi per evitare conseguenze negative sui minorenni. Ad esempio dovrà essere scongiurata la visualizzazione di contenuti violenti, che incitano all’odio o alla discriminazione», spiega l’avvocato. Poi «dovrà essere impedita la condivisione di challenge pericolose o di contenuti che incitano a comportamenti dannosi per la salute, come i video o le fotografie che mostrano comportamenti alimentari scorretti o nocivi. In caso di violazione per le piattaforme possono essere previste anche sanzioni fino al 6% del fatturato annuo mondiale».