Il Revenge Porn è in aumento, lo confermano le associazioni che si battono contro questo fenomeno e gli avvocati che assistono le vittime. Le “vendette pornografiche” consistono nel postare foto, video e immagini a sfondo sessuale degli ex o delle persone che si vogliono “danneggiare”. Ma nel frattempo si fa largo anche il Deep Nude, tramite App che permettono di modificare foto normali trasformandole in nudi, senza il consenso della diretta interessata, che è quasi sempre una donna.

Per fermare queste azioni è stata presentata una proposta di legge, da parte della deputata Sabrina De Carlo (M5S). D’accordo anche la sociologa Silvia Semenzin, ricercatrice presso le Università di Madrid e Amsterdam, impegnata contro il Revenge Porn: «È urgente provvedere da un punto di vista legislativo, perché questo fenomeno è aumentato con la pandemia. Nell’ultimo anno in piattaforme come Telegram sono aumentati i bot, i piccoli programmi che rendono facilissima la creazione di Deep Fake Porn, le foto che, sfruttando l’intelligenza artificiale, di fatto permettono di spogliare le donne».

Sulla necessità di fermare certe condotte è d’accordo l’avvocato Marisa Marraffino, esperta di social e reati informatici: «Le App di questo tipo sono in aumento e sono sempre più facili da usare da parte di chiunque, non bisogna essere esperti informatici. I deep fake, cioè i prodotti di queste applicazioni, sono diventati sempre più sofisticati e ben fatti: a occhio nudo si fatica a capire che si tratta di un fotomontaggio. Purtroppo rispondono a un mercato che già da diversi anni è in crescita».

Come funzionano Deep Nude e Deep Fake

«Si può diventare vittima semplicemente per aver caricato una fotografia sui social network o per aver scambiato video e fotografie con persone conosciute on line. Mi è capitato una volta un caso di una vittima che aveva trovato l’autore di un suo fotomontaggio su un gioco on line» spiega Marraffino. In pratica con le App di Deep Nude si possono ottenere foto “senza veli”, partendo da normalissime immagini. «Infatti viene meno anche l’invito a non postare foto compromettenti, perché con questi nuovi strumenti anche scatti innocenti possono diventare dei nudi» spiega Semenzin. Ma non solo: «I deep fake però sono pericolosi non soltanto in ambito pornografico: possono essere usati per screditare qualcuno, per convincerlo a farsi dare dei soldi o persino per istigarlo alla violenza o al terrorismo. I contenuti audio o video falsi sono stati classificati tra gli usi più preoccupanti dell’intelligenza artificiale in termini di potenziali applicazioni per vari crimini» avverte l’avvocato. Come spiega l’esperta, «esistono software che consentono di falsificare la voce e la fisionomia di parenti, amici o del proprio datore di lavoro per simulare una chiamata o addirittura una videochiamata. Penso che sarebbe opportuna una revisione di molti reati informatici, anche dal punto di vista procedurale».

Manca una legge contro il Deep Nude

La proposta di legge della deputata 5 Stelle prevede l’inserimento nel codice penale dell’articolo 612- quater, per punire chi invia, cede, pubblica o diffonde immagini manipolate di nudo appartenenti a persone fisiche riconoscibili, attraverso l’utilizzo di strumenti tecnologici e di App, allo scopo di trarre in inganno l’osservatore. Viene prevista una multa da 6.000 a 16.000 euro e la reclusione da due a sette anni, con pene aumentate nel caso in cui il reato sia commesso da un parente. «Per quanto riguarda i Deep Fake c’è effettivamente un vuoto normativo che sollevai personalmente a un tavolo tecnico prima dell’entrata in vigore del Codice Rosso, la legge 69/19 che ha introdotto anche il reato di cosiddetto Revenge Porn, previsto oggi dall’art. 612 ter del codice penale. La norma, poi, fu approvata forse frettolosamente e presenta effettivamente diverse lacune» conferma Marraffino.

La legge sul Revenge Porn o «pornografia non consensuale» (chiamata anche «pornovendetta» dall’accademia della Crusca) risale a luglio 2019 e prevede la reclusione da uno a sei anni e una multa da 5 a 15mila euro. Si può verificare in caso di Sexting, ossia l’auto ripresa di immagini o video in pose intime da parte della vittima e successivamente inviate a terzi, anche mediante webcam; filmati durante momenti intimi con telecamere nascoste; oppure tramite la pirateria informatica, cioè quando viene hackerato il dispositivo o lo spazio di archiviazione (smartphone o cloud) della vittima oppure se questa è indotta a consegnare il suo device o il materiale. Ma chi ne è vittima?

Identikit delle vittime

«Il fenomeno è preoccupante e in aumento, legato anche al fatto che con la pandemia è cresciuto il tempo trascorso online, sui social. I dati relativi a novembre indicavano già la presenza di moltissimi gruppi con oltre 100mila partecipanti. Il risultato è che la community porta ad alcuni comportamenti che sono ritenuti dagli autori come gesti di goliardia e invece sono di violenza vera e propria – spiega la sociologa – Le vittime sono pressoché unicamente donne, specie se si tratta di Deep Fake Nude o Deep Fake Porn, mentre ci sono anche uomini nel caso di falsificazioni a scopi politici».

Donne, dunque e spesso giovani: «Si tratta soprattutto di ragazze, perché sono loro a usare maggiormente i social, ma il fenomeno riguarda tutte le donne perché tutte possiamo essere vittime di questo tipo di violenza che è espressione del desiderio di dominio maschile sul corpo femminile. Spesso in questi gruppi, dove si ricorre ad App o bot per svestire le donne, si perde la percezione della violenza che si sta esercitando sulle vittime, ma i dati mostrano che nel 51% dei casi chi subisce queste azioni tenta il suicidio» aggiunge Semenzin, che è anche co-autrice del libro Donne tutte puttane. Revenge Porn e maschilità egemone (Durango edizioni).

Come difendersi oggi da Deep Nude e Deep Fake

In attesa di una legge specifica, come ci si può difendere oggi? «Queste condotte oggi sono considerate comunque illecite: possono integrare il reato di diffamazione, di trattamento illecito dei dati personali, in alcuni casi di frode informatica o di molestie fino allo stalking. Se la vittima è minorenne, l’art. 600 quater del codice penale, che disciplina il reato di pornografia virtuale, consente di punire anche i Deep Fake perché prevede espressamente di ricorrere ai reati di pornografia minorile (art. 600 ter c.p.) e di detenzione di materiale pornografico (art. 600 quater c.p.) anche quando le immagini sono virtuali. La stessa cosa dovrebbe essere prevista per gli adulti, visto che la portata offensiva delle condotte è la stessa» chiarisce Marraffino.

I limiti della giustizia sui social Network

Una legge può servire, dunque, ma occorrerebbe un intervento più ampio: «Una nuova norma può servire anche come deterrente, ma è necessario ripensare al sistema con cui i social network e i provider in generale collaborano con le autorità giudiziarie dei vari Stati. Le leggi attuali di contrasto alla criminalità informatica non sono sufficienti, basti pensare alle difficoltà che hanno le vittime di diffamazione e di hate speech a far valere concretamente i propri diritti. Anche in caso di frodi informatiche, il tempo per ottenere un sequestro preventivo di un sito, cioè il suo oscuramento, è troppo lungo e non avviene a livello mondiale, ma spesso nazionale, con evidenti limiti» spiega l’avvocato Marisa Marraffino.

I precedenti e i nuovi pericoli dai social

Nell’estate del 2019 era stata lanciata una app apposita che consentiva di trasformare in nudi dei semplici scatti, poi fu ritirata dagli ideatori, ma ad oggi la pratica è ancora in uso nel dark web e in alcuni canali dei social network. «Oggi le App per manipolare digitalmente voci e volti sono sempre più facili da usare e più efficaci. Ci saranno sempre più reati legati a questi software. Dovremmo studiare strumenti legislativi internazionali per bloccare i Deep Fake in tempo reale per evitare che diventino sempre più pericolosi e per prevenire i reati, non soltanto a punirli» sottolinea Marisa Marraffino, che aggiunge: «In un mondo ideale il legislatore dovrebbe prevedere e quindi prevenire i futuri attacchi informatici anziché rincorrerli. Il settore finanziario, ad esempio, utilizza da anni l’intelligenza artificiale per riconoscere gli attacchi in tempo reale e bloccare le transazioni potenzialmente fraudolente».

Eppure non mancano esempi di interventi con leggi specifiche: «In Virginia il reato di Revenge Porn è già stato modificato per punire anche i Deep Fake. La legge del Texas, invece, punisce queste pratiche quando hanno fini elettorali, come la realizzazione di video che mostrino in modo fraudolento un candidato politico per metterlo in imbarazzo agli occhi di chi potrebbe votarlo. A New York, invece, ci sono disegni di legge che riguardano queste pratiche con persone decedute, mentre due leggi statali affrontano la crescente minaccia di Cheap Fake, frodi digitali commesse con tecnologie ancora più rudimentali che non richiedono strumenti di intelligenza artificiale per essere realizzate. Questo dovremmo fare anche in Italia, prevedere norme in grado di fronteggiare i futuri attacchi, in modo che le vittime non si sentano ogni volta prive di tutela».