Non bastava il revenge porn, neppure il bullismo: nelle scuole ora è arrivato anche il deepfake, ossia le immagini create dall’intelligenza artificiale. Nella maggior parte dei casi riguardano foto di nudo, che appaiono così verosimili da sembrare autentiche, proprio come accaduto a Rose Villain. L’allarme è scattato negli Stati Uniti, ma ormai il fenomeno si è diffuso anche tra gli studenti italiani, che sembrano non avere “armi” a sufficienza per difendersi, nel caso siano vittime, o per capire la gravità delle loro azioni, se ne sono gli autori. Ecco perché e come evitare abusi.
Il deepfake aumenta tra gli studenti
Se le potenzialità dell’AI sono enormi, le conseguenze di un uso distorto lo sono altrettanto. Basti pensare a quanto accaduto a Rose Villain, che ha denunciato la circolazione in rete di sue presunte foto “senza veli”. A realizzarle, però, sarebbe stata l’intelligenza artificiale, che consente di spogliare le vittime, modificando uno scatto normale e rendendolo hot. Proprio come pare che stiano facendo in modo sempre più frequente molti ragazzi nelle scuole americane. Tra i casi più clamorosi, quello denunciato dal New York Times, che ha raccontato la storia di Dorota, studentessa alla Westfield High School del New Jersey. Ma il fenomeno pare si stia diffondendo anche in diversi istituti italiani.
Immagini modificate per creare foto di nudi
«Le app che consentono di creare falsi nudi partendo da fotografie ordinarie esistono da tanto tempo. I ragazzi le usano spesso, trascurando i rischi, a volte soltanto per divertirsi con gli amici. Di solito lo fanno con le fotografie delle compagne di classe o di scuola. Usare queste applicazioni è semplice, basta prendere un’immagine di qualcuno da un social network e abbinarla a un corpo nudo generato dalla App. Con l’intelligenza artificiale, poi, le fotografie e i video diventano sempre più realistici, è difficile capire che si tratta di un fake», conferma l’avvocato Marisa Marraffino, specializzata in digitale e giovani, e consulente legale per Terre des Hommes Italia.
Tecnologia illimitata e pericolosa
Secondo un’analisi del gruppo informatico Home Security Heroes, tra il 2002 e il 2023 le immagini di deepfake sono aumentate del 464%. «Purtroppo questo è un territorio completamente libero e che si sta evolvendo. Proprio in questi giorni ci è capitato il caso di un pensionato derubato tramite una app di dating, dove era entrato in contatto con una presunta ragazza, molto bella e che parlava perfettamente italiano, di cui erano disponibili foto e video. In realtà dietro c’era un truffatore che dall’Asia aveva creato un profilo perfetto e con un elevato livello di sofisticazione. Ormai i ragazzi maneggiano la cosiddetta AI, per esempio con chat Gpt, in modo disinvolto e senza limiti di accesso. I disclaimer, infatti, sono facilmente aggirabili», ammette Riccardo Meggiato, consulente in cyber-security e digital forensics.
Che rischi si corrono
In caso di abusi o truffe occorre rivolgersi alle forze dell’ordine: «Ad occuparsi di questi reati è la polizia postale, ma va sottolineato che quando viene pubblicata una foto è poco realistico pensare di bloccarne per sempre la circolazione. Basti ricordare il caso di Tiziana Cantone, a quanto era stato faticoso bloccarne i contenuti intimi, salvo ritrovarne ancora traccia, tempo dopo la chiusura della vicenda – osserva Meggiato – Temo che il fenomeno tenderà ad aumentare. Per questo insisto sul fatto che i primi a proteggerci dobbiamo essere noi stessi, facendo attenzione a cosa pubblichiamo: è molto più facile togliere un bikini da una foto in costume che non un maglione e dei pantaloni. Non sono per la censura, ma non dimentichiamo i rischi a cui andiamo incontro. Attenzione anche con gli scatti dei bambini: sarebbe meglio evitare quelli in costumi in spiaggia proprio perché hanno pochi vestiti».
Il deepnude e le immagini “hot” in rete
Che fine fanno, dunque, le immagini di nudo messe in rete, cioè il cosiddetto “deepnude”? «Video e fotografie potranno essere sequestrati dall’autorità procedente o cancellati direttamente dalle piattaforme, ma è importante denunciare e segnalare subito, in modo che i contenuti non diventino virali e sia poi più difficile bloccarli tutti», esorta l’avvocato Marraffino. «Purtroppo, ripeto, occorre essere chiari: è quasi impossibile garantire una rimozione completa una volta che le immagini sono state pubblicate.
Il deepfake nelle scuole che preoccupa anche in Italia
Il caso raccontato dal NYTimes, però, non è affatto isolato. Oltre a diversi precedenti negli Usa, però, non mancano segnalazioni neppure in Italia. Già un anno fa esatto aveva tenuto banco il “caso BikiniOff”, dopo che due studenti di una scuola media in provincia di Roma erano stati accusati di aver modificato cinque foto delle compagne di classe con l’omonima app francese, condividendo poi gli scatti. Come racconta FanPage, invece, in un istituto a Latina è stata un’insegnante a essere “spogliata” da alcuni suoi studenti che poi, trasformate le foto in nudi, le hanno caricate su un sito porno.
Come funzionano le App di deepfake
Le app utilizzate per deepfake e deepnude funzionano in modo simile a un chatbot di Telegram. «L’AI oggi si fonda su algoritmi che analizzano una quantità enorme di dati (si parla, infatti, di deeplearning) in tempi brevissimi. Se dispone di un set enorme di immagini di corpi umani, l’AI riesce a “imparare”, ad esempio, che i fianchi di una certa larghezza porteranno statisticamente a gambe a una determinata distanza tra loro. Con queste app, se si toglie il reggiseno da una foto, si ottiene una sorta di tavola piatta su cui disegnare il corpo “nuovo”: grazie alle informazioni del database è come se si potesse dipingere un seno molto verosimile. A volte capitano eccezioni, errori clamorosi come la cover dedicata da un magazine alla sciatrice Sofia Goggia, che aveva due piedi sinistri, osserva Meggiato.
Le conseguenze psicologiche
«Se i contenuti iniziano a girare, per la vittima è un abuso reale che può avere conseguenze pesanti», osserva Marraffini. Il caso di Rose Villain ne è una prova: l’artista sui social ha detto di aver provato «un grande disagio» e di essersi sentita «violata». «Queste immagini tendono a girare velocemente in chat e a volte anche su piattaforme on line che dovrebbero filtrare i contenuti illeciti, ma non sempre lo fanno – spiega Marraffino – La vittima può essere presa di mira, insultata e addirittura ricattata. Mi sono capitati casi di vittime di cosiddetto revenge porn riconosciute per strada che venivano additate e insultate. Esiste ancora uno stigma fortissimo in questo ambito con alcune vittime che in alcuni casi sono state costrette a cambiare città e lavoro. Nei più giovani queste condotte possono generare asia e a volte anche atti di autolesionismo».
I reati che si rischiano
«Se il materiale pornografico fake riguarda minorenni la legge prevede espressamente che sia un reato anche la creazione di immagini o video virtuali. La pena può arrivare fino a due anni di reclusione. Se poi si ricatta la vittima per non divulgare i video, si può integrare anche il reato di estorsione che è punito con la reclusione da cinque a dieci anni. Nei casi più gravi potrebbe essere configurabile anche il reato di atti persecutori, quando la vittima viene minacciata di continuo, intimorita ed è costretta a cambiare le proprie abitudini di vita per questo. La pena può superare i sei anni in questi casi», chiarisce l’avvocato.
Le leggi e i limiti attuali
Denunciare è sicuramente il primo passo, ma può non bastare. «C’è un evidente vuoto di tutela nella norma che ha introdotto il cosiddetto reato di revenge porn che non ha espressamente previsto che si possa configurare anche nel caso di immagini virtuali. Se per i minorenni possiamo invocare le norma sulla cessione e detenzione del materiale pedopornografico che espressamente lo prevede, per i maggiorenni è più difficile. Potranno nel caso configurarsi i reati di diffamazione, molestie, atti persecutori o estorsione, se ne ricorrono i presupposti. La vittima deve avere il coraggio di denunciare e segnalare alla piattaforma la presenza di contenuti intimi che la riguardano», sottolinea Marraffino.
La legge europea che cerca di limitare il fenomeno
A sottolineare i rischi legati al deepfake in Italia e tra i giovani è stato anche Agostino Ghiglia, componente dell’authority per la protezione dei dati personali. Tra le misure ricordate da Ghiglia c’è l’approvazione del Digital Service Act (DSA). «Il regolamento europeo serve a evitare che certe immagini e video finiscano facilmente on line. Le piattaforme, i social network in particolare, oggi devono prevedere forme di tutela efficaci in modo che immagini di questo tipo non possano essere caricate, partendo dalla tecnologia esistente, come gli algoritmi», spiega Marraffino. Il DSA «da solo non basterà a creare un ambiente online sicuro per tutti», dice però Ghiglia, secondo cui occorre «anche l’inserimento dell’educazione civica digitale come materia di studio fin dal primo ciclo scolastico».
La miglior difesa siamo noi stessi
«È importante agire su se stessi, sui proprio comportamenti, perché le leggi hanno dei limiti. A livello europeo ci si è mossi, ma troppo tardi, dopo aver sottovalutato il problema e aver autorizzato l’installazione di telecamere che per molto tempo hanno immagazzinato immagini – osserva Meggiato – Oggi quei database si trovano soprattutto fuori dai confini Ue e la stessa tecnologia 5G è affidata a gestori non europei. Non è un caso che negli Usa oggi si voglia bloccare TikTok. Ripeto, la miglior arma di difesa siamo noi stessi».
Il deepnude riguarda tutti
Come ricorda ancora Ghiglia, infatti, se sono noti i casi di personaggi famosi vittime di un uso “malevolo” dell’AI, da Mark Zuckerberg a Donald Truimp senza risparmiare Joe Biden, «il deepfake, da attacco isolato a fini umoristici, si sta trasformando in un fenomeno di massa, utilizzato per incastrare o diffamare personaggi in vista e dissidenti ma presto potrebbe entrare nelle nostre case, diffondersi tra la gente comune e, trasformandosi in deepnude e non solo, andare a minare i diritti umani, la libertà di espressione, la privacy delle persone». «Occorrerebbe poi estendere la norma sul revenge porn anche ai deepfake, cosa che da molto tempo chiedo anche come consulente legale di Terre des Hommes Italia. Occorre fare presto affinché le vittime, che sono già numerose, non restino senza tutela», conclude l’avvocato Marraffino.