Noelle Martin aveva solo 18 anni quando ha scoperto che le sue foto pornografiche circolavano online. Non ha mai ricordato di aver scattato, per non parlare della condivisione, immagini intime. Tuttavia, quella era la sua faccia in quelle immagini – il corpo, tuttavia, non era suo.
È diventata vittima di quelli che in seguito sarebbero stati conosciuti come deepfake. Le immagini pornografiche erano state manipolate per assomigliarle utilizzando immagini che aveva condiviso sui suoi account personali sui social media.
“Questa è una condanna a vita”, ha detto Martin a Euronews Next. “Può distruggere la vita delle persone, i mezzi di sussistenza, l’occupabilità, le relazioni interpersonali, le relazioni sentimentali. E c’è molto, molto poco che si possa fare una volta che qualcuno viene preso di mira”.
I deepfake sono video o immagini modificati digitalmente creati per rappresentare qualcuno in scenari falsi. Sebbene la tecnologia deepfake possa teoricamente essere utilizzata per scopi più spensierati, satirici o ben intenzionati, un Deeptrace Labs del 2019 rapporto ha scoperto che il 96% dei contenuti deepfake online è pornografia non consensuale.
Proprio questa settimana, un uomo di 22 anni a New York lo era condannato a sei mesi di carcere per aver pubblicato foto porno deepfake di ex compagni di scuola usando foto di loro adolescenti prese dai loro account sui social media.
Lottare per la giustizia
Nel 2013, quando a lei accadde lo stesso, Martin cercò di limitare i danni rivolgendosi alla polizia e chiedendo la rimozione delle immagini. Tuttavia, non c’era nulla che potessero fare considerando che all’epoca non esistevano leggi contro la diffusione di immagini intime in Australia, dove vive.
“Anche se puoi provare a smontare le cose, se sei una vittima di questo, hai ancora problemi a fare con chi è responsabile di rendere conto. Perché rimuovere le cose dai siti pubblici, da questi siti Web o da qualsiasi luogo siano ospitati è solo un elemento di questo “, ha affermato Martin.
“Se non ritieni un colpevole responsabile o chiunque sia responsabile, responsabile, può comunque continuare a farlo”, ha aggiunto.
Martin ha continuato a intraprendere una carriera legale e ha passato anni a spingere per una legislazione contro la condivisione non consensuale di immagini intime in Australia. Nel 2018, i suoi sforzi hanno contribuito a introdurre nuove leggi che criminalizzano la distribuzione di immagini intime non consensuali o “revenge porn” nel suo paese.
Dieci anni dopo la sua esperienza traumatica, Martin, ora avvocato di 28 anni e ricercatrice legale presso l’Università dell’Australia occidentale, sta ancora difendendo la condivisione di contenuti sessuali non consensuali, in particolare quelli creati utilizzando la tecnologia deepfake.
“In definitiva, quello che stiamo cercando di fare come comunità di sopravvissuti è spingere affinché vengano stabilite leggi, spingere affinché i paesi di tutto il mondo criminalizzino questo problema, spingere affinché si sviluppino le infrastrutture per garantire che le vittime possano cercare aiuto”, ha affermato. .
L’ascesa dei deepfake porno
I deepfake porno sono stati trovati online per anni, tuttavia, i recenti importanti progressi nell’intelligenza artificiale (AI) e la crescente accessibilità di tale tecnologia hanno reso più facile la creazione di materiale sessuale inquietantemente realistico e ingannevole.
Quando sono emersi per la prima volta i deepfake, l’obiettivo principale dietro di loro era realizzare video pornografici con i volti delle celebrità.
Il termine stesso “deepfakes” è emerso nel 2017 quando un utente con quell’alias sulla piattaforma social Reddit è diventato famoso per aver realizzato e condiviso video pornografici manipolati di celebrità femminili tra cui Scarlett Johansson e Taylor Swift.
Più di recente, i deepfake porno hanno fatto notizia a gennaio, quando un famoso streamer di Twitch, Brandon Ewing – che online si fa chiamare “Atrioc” – è stato beccato con un sito Web porno deepfake aperto sul suo browser durante un live streaming sulla piattaforma. Il sito presentava immagini ritoccate di altri streamer e amici di Twitch.
Ewing in seguito si è scusato in lacrime e ha interrotto la sua attività di streaming per diverse settimane, mentre Twitch ha aggiornato le sue linee guida della community per vietare il porno deepfake sulla piattaforma.
Nelle sue scuse, Ewing ha detto di essere diventato “morbosamente curioso” dopo aver visto un annuncio di pornografia deepfake su un popolare sito web porno, quindi ha cliccato e pagato per accedere ai video.
Gli streamer femminili di Twitch hanno visto i loro nomi trascinati nella controversia, molti dei quali hanno affermato di non essere a conoscenza dell’esistenza di tali contenuti anche online.
Lo scandalo su Twitch ha infatti provocato un picco nelle ricerche online delle frasi “deepfake porn”, “porn deepfake” e “deepfakes”, secondo quanto riportato da Dati di Google Trend.
Sophie Compton, co-fondatrice della coalizione La mia immagine La mia sceltache fa campagne contro l’abuso di immagini intime, ha affermato che la controversia mostra che gli utenti di siti Web deepfake sono parte del problema e dovrebbero essere ritenuti responsabili.
“Non sono solo i creatori, sono tutti gli utenti. E questi sono ragazzi normali. Queste sono persone nelle nostre scuole, e probabilmente anche alcune donne. Ma sono prevalentemente uomini. E questi sono compagni di classe, amici, fratelli, fidanzati”, ha detto Compton a Euronews Next.
“Potrebbero non rendersi conto che anche la loro partecipazione è parte del problema. E sta contribuendo a convalidare qualcosa che è estremamente, estremamente dannoso per le donne”.
Come vengono usati i deepfake contro le loro vittime
Sebbene i deepfake pornografici delle celebrità esistano da anni, i recenti progressi nell’intelligenza artificiale significano che oggi praticamente chiunque può diventare vittima di tali contenuti.
La tecnologia può anche essere utilizzata per screditare o ricattare le persone nel tentativo di metterle a tacere o indebolirle.
“C’è un nuovo sito Web porno deepfake che spunta ogni mese a quanto pare, e questi si stanno trasformando in attività commerciali”, ha detto Compton, aggiungendo che si stavano aprendo con apparente impunità.
“Le persone sono una specie di branding come deepfaker e accettano Bitcoin e accettano PayPal e hanno uno slogan, uno slogan e un logo”.
Sia che la motivazione dietro la creazione e la condivisione di deepfake porno sia quella di mettere in imbarazzo, diffamare o molestare le vittime o semplicemente fare soldi, il contenuto spesso rispecchia le fantasie di alcuni uomini di degradare e oggettivare le donne usando immagini esplicite, reali o false.
“Dal punto di vista di una persona che ne è l’obiettivo, anche se si può dire che qualcosa è falso o anche se non è del tutto realistico, il danno è comunque irreparabile”, ha detto Martin a Euronews Next.
“Se viene creato un deepfake di te, e anche se puoi in qualche modo dirlo, le persone assoceranno comunque a te tutto ciò che viene raffigurato di te. Puoi ancora essere sottratto. Puoi ancora avere la tua reputazione, il tuo nome e la tua immagine trascinati nel fango”.
Rana Ayyub, giornalista investigativa indiana e collaboratrice del Washington Post, è stata vittima di una campagna diffamatoria in cui sono stati utilizzati dei suoi deepfake porno nel tentativo di metterla a tacere.
Ha dettagliato la sua esperienza straziante in a colonna dove ha spiegato come essere schietta e vista come “anti-establishment” pur essendo una donna musulmana l’ha resa un bersaglio di odio sui social media.
Tuttavia, l’abuso online a cui era abituata improvvisamente è sembrato molto reale quando un suo falso video porno è diventato virale e l’ha lasciata così scioccata che non ha nemmeno potuto vedere la sua famiglia.
“L’intero paese stava guardando un video porno che affermava di essere me e io non riuscivo proprio a fare nulla”, ha raccontato.
“Dal giorno in cui è stato pubblicato il video, non sono più la stessa persona. Prima ero molto supponente, ora sono molto più cauto su ciò che pubblico online. Mi sono autocensurata un bel po’ per necessità”, ha scritto.
“È uno strumento molto, molto pericoloso e non so dove stiamo andando a parare”.
Ci sono leggi e regolamenti che ci proteggono dai deepfake porno?
Gli attivisti affermano che attualmente è molto facile umiliare pubblicamente una persona creando dei deepfake e che questa mancanza di regolamentazione e responsabilità sta fallendo le vittime.
“Il messaggio che viene inviato alle persone che stanno creando questi moduli è che nessuno verrà per te. Quello che stai facendo non è illegale e non ci sono conseguenze”, ha detto Compton.
L’Unione Europea ha proposto nuove normative per affrontare i contenuti online dannosi, ma queste devono ancora dimostrare di poter proteggere completamente le persone dai deepfake pornografici non consensuali.
Ad esempio, il Legge sull’intelligenza artificiale, attualmente in discussione al Parlamento europeo, richiede ai creatori di indicare chiaramente quando i contenuti sono stati generati o manipolati artificialmente. Ma gli attivisti affermano che le dichiarazioni di non responsabilità difficilmente scoraggerebbero i creatori di deepfake o porterebbero giustizia alle vittime una volta che il contenuto è disponibile e collegato per sempre a loro.
Tuttavia, un altro atto legislativo dell’UE in lavorazione è il Direttiva sulla violenza di genere, proposto nel 2022. Questo disegno di legge criminalizzerebbe la condivisione non consensuale di immagini intime e gli autori potrebbero rischiare il carcere. L’articolo 7b si riferisce persino specificamente ai deepfake.
Il ruolo delle aziende tecnologiche e delle piattaforme online
Nel frattempo, le vittime ripongono le loro speranze nelle piattaforme online aggiornando le loro politiche per reprimere i contenuti pornografici deepfake.
OpenAI, la società dietro lo strumento di generazione di immagini DALL-E, ha già rimosso i contenuti espliciti dai suoi dati e filtra le richieste per bloccare la creazione di immagini di celebrità e politici.
Un altro popolare modello di intelligenza artificiale, Midjourney, blocca determinate parole chiave e incoraggia gli utenti a segnalare le immagini problematiche ai moderatori.
TikTok ha anche imposto che i deepfake o i contenuti manipolati debbano essere etichettati come falsi o alterati e ha vietato i deepfake di personaggi privati e giovani.
Quando ha aggiornato le sue linee guida della community, Twitch ha avvertito che la promozione, la creazione o la condivisione intenzionale di deepfake porn avrebbe portato a un divieto immediato. Anche mostrare un assaggio di tali contenuti – anche se è destinato a esprimere indignazione – “sarà rimosso e comporterà un’applicazione”, ha scritto la società in un post sul blog.
Nel frattempo, Meta, OnlyFans e Pornhub hanno tutti iniziato a partecipare a un nuovo strumento “Take It Down” che consente agli adolescenti di segnalare immagini e video espliciti di se stessi da Internet.
“Le forze dell’ordine, i governi e le autorità di regolamentazione devono riunirsi per affrontare questo problema perché se abbiamo solo paesi nazionali in tutto il mondo che lo affrontano in modo indipendente, possono fare solo così tanto. Questo è un problema globale che necessita di una soluzione globale”, ha affermato Martin.
“Direi anche che le vittime e i sopravvissuti devono essere al tavolo ogni volta che vengono prese decisioni in merito, perché sono così spesso esclusi dalle decisioni che vengono prese su di noi, per noi, ma senza di noi”, ha aggiunto.
Image:Getty Images