I dati sui deepfake pornografici sono allarmanti. È in continua crescita il numero delle donne la cui immagine finisce in rete, utilizzata senza alcun consenso e senza che le vittime sappiano di essere al centro di questo terribile fenomeno. A far aumentare vertiginosamente i casi, la potenza della tecnologia oggi a disposizione, che sta aprendo degli scenari futuri che possono mettere a rischio migliaia di donne.
Deepfake e pornografia, un caso in rapida espansione
È sufficiente una normale fotografia, un selfie scattato davanti allo specchio o un’immagine pubblicata in modo spensierato su uno dei propri social per finire tra le donne che ogni giorno vengono condivise sul web. Sono sufficienti app per smartphone o, addirittura, un bot (ovvero un programma installato e utilizzabile attraverso il canale del noto programma di messaggistica istantanea Telegram) per finire in rete alla mercé di alcuni suoi abitanti e non solo.
Come accade? Il deepfake si basa su una particolare tecnica, gestita da meccanismi di intelligenza artificiale, in grado di sintetizzare una fotografia combinando gli elementi già presenti nell’immagine di partenza con altri, estratti da database o presi altrove. Si realizza uno scatto completamente diverso ma estremamente realistico e credibile.
Dall’arrivo sul mercato, la tecnica del deepfake si è rapidamente sviluppata prendendo una deriva potenzialmente incontrollata ed estremamente rischiosa.
A differenza dei normali deepfake, però, quelli a carattere pornografico combinano elementi corporei privi di indumenti. Ciò rende il soggetto estremamente vulnerabile, mostrandola di fatto parzialmente o completamente nuda (seppur con parti del corpo che non gli appartengono).
C’è chi, per realizzare tali immagini, utilizza le foto di amiche, membri della propria famiglia – molte di queste addirittura minorenni – continuando ad alimentare un mercato a luci rosse fatto di inconsapevoli protagoniste. Ed è così che centinaia di migliaia di donne, completamente ignare dei fatti, si sono ritrovate al centro di scambi tra utenti. Sebbene alcune immagini appaiono palesemente finte, altre – sfruttando gli alti livelli raggiunti dall’IA – riescono a ingannare anche i più attenti, attirando le attenzioni di chi è alla ricerca di immagini pornografiche.
Deepfake e pornografia, come ha contribuito Telegram
Il programma di messaggistica istantanea ha dato una forte spinta alla pervasività del problema. Ciò è avvenuto sia per la sua rapida diffusione tra gli utenti che per la riservatezza che a volte consente a certi utenti di agire in maniera quasi indisturbata penalizzando però l’anello debole di questa catena perversa: le donne.
Da un’analisi effettuata nel 2020 da Sensity, in pochi mesi le immagini condivise tramite il programma e generate attraverso il bot installati su alcuni canali, superavano ampiamente i 100mila esemplari. Si tratta in ogni caso di dati parziali, visto che l’indagine è riuscita a stimare esclusivamente i dati generati dalle chat pubbliche e non quelli delle conversazioni private; cifre che vanno ad aggiungersi ai video deepfake, altra piaga comparsa in rete alcuni anni fa e ancora in forze.
Il bot utilizzato, secondo alcuni esperti, potrebbe essere una versione potenziata di DeepNude. Il programma è stato individuato da Vice, per la prima volta, nel giugno del 2019; nonostante il suo autore avesse deciso di rimuovere l’app dopo pochi giorni, il software aveva già raggiunto i 95mila download, abbastanza per far finire il codice in mani esperti in grado di copiarlo e riutilizzarlo ad altri scopi.
Deepfake e pornografia, perché?
Un sondaggio risalente a luglio 2019, al quale hanno partecipato circa 3300 persone su Telegram, ha portato alla luce le motivazioni dietro alla creazione dei deepfake a luci rosse, le persone che spesso finiscono nella rete del deepfake sono “ragazze della propria famiglia o conosciute nella vita reale”, risposta data dal 63 degli intervistati; solo il 16, invece, è rappresentato dalle celebrità provenienti dal mondo dello spettacolo, dello sport e altri ambiti. Ultima categoria, tra le più votate, quella delle modelle e delle “bellezze” di Instagram, con l’8 delle risposte.
Ciò che più spaventa gli esperti, però, è l’uso che viene fatto di queste foto: molte di queste vengono utilizzate con l’intento di umiliare le persone immortalate, oltre che a scopo di ricatto. Non mancano infatti i casi di donne che sono state ricattate con la minaccia di diffondere tali immagini, in famiglia o sul posto di lavoro, creando veri e propri problemi alle vittime.
Tra video e immagini, solo nel 2020 i numeri hanno toccato i 49mila file, una cifra sorprendentemente alta rispetto ai quasi 15mila dell’anno precedente.
Eppure in rete aumentano i siti web e le applicazioni, anche su piattaforme di tutt’altro tipo quali GitHub di Microsoft o Google Play Store, che permettono di creare immagini che simulano la nudità dei soggetti. Una crescita che sembra incontrollabile, almeno con gli strumenti attuali. Proprio su GitHub è stata costretta a rimuovere più volte la versione open source del codice di DeepNude. Anche se la sua presenza è contraria ai termini di servizio, non mancano i casi di utenti che più volte hanno tentato il caricamento sul repository; sono però le segnalazioni degli iscritti a far scattare la moderazione da parte di GitHub, visto che l’azienda ha più volte ribadito che non rientra tra i propri compiti quello di agire sugli upload.
Deepfake e pornografia, il futuro
Di certo, la presenza e la diffusione di tali programmi ha messo in allarme molte ragazze e donne che, inevitabilmente, potrebbero inconsapevolmente finire nel mirino di malintenzionati. Purtroppo siamo ancora molto lontani dall’annientamento di tale fenomeno, motivo per il quale sempre più persone preferiscono evitare di diffondere le proprie immagini sul web, limitando per quanto possibile il rischio di ritrovarsi contrariamente alla propria volontà in balia di sconosciuti.
Fonte Fastweb.it