porno
Potresti essere in un porno e non saperlo
La seconda legge della filosofia di Perry Cox, indimenticabile dottore di Scrubs, diceva: «Sono sicuro che se da internet togliessero tutta la pornografia resterebbe un solo sito chiamato "Ridateci i porno"». Gira che ti rigira, sul web si finisce sempre lì, nel porno. Come è successo ai Deepfake: sembravano fantascienza qualche anno fa, i video che ci avrebbero trasformato nei protagonisti dei nostri film preferiti. Poi sono diventati una realtà e qualcuno ha iniziato a indicarli, preoccupato, come la nuova frontiera delle fake news. Ma quello che è successo veramente è stata l’invasione di video hot con i volti delle celebrità su corpi di pornostar che hanno fatto milioni di visualizzazioni e la fortuna economica di molti siti. Alla faccia, è proprio il caso di dirlo, dei diritti sulla propria immagine delle star. Poi sono apparsi i deepfake con protagonisti persone comuni e le chatroom su Telegram dove ignare ragazze diventano protagoniste di pornografia non consensuale.
Cosa sono i Deepfake
Come al solito tutto ha avuto inizio su Reddit, il luogo di nascita dei trend che poi conquistano il web. Il pubblico scoprì il fenomeno grazie a un profilo utente, deepfakes appunto, che pubblicava su r/deepfake e che, per primo, postò video pornografici con protagoniste celebrità. Quello su Daisy Ridley divenne virale. La giornalista Samantha Cole scoprì la cosa e scrisse un articolo che portò alla chiusura di r/deepfake e al bando dei deepfake pornografici da Reddit, Twitter e persino Pornhub. Ma quando tiri fuori dal cappello una nuova tecnologia non puoi più rimetterla dentro. Oggi i deepfake pornografici sono un fenomeno in crescita su tantissime piattaforme che, diversamente da Pornhub, hanno deciso di chiudere un occhio sul fenomeno. Tutto per i numeri: il video con Emma Watson, per fare un esempio, postato su XVideos, Xnxx e xHamster, è stato visualizzato 23 milioni di volte. Oggi sono già 76.000 i deepfake con celebrità nei siti porno del pianeta, e aumentano di 1.000 al mese. Sensity è la prima compagnia che si occupa di questo tipo di minaccia (visual threat): «Abbiamo costruito dei metodi basati su intelligenza artificiale» ci spiega Giorgio Patrini, fondatore e capo scientifico di Sensity «che ci permettono di capire se facce o corpi di persone che appaiono nei video sul web sono stati manipolati. Il nostro sistema va regolarmente a cercare su social media, forum, diverse community sul dark web e cerchiamo i contenuti, filtriamo e poi rendiamo disponibili i dati per i clienti. Andiamo a cercare comunità di sviluppatori di questo tipo di software o comunità di users» inclusi i marketplace dove questa forma di pornografia non consensuale viene venduta. È così che Sensity ha scoperto la nuova frontiera del deepfake: le chatroom su Telegram.
I gruppi di porno deepfake su Telegram
Il nuovo trend dei deepfake non riguarda più le celebrities ma le persone comuni. Su Telegram sono nate chatroom costruite attorno a bot automatizzati che trasformano ignare cittadine in protagoniste di foto pornografiche. Come? «Alcune delle tecnologie e applicazioni che riguardano fake pornography sono state automatizzate a tal punto da essere utilizzabili usando fotografie singole» continua Giorgio Patrini. Non servono più video lunghi per poter realizzare un faceswap, uno scambio di volto, su un porno. «Semplicemente usando una fotografia singola è possibile costruire immagini di nudo, ad esempio» allargando così questo fenomeno anche ai cittadini comuni che magari hanno profili Facebook chiusi e la privacy alta. «Avendo una o due fotografie rintracciabili da Google, queste persone sono attaccabili. Abbiamo trovato decine di migliaia di foto pornografiche, soprattutto ragazze, che non possiamo identificare perché sono persone private e le loro foto sono state rubate dai social media, da amici o da estranei, e sono state usate per costruire fake pornography su internet». I canali sono pubblici, ma devi sapere come raggiungerli. Noi abbiamo scoperto alcuni di essi e ci siamo entrati: sono frequentati in gran parte da russi ma non solo, gli utenti caricano le foto di amiche, ex fidanzate, conoscenti o celebrities e attendono qualche minuto prima che il bot le trasformi in dive del porno. «Meglio se foto di una donna e già in costume da bagno. Quel tipo di immagine che trovi su Instagram. Metti la foto e dopo qualche minuto il bot ti butta fuori un fake nude, evoluzione del software deepnude, che è stato totalmente automatizzato ed è praticamente utilizzabile gratis su Telegram». Un fenomeno in crescita straordinaria. Nel report appena pubblicato da Sensity si parla di centinaia di migliaia di donne bersaglio di questa pratica, nel 70% dei casi comuni cittadine, con un aumento esponenziale ogni sei mesi. Questi bot, come i deepfake in generale, sono principalmente usati da consumatori di pornografia, ma esiste anche la possibilità che diventino armi per danneggiare o estorcere denaro alle donne ritratte in foto. Come il revenge porn. Uno dei canali in cui siamo entrati, tra i più grandi, conta 83.074 iscritti e 685.651 donne vittime di pornografia non consensuale. La chatroom è divisa in molti link tutti collegati tra loro: una homepage dove pubblica solo l’admin, una chat dove gli utenti caricano una media di 200 immagini al giorno, una photo gallery con archivi di foto manipolate (alcune di ragazze giovanissime, forse minorenni), un File & Crack dove scaricare il software, poi un canale Manual dove risolvere i problemi, e il bot vero e proprio. «Abbiamo contattato anche le forze dell’ordine e Telegram stesso» aggiunge Giorgio Patrini «ma non abbiamo ottenuto alcun risultato, quindi abbiamo deciso di rendere pubblica questa cosa almeno per far sapere cosa sta succedendo. Sicuramente sarà un problema di tutti nei prossimi due anni».
Le altre minacce visuali
Ma i rischi del deepfake non si fermano alla pornografia. Sensity ne ha scoperti altri altrettanto inquietanti. Prima di tutto la possibilità di cambiare il proprio volto su Zoom o Skype rubando l’identità di qualcun altro: «Questa è una cosa che avevamo predetto, oggi è possibile, esistono già strumenti open source che permettono di apparire con il volto di un’altra persona in Skype call. Si parla più precisamente di facial reenactment, impersoni qualcun altro in tempo reale. È il contrario di un faceswap. Abbiamo visto questo fenomeno prendere piede. Oggi, nel 2020, non sembra credibile ma è solo questione di tempo prima che possa diventare una vera minaccia». In secondo luogo la possibilità di ingannare sistemi di riconoscimento facciale usati nella sicurezza di organismi governativi e grandi aziende (ma anche sui nostri telefoni): «Quello che vediamo negli ultimi mesi è una cosa molto simile al faceswap o facial reenactment su video in real time e riguarda un altro settore, quello biometrics. In sostanza è un grosso settore industriale sul controllo dell’identità. Anche questi sistemi sono esposti al deepfake».
Segui VD su Instagram.