venerdì 26 gennaio 2018

Samantha Cole - Siamo fottuti: ora tutti creano porno-fake con l'intelligenza artificiale

Il volto di Daisy Ridley sul corpo di un'attrice porno, un video creato con FakeApp.

Un'applicazione user-friendly ha fatto partire un'epidemia di porno con le facce delle celebrità incredibilmente realistici.
di Samantha Cole 26 gennaio 2018motherboard.vice.com                                         A dicembre, Motherboard ha scovato un redditor chiamato 'deepfakes' che in maniera piuttosto riservata non faceva altro che godersi il suo hobby preferito: prendere la faccia dei VIP e metterle sui corpi delle attrici porno. Ha creato diversi video piuttosto convincenti con protagoniste celebrità come Gal Gadot, Maisie Williams e Taylor Swift sfruttando una algoritmo di machine learning, il suo computer di casa, dei video disponibili online e un po' di tempo libero.
Da quando abbiamo scritto di deepfakes la prima volta, la pratica di creare dei porno fake grazie al supporto dell'intelligenza artificiale si è diffusa a dismisura. Sempre più persone stanno creando porno fake di celebrità grazie al machine learning, e i risultati stanno diventando sempre più convincenti. Un altro redditor ha creato una app specificamente progettata per permettere agli utenti senza una laurea in informatica di creare questi porno fake. Tutti gli strumenti di cui qualcuno ha bisogno per creare questi video sono gratis, disponibili rapidamente e sono accompagnati da un set di istruzioni perfette per accompagnare i novizi nei primi passi del processo..
.

Questi erano gli sviluppi di cui noi e gli esperti con cui abbiamo parlato eravamo maggiormente preoccupati nel primo articolo, e si sono trasformati in realtà a una velocità inquietante.

Due mesi fa, poco dopo che Motherboard aveva pubblicato quell'articolo, deepfakes ha creato un subreddit che porta il suo nome e l'ha dedicato al suo hobby preferito. In questo breve periodo ha raccolto oltre 15.000 iscritti. Nella community, la parola "deepfake" è ora un termine utilizzato per definire i video fake generati attraverso le reti neurali che deepfakes stesso ha creato per primo.

Un altro utente, chiamato 'deepfakeapp,' ha creato FakeApp, un'applicazione user-friendly che permette a chiunque di ricreare questi video partendo da qualunque video di partenza. La app è basata sull'algoritmo di deepfakes, ma deepfakeapp ha creato FakeApp senza l'aiuto del deepfakes originale. Ho scritto a deepfakes, ma non ha risposto alla mia richiesta di commento circa la novella popolarità della sua creazione.

Deepfakeapp mi ha scritto in un messaggio privato su Reddit che il suo obiettivo con FakeApp era di rendere la tecnologia di deepfakes alla portata di persone che non avevano un background tecnologico o esperienza nel mondo della programmazione.

"Credo che l'attuale versione della app sia un buon inizio, ma spero di riuscire a renderla ancora più efficiente nei prossimi giorni e settimane," ha detto. "Voglio arrivare al punto in cui le persone possono semplicemente selezionare un video sul loro computer, scaricare una rete neurale relativa a un certo volto da una libreria pubblica e scambiare il volto nel video con un'altra serie di volti premendo un singolo bottone."

A inizio gennaio, poco dopo che Motherboard ha pubblicato il primo articolo sui deepfake, ho chiamato Peter Eckersley, chief computer scientist della Electronic Frontier Foundation, per parlare con lui delle implicazioni di questa tecnologia sulla società: "Penso che ci vorrà davvero poco perché questa tecnologia si diffonda," mi ha spiegato, aggiungendo che i deepfake al tempo erano piuttosto difficili da creare. "Puoi creare dei video fake grazie alle reti neurali oggi, ma le persone continueranno a essere capaci di distinguere il falso dal vero guardando attentamente, e molte delle tecniche utilizzate sono ancora abbastanza avanzate. Tra un anno o due non sarà più così, sarà tutto molto più semplice."

A quanto pare, questa sua previsione si è avverata in appena due mesi. Abbiamo contato dozzine di utenti che stanno sperimentando con il porno fake generato da un'intelligenza artificiale, e alcuni di loro hanno creato dei video incredibilmente convincenti.

Il redditor UnobtrusiveBot ha messo il volto di Jessica Alba sul corpo dell'attrice porno Melanie Rios sfruttando FakeApp. "Semplicissimo — Ho solo dovuto capire come ri-addestrare il mio modello. Ci ho messo circa 5 ore — non troppo visto il risultato," ha scritto in un commento.




Il Redditor nuttynutter6969 ha usato FakeApp per mettere ilvolto di Daisy Ridley sul corpo di un'altra attrice porno:




I fake postati sulla subreddit sono già stati diffusi come veri su altri siti; un deepfake di Emma Watson che si fa una doccia è stato ricaricato su CelebJihad — un sito porno che raccoglie foto e video di celebrità e che posta regolarmente immagini sottratte alle celerità stesse — e descritto come "un video mai visto prima dalla mia collezione privata, include una Emma Watson completamente nuda che mostra i suoi organi sessuali mentre si fa una doccia con un'altra ragazza."

Altri redditor hanno preso dei video recuperati dalle storie Instagram pubbliche delle celebrità e li hanno usati per trasferire i volti su altri video SnapChat di nudo pubblicati da utenti amatoriali: "Ho beccato questa ragazza che balla in maniera scema e fa le stesse espressioni che Chloe a volte fa nelle sue Instagram story," ha spiegato il creatore di un deepfake dell'attrice Chloe Bennet.

La maggior parte dei post su r/deepfakes consistono di porno, ma alcuni utenti stanno creando dei video che dimostrano le assurde implicazioni di una tecnologia del genere, che permette a chiunque abbia abbastanza materia prima video di sostituire il volto presente in un video qualsiasi. Un utente chiamato Z3ROCOOL22 ha unito un filmato di Hitler con quello del presidente argentino Mauricio Macri.




Secondo deepfakeapp, chiunque possa scaricare e far girare FakeApp può creare uno di questi video partendo soltanto da un paio di video in alta qualità del volto che vogliono sostituire. La wiki del subreddit afferma che FakeApp è "una app desktop sviluppata dalla community che gira sugli algoritmi di deepfake senza che sia necessario installare Python, Tensorflow, etc...," e che tutto ciò di cui una persona ha bisogno è "una buona GPU [scheda grafica, tipo quelle che usano i videogiocatori]." Se gli utenti non hanno una buona GPU, possono anche affittare delle GPU in cloud attraverso servizi come Google Cloud Platform. L'intero processo, dall'estrazione dei dati fino alla conversione frame-by-frame di un volto su un altro, richiede dalle 8 fino alle 12 ore per farlo bene. Altre persone hanno riportato tempi decisamente più lunghi, che hanno a volte portato a risultati disastrosi.

"In onore di chiunque abbia provato e fallito con i deepfake - ecco il mio disastro," ha scritto l'utente MrDrPresidentNotSure, allegando il suo orripilante lavoro:




“Quando ottengo questi risultati significa che avrei dovuto passare più tempo ad allenare il mio modello?” ha scritto l'utente yu78156853, postando il suo deepfake fallito:

Lo scambio-volto della Principessa Leia da Rogue One, dell'utente derpfake, salta all'occhio perché è fatto particolarmente bene. La versone di FakeApp e il video prodotto da Hollywood sono praticamente identici, almeno in queste gif a bassa risoluzione. 

"La mia speranza è che nei prossimi anni gli strumenti di machine learning come questo diventeranno sempre più diffusi e alla portata di chiunque, al fine di poter esplorare le tecniche di manipolazione digitale che, ad oggi, sono appannaggio esclusivo delle grandi case di effetti speciali," mi ha spiegato deepfakeapp.









"Sopra c'è il filmato originale di Rogue One, con una strana Carrie Fisher in CGI. Budget: 200 milioni di dollari," ha scritto derpfake parlando della sua creazione. "Sotto c'è un fake da 20 minuti che poteva essere prodotto nella stessa maniera e con un'attrice visivamente simile. Il mio budget è zero dollari, a parte qualche canzone dei Fleetwood Mac che ho ascoltato mentre ci lavoravo sopra."

Un'applicazione così semplice da usare per creare video fake DIY — da video erotici fino al revenge porno, ma anche di discorsi politici o di qualunque altra cosa tu voglia — che si sviluppa e si evolve a questo ritmo potrebbe avere un impatto radicale sulla società e sul modo in cui consumiamo i media. La combinazione di una efficace ricerca open-source sulle reti neurali e la nostra crescente inabilità di distinguere le news vere da quelle false, e i meccanismi attraverso cui diffondiamo le notizie sui social media potrebbero essere le prerogative necessarie per delle conseguenze molto serie.

"Socialmente e culturalmente, questa dinamica potrebbe essere sfruttata in maniera maligna, ma sopravviveremo," mi ha spiegato per mail Jay Owens, digital media analyst e research director della audience intelligence platform Pulsar. "I video viral e i cosiddetti celebrity media operano già su un piano di puro intrattenimento — e questo algoritmo non farà altro che rendere questo piano più sexy, più incline ai meme e all'ironia, e diventerà sempre più irreale."

Deborah Johnson, Professore Emerito di Etica Applicata alla scuola di ingegneria della University of Virginia, mi ha detto che non vi è dubbio che questa tecnologia diventerà così efficace da rendere impossibile capire cosa sia vero e falso.

"Si potrebbe dire che ciò che è davvero nuovo è il livello di falsificabilità del reale che possiamo raggiungere — ma anche prima faticavamo a distinguere il falso dal vero," mi ha detto. "Ciò che è nuovo è che questa tecnologia è ora disponibile a tutti, o lo sarà... È molto destabilizzante. L'intero principio di fiducia e affidabilità è minato da questo tipo di cose."----


Nessun commento:

Posta un commento