Deepfake di Matteo Renzi

DEEPFAKE CHE PASSIONE

Dal 2017 i video deepfake sono sempre più realistici e diffusi. Cosa sono e perché incidono nella vita privata ma, soprattutto, nella politica nostrana e internazionale.

Il 25 settembre 2019, durante una puntata di Striscia la Notizia, è stato mandato in onda un video in cui l’ex Presidente del Consiglio Matteo Renzi sbeffeggiava, con un linguaggio tra l’adolescenziale e il volgare, avversari e vecchi alleati politici.

Come specificato anche dall’account Twitter della trasmissione, nulla di quanto andato in onda era accaduto realmente. Il video era stato creato attraverso l’utilizzo di un’intelligenza artificiale (AI) che, attingendo ad un certo numero di immagini ed input audio ed autocorreggendosi su un numero cospicuo di tentativi (il meccanismo è noto come deep learning), è riuscita a costruire un doppio di Matteo Renzi relativamente verosimile. I video deepfake, come vengono chiamati, sono un fenomeno ancora poco conosciuto dal grande pubblico, ma in crescita costante ed esponenziale da qualche anno.

Era il 2014 quando Jan Goodfellow, a capo di un équipe di studiosi del dipartimento di informatica dell’Università di Montreàl, pubblicò uno studio pilota sulle Generative Adversarial Nets (GANs, “reti generative contrapposte”) : un’implementazione per l’apprendimento automatico delle AI, in grado di fornire un output molto più preciso che in precedenza.

Nel 2017 un utente di Reddit, registrato con il nickname Deepfakes, iniziò a diffondere online video pornografici in cui, proprio grazie a una GAN, venivano sostituiti ai volti delle attrici quelli di personaggi famosi come, tra gli altri, Gal Gadot e Scarlett Johansonn. Sebbene la contraffazione fosse abbastanza intuibile guardando attentamente il video (si notavano ad esempio dei momenti in cui il volto riprodotto artificialmente non seguiva i movimenti dell’originale) da allora la tecnica si è affinata notevolmente.

La possibilità di creare un doppione digitale che emuli le fattezze ed il timbro vocale dell’originale suscita delle ovvie preoccupazioni in merito alla verificabilità dei media e al privato dei cittadini. Se prima guardando un politico in televisione potevamo decidere se credergli o meno, oggi il rischio è che, nel giro di poco tempo, dovremo chiederci se quanto stiamo vedendo sia reale.

A destare preoccupazione è anche la relativa semplicità con cui è possibile realizzare questo tipo di materiale, essendo ormai numerose in rete le applicazioni gratuite ideate appositamente. Proprio la facilità con cui è possibile creare i video deepfake ha fatto sì che il numero di video deepfake disponibili in rete sia raddoppiato dal dicembre 2018 ad oggi. La stragrande maggioranza di questi video è di tipo pornografico (circa il 96%), ma se ne possono trovare di tutti i generi. Hanno ricevuto molta attenzione mediatica ad esempio i video deepfake di Barack Obama e Mark Zuckerberg proprio per la straordinaria verosimiglianza.

Diverse testate giornalistiche si stanno attrezzando per formare team di esperti nell’identificazione di questo tipo di video: è quanto hanno già fatto il Wall Street Journal ed il Washington Post. Diversi sono inoltre i portali online a occuparsi di debunking che verificano anche la veridicità di documenti video e audio.

Facebook e Microsoft hanno avviato una campagna per incoraggiare programmatori e informatici a sviluppare software in grado di riconoscere e bloccare la diffusione di video manipolati. Si sta insomma cercando di creare quanto prima un apparato in grado di far sì che il potenziale negativo dei video deepfake possa essere almeno ammortizzato.

Tuttavia le cose non sono così semplici: anzitutto delegare a un’intelligenza artificiale il blocco di alcuni contenuti può degenerare facilmente nella censura (una macchina non sa distinguere tra satira e fake news, per esempio); in secondo luogo, se una personalità pubblica ha tutti gli strumenti per proteggersi da una diffamazione, sulla vita di un privato cittadino le conseguenze potrebbero essere ancora più complicate. La giornalista investigativa Ranaa Ayub ha raccontato sul blog dell’HuffPost di come una campagna diffamatoria nei sui confronti, condotta attraverso la realizzazione di un video pornografico deepfake che la vedeva come attrice protagonista, le sia quasi costata il lavoro e l’abbia costretta a cancellarsi dai social media.

Se l’informazione dovrebbe far di tutto per ostacolare la diffusione dei video deepfake, in concerto con i legislatori che necessitano di definire lo spazio normativo in cui inserire questo nuovo genere di frode digitale, allo stesso tempo molte sono le aziende che li guardano con interesse per “sperimentare nuove forme di comunicazione”: l’agenzia di stampa cinese Xinhua ha realizzato, ormai un anno fa, il primo presentatore televisivo interamente digitale.

Facebook
Twitter
LinkedIn
WhatsApp
Email
Stampa