Sconfiggere i video Deepfake

Defeat Deepfake Videos.

Credit: Getty Images

A marzo 2022, su diverse piattaforme di social media e su un sito web di notizie nazionale è apparsa una video-sintesi del presidente ucraino Volodymyr Zelenskyy. Nel video, Zelenskyy esorta il suo popolo a arrendersi nella loro lotta contro la Russia; tuttavia, il speaker non è affatto Zelenskyy. Il clip di un minuto era un deepfake, un video sintetizzato prodotto tramite modelli di deep learning, e il presidente ha presto pubblicato un messaggio legittimo che riaffermava l’impegno della sua nazione nella difesa della sua terra e del suo popolo.

Il governo ucraino aveva già avvisato il pubblico che deepfake sponsorizzati dallo stato potrebbero essere utilizzati come parte della guerra dell’informazione della Russia. Il video stesso non era particolarmente realistico o convincente, ma la qualità dei deepfake sta migliorando rapidamente. “Ci si deve un po’ impressionare dei media sintetici”, afferma Hany Farid, un computer scientist e esperto di digital forensics dell’Università della California, Berkeley. “In cinque anni, siamo passati da video piuttosto scadenti e a bassa risoluzione a deepfake molto sofisticati a risoluzione elevata, molto sofisticati come quelli di ‘Tom Cruise TikTok’. Sta evolvendo alla velocità della luce. Stiamo entrando in una fase in cui sta diventando sorprendentemente facile distorto la realtà.”

In alcuni casi, come nel suddetto esempio di TikTok, in cui un’azienda ha generato un insieme di video che assomigliano da vicino al famoso attore, il risultato può essere divertente. Le startup stanno ingegnerizzando la tecnologia deepfake per l’utilizzo di video di marketing e gli studi di Hollywood stanno inserendo personaggi digitali iperrealistici nei film accanto ad attori umani. Tuttavia, secondo i ricercatori, l’uso malintenzionato di questa tecnologia per la disinformazione, il ricatto e altri scopi poco raccomandabili è preoccupante. Se il deepfake di Zelenskyy fosse stato realistico come uno di quei clip di Tom Cruise, il video sintetizzato avrebbe potuto avere terribili conseguenze.

Il potenziale per applicazioni maliziose, e il ritmo a cui le tecniche deepfake stanno evolvendo, ha scatenato una corsa tra i gruppi che generano media sintetici e gli scienziati che lavorano per trovare modi più efficaci e resilienti per rilevarli. “Stiamo giocando questo gioco degli scacchi in cui la rilevazione sta cercando di tenere il passo o avanzare davanti alla creazione”, afferma il computer scientist Siwei Lyu dell’Università di Buffalo, State University of New York. “Una volta che conoscono i trucchi che usiamo per rilevarli, possono correggere i loro modelli per rendere gli algoritmi di rilevamento meno efficaci. Ogni volta che ne correggiamo uno, dobbiamo svilupparne uno migliore.”

Le radici della tecnologia deepfake possono essere ricondotte allo sviluppo delle reti generative avversariali (GAN) nel 2014. L’approccio GAN mette due modelli l’uno contro l’altro. Nel loro articolo che introduce il concetto, Ian Goodfellow e i suoi colleghi hanno descritto i due modelli come analoghi al “gioco” tra falsari e polizia; il primo cerca di ingannare quest’ultimo, e la concorrenza li spinge a un punto in cui i falsi si avvicinano alla cosa reale. Con i deepfake, il primo modello genera un’immagine sintetica e il secondo cerca di rilevarla come falsa. Mentre la coppia itera, il modello generativo corregge le sue imperfezioni, risultando in immagini sempre migliori.

Figura. Un video deepfake di quello che sembra essere il presidente dell’Ucraina Volodymyr Zelenskyy che dice ai suoi connazionali di deporre le armi e arrendersi alla Russia.

Nelle prime fasi, era relativamente facile per le persone riconoscere un video falso; le incongruenze nel tono della pelle o le irregolarità nella struttura e nel movimento del viso erano comuni. Tuttavia, con il miglioramento dei motori di sintesi, la rilevazione è diventata sempre più difficile. “Le persone spesso pensano di essere migliori di quanto siano nel rilevare i contenuti falsi. Ci stiamo facendo ingannare, ma non lo sappiamo”, afferma Sophie Nightingale, una psicologa che studia il riconoscimento di deepfake all’Università di Lancaster nel Regno Unito. “Siamo probabilmente al punto in cui il sistema percettivo umano non può dire se qualcosa è reale o falso.”

Per stare al passo con l’evoluzione della tecnologia, i ricercatori hanno sviluppato strumenti per individuare segni rivelatori di falsificazione digitale. Nel 2018, Siwei Lyu, ACM Distinguished Member, e uno dei suoi studenti dell’Università di Buffalo stavano studiando i video deepfake nella speranza di costruire modelli di rilevamento migliori. Dopo aver guardato innumerevoli esempi e aver usato la tecnologia disponibile pubblicamente per generare video propri, hanno notato qualcosa di strano. “I visi non blinkavano!” ricorda Lyu. “Non avevano occhi realistici che si chiudevano, e in alcuni casi non blinkavano affatto.”

Con il tempo, i ricercatori hanno capito che la mancanza di occhi che sbattono nei video era la logica conseguenza dei dati di allenamento. I modelli che generano video sintetici sono addestrati su immagini fisse di un determinato soggetto. In genere, i fotografi non pubblicano immagini in cui gli occhi dei loro soggetti sono chiusi. “Carichiamo solo immagini con gli occhi aperti”, spiega Lyu, “e questo pregiudizio viene appreso e riprodotto”.

Lyu e il suo studente hanno creato un modello che rilevava i deepfake sulla base della mancanza di occhi che sbattono o di pattern irregolari di battito delle palpebre, ma poco dopo aver pubblicato i loro risultati, è emersa la prossima ondata di video sintetici. Il video di Zelenskyy, sebbene di scarsa qualità, mostra il presidente ucraino che batte le palpebre.

Il lavoro sul battito delle palpebre riflette l’approccio predominante per rilevare i deepfake: cercare prove o artefatti del processo generativo o sintetico. “Questi modelli generativi apprendono dai dati di allenamento sui soggetti che ricreano”, dice Lyu. “Dai loro molti dati e possono creare media sintetici realistici, ma questo è un modo inefficiente di apprendere del mondo reale, perché tutto ciò che accade nel mondo reale deve seguire le leggi del mondo fisico reale, e queste informazioni vengono incorporate indirettamente nei dati di allenamento”. Allo stesso modo, Lyu ha individuato incongruenze tra le riflessioni nelle cornee degli occhi dei soggetti sintetizzati e le differenze quasi impercettibili nelle retine.

Lo studioso di deep learning Yuval Nirkin, attualmente ricercatore presso CommonGround-AI, ha sviluppato un metodo di rilevamento che confronta la parte interna del viso in un video con il contesto circostante, comprese le regioni della testa, del collo e dei capelli. “I noti metodi deepfake per i video non cambiano l’intera testa”, dice Nirkin. “Si concentrano solo sulla parte interna del viso perché, sebbene il volto umano abbia una geometria semplice che è facile da modellare, l’intera testa è molto irregolare e contiene molti dettagli molto fini che sono difficili da ricostruire”. Nirkin ha sviluppato un modello che suddivide il viso di un soggetto in parti interne ed esterne ed estrae un segnale di identità da ciascuna di esse. “Se troviamo una discrepanza tra i segnali delle due parti”, spiega, “allora possiamo dire che qualcuno ha alterato l’identità del soggetto”. Il vantaggio di questo approccio, aggiunge Nirkin, è che non si concentra sui difetti o sugli artefatti associati a un particolare modello di generazione di deepfake e può quindi essere applicato a tecniche non viste in precedenza.

Con il tempo, i ricercatori hanno capito che la mancanza di occhi che sbattono nei video era la logica conseguenza dei dati di allenamento.

All’Università della California, Berkeley, Farid sta sviluppando un metodo di rilevamento che si allontana ancora di più dal focus su artefatti specifici. Invece di cercare segnali irrealistici, Farid e i suoi studenti hanno invertito il compito e progettato uno strumento che studia effettivamente il video verificato di una persona. La soluzione del gruppo cerca correlazioni tra 780 diverse caratteristiche facciali, gestuali e vocali all’interno di quel video per costruire un miglior modello di una persona in particolare e dei suoi schemi facciali, vocali e gestuali. Girare la testa mentre si parla, ad esempio, cambierà il tratto vocale e genererà leggere variazioni nel suono della voce, e il modello identifica tali collegamenti. Per quanto riguarda Zelinskyy, tra le altre cose, ha un tipo specifico di asimmetria nel sorriso e certe abitudini di movimento delle braccia mentre parla.

I ricercatori aggregano tutte queste osservazioni e correlazioni per creare un modello o un classificatore della persona famosa, come Zelinskyy. L’accuratezza del classificatore aumenta man mano che vengono incorporate più correlazioni, raggiungendo un tasso di successo del 100% quando il gruppo ha considerato tutti e 780. Quando il classificatore studia un video e molte caratteristiche cadono al di fuori del modello, allora la tecnologia conclude che il campione non è effettivamente il soggetto. “In qualche modo, non stiamo costruendo un rilevatore di deepfake”, spiega Farid. “Stiamo costruendo un rilevatore di Zelinskyy”.

Farid riconosce che i motori di sintesi stanno migliorando costantemente; il suo gruppo non sta rilasciando pubblicamente il codice dietro il suo classificatore nella speranza di rallentare quella evoluzione. Attualmente stanno espandendo il loro database e creando rilevatori per altri leader mondiali.

Man mano che i generatori deepfake migliorano e la linea tra media reali e sintetici diventa sempre più difficile da discernere, sviluppare nuovi mezzi per rilevarli rapidamente diventa sempre più importante. “Ottenere il giusto equilibrio e assicurarsi che le persone si fidino delle cose che dovrebbero e non si fidino delle cose che non dovrebbero, è una cosa difficile ma critica da fare”, spiega Nightingale, lo psicologo e ricercatore deepfake. “In caso contrario, potremmo finire in una situazione in cui non ci fidiamo di nulla”.

Ulteriori letture

Goodfellow, I. et al. “Generative adversarial networks”, Communications , Volume 63, Issue 11, November 2020.

Nightingale, S. e Farid, H. “I volti sintetizzati dall’AI sono indistinguibili dai volti reali e più affidabili”, PNAS, 14 febbraio 2022.

Boháček, M. e Farid, H. “Proteggere i leader mondiali dai deep fake utilizzando i modi del viso, dei gesti e della voce”, PNAS, 23 novembre 2022.

Nirkin, Y. et al. “Individuazione di deepfake basata sulle discrepanze tra i volti e il loro contesto”, IEEE Transactions on Pattern Analysis and Machine Intelligence, vol. 44, n. 10, ottobre 2022.

Li, Y., Chang, M. e Lyu, S. “In Ictu Oculi: Rivelare i video falsi creati dall’AI rilevando il battito delle palpebre”, IEEE Workshop on Information Forensics and Security (WIFS), Hong Kong, 2018.

Torna all’inizio

Autore

Gregory Mone è il coautore, insieme a Daniela Rus, del libro in uscita The Heart and the Chip.

©2023 ACM 0001-0782/23/7

È concessa l’autorizzazione a creare copie digitali o cartacee di parte o di tutto questo lavoro per uso personale o didattico senza alcun costo a condizione che le copie non siano fatte o distribuite per profitto o vantaggio commerciale e che le copie riportino questa nota e la citazione completa sulla prima pagina. Deve essere rispettato il diritto d’autore per i componenti di questo lavoro di proprietà di altri soggetti che non ACM. È consentita l’astrazione con riconoscimento. Copiare diversamente, ripubblicare, postare su server o ridistribuire a liste richiede una specifica autorizzazione preventiva e/o un compenso. Richiedere l’autorizzazione per la pubblicazione a [email protected] o al fax (212) 869-0481.

La Digital Library è pubblicata dall’Association for Computing Machinery. Copyright © 2023 ACM, Inc.