Deepfake: come attenuarne le conseguenze

I deepfake stanno diventando sempre più popolari (e convincenti). Come proteggere la vostra azienda?

I deepfake sono solo un altro, spiacevole prodotto dei recenti sviluppi nel campo dell’intelligenza artificiale. Negli ultimi anni, le notizie false generate da algoritmi di apprendimento automatico hanno suscitato molto interesse. Durante il suo intervento alla Conferenza RSA 2020 dal titolo “Losing your reality“, Alyssa Miller ci ha spiegato perché sia ormai giunto il momento di considerare i deepfake una vera e propria minaccia (indipendentemente dalle elezioni statunitensi) e cosa possono fare le aziende per ridurne l’impatto se prese di mira dai deepfake.

Come si creano i deepfake?

Il modo più comune per creare un deepfake è mediante un sistema chiamato GAN (Generative Adversarial Network, Rete Generativa Avversaria). Le GAN sono formate da due reti neurali profonde in competizione l’una con l’altra. Come preparazione, entrambe le reti vengono addestrate con immagini reali. Inizia poi la fase di competizione, dove una rete genera delle immagini (da qui l’aggettivo generativa dell’acronimo), mentre l’altra prova a determinare se l’immagine sia vera o falsa (la seconda rete viene chiamata discriminativa).

La rete generativa conosce i risultati e apprende da essi; allo stesso tempo, la rete discriminativa apprende come migliorare le proprie prestazioni. Il risultato è che, a ogni ciclo, entrambe le reti fanno sempre meglio.

Andiamo avanti, ad esempio, durante un milione di cicli di addestramento. La rete neurale generativa ha imparato a generare immagini false così perfezionate da ingannare una rete neurale altrettanto avanzata.

Questo metodo è ora utile per molte applicazioni: a seconda dei dati preparatori, la rete generativa apprende a creare certe tipologie di immagini.

Naturalmente, per quanto riguarda i deepfake, l’addestramento dell’algoritmo avviene con foto reali di certe persone: in questo modo, una rete può generare un numero infinito di foto, false ma convincenti, della persona in questione, foto che poi verranno aggiunte a un video. Con metodi simili si possono generare audio falsi (probabilmente alcuni truffatori già staranno approfittando degli audio deepfake per portare avanti i loro piani).

I deepfake sono diventati davvero convincenti

I primi video deepfake erano ridicoli, tuttavia nel frattempo questa tecnologia si è evoluta così tanto che per alcuni media questi video sono diventati convincenti e in modo davvero preoccupante. Uno degli esempi più eclatanti di deepfake convincenti risale al 2018, un falso discorso di Barack Obama in cui, tra varie cose senza senso, insultava anche l’attuale Presidente degli Stati Uniti. Nel 2019, poi, abbiamo visto un breve video di un falso Mark Zuckerberg che parlava a cuore aperto dell’attuale situazione della privacy.

Per comprendere il livello attuale di questa tecnologia, vi basta soltanto dare un’occhiata al seguente video, creato dall’imitatore Jim Meskimen in collaborazione con l’artista dei deepfake Sham00k. Il primo si è occupato delle voci, il secondo ha aggiunto i volti di 20 celebrity impiegando un software deepfake. Il risultato è davvero impressionante:

Sham00k nella descrizione del suo video dietro le quinte dice: “per l’intero video ci sono volute 250 ore di lavoro, 1.200 ore di riprese, 300 mila immagini e circa un 1 terabyte di dati”. Insomma, non è stata una passeggiata; tuttavia, tale forma di disinformazione così convincente potrebbe portare a effetti dirompenti sui mercati (o sulle elezioni) di tale portata da far diventare irrisori i costi e gli sforzi.

Per questo motivo, quasi allo stesso tempo della pubblicazione del video, lo stato della California ha vietato i video deepfake durante la stagione elettorale. Ma i problemi rimangono. Tanto per cominciare, i video deepfake in generale rappresentano una forma di espressione, come la satira politica e il divieto della California non protegge esattamente la libertà di espressione.

Il secondo problema è sia tecnico che pratico: come possiamo distinguere un video falso da uno reale?

Deepfake: come identificarli

L’apprendimento automatico fa furore tra gli scienziati di tutto il mondo e la questione dei deepfake suscita interesse, rappresenta una sfida davvero allettante per molti. Per questo motivo, molti progetti di ricerca si sono concentrati sull’uso dell’analisi delle immagini per l’identificazione di deepfake.

Ad esempio, in uno studio pubblicato a giugno 2018 veniva analizzato in che modo lo sbattere delle palpebre potesse aiutare a individuare I video falsi. L’idea è che di solito non ci sono molte foto di una persona mentre sbatte le palpebre per cui le reti neurali non hanno materiale a sufficienza per perfezionarsi. Di fatto, quando è stato pubblicato lo studio, le persone nei deepfake chiudevano gli occhi in modo troppo strano per cascarci e, sebbene la gente comune non riuscisse a individuare così facilmente queste discrepanze, l’analizi del computer aiutava.

Due studi pubblicati a novembre 2018, invece, andavano alla ricerca di dettagli di distorsione del viso o movimenti incongruenti della testa. Un altro studio del 2019 descriveva una tecnica sofisticata che analizzava le espressioni e i movimenti facciali che indicano il comportamento tipico di un individuo.

Tuttavia, come fa notare Miller, a lungo andare questi metodi perderanno efficacia. Questa ricerca, invece, offre un importante feedback ai creatori di deepfake, aiutandoli a migliorare le loro reti neurali discriminanti, il che porta a un miglior allenamento delle reti generative. Il risultato finale: deepfake più perfezionati.

Uso delle comunicazioni aziendali per mitigare le minacce deepfake

Considerando tali questioni, a questo punto una soluzione meramente tecnologica al problema deepfake non sarebbe efficace. Esistono altre opzioni; in particolare, è possibile ridurre la minaccia mediante una comunicazione efficace. Bisogna monitorare le informazioni vincolate alla vostra azienda e prepararvi a tenere sotto controllo quanto comunicato nel caso vi trovaste coinvolti in un caso di disinformazione.

I suggerimenti che vi proponiamo ora riassumono i consigli che Alyssa Miller ha proposto alle aziende nel caso debbano affrontare una minaccia deepfake (gli stessi suggerimenti possono servire per altre situazioni che riguardano le relazioni pubbliche dell’azienda):

  • Riducete al minimo i canali di comunicazione della compagnia;
  • Diffondete informazioni coerenti;
  • Create un piano di risposta in caso di diffusione di false informazioni (come se si trattasse di un incidente di sicurezza informatica);
  • Organizzate un canale centralizzato di monitoraggio e reporting;
  • Promuovete l’approvazione di leggi adeguate e la verifica nel settore privati dei fatti;
  • Seguite con attenzione gli sviluppi di contromisure per l’identificazione e la prevenzione di queste minacce.
Consigli