Passa al contenuto principale

Deepfake: una nuova minaccia in costante diffusione

Deepfake è una parola composta dal termine "deep", che sta per "deep learning", e "fake", che ovviamente significa "falso". Il deep learning è una tecnica avanzata di intelligenza artificiale (IA), che si avvale di vari algoritmi di machine learning per estrarre informazioni sempre più sofisticate da dati non elaborati. È in grado di impiegare anche dati non strutturati, ad esempio le caratteristiche di un volto umano. Questa tecnica di IA può infatti raccogliere dati sui movimenti fisici di una persona.

Tali dati vengono quindi elaborati al fine di creare un video Deepfake tramite una rete generativa avversaria (GAN, Generative Adversarial Network), un'altra tipologia di sistema di machine learning specializzato. Vengono utilizzate due reti neurali in competizione fra loro per apprendere le caratteristiche di un set di dati iniziali (ad esempio le fotografie dei volti) e quindi generare nuovi dati con le stesse caratteristiche (nuove "fotografie").

Poiché una rete di questo tipo continua a testare le immagini che crea confrontandole con il set iniziale, anche detto set di addestramento, le false immagini diventano sempre più convincenti, aumentando ulteriormente la pericolosità della minaccia costituita dal Deepfake. Inoltre, le reti GAN sono in grado di falsificare altri dati in aggiunta a foto e video. Le stesse tecniche di machine learning e sintesi utilizzate dal Deepfake possono essere infatti sfruttate per falsificare la voce.

Esempi di Deepfake

Alcuni esempi di Deepfake eseguiti su personalità di spicco sono facili da trovare. L'attore Jordan Peele ha creato un video in cui utilizza riprese autentiche di Barack Obama combinate con la sua imitazione del presidente per lanciare un allarme contro i video Deepfake. Ha quindi mostrato separatamente le due metà del video. Il suo consiglio: dubitare sempre di quello che vediamo.

Un altro esempio è rappresentato dal video di Mark Zuckerberg, CEO di Facebook, che apparentemente parla di come Facebook controlli il futuro servendosi di dati rubati, soprattutto su Instagram. Il video originale proviene da una sua dichiarazione a proposito della presunta ingerenza russa nelle elezioni presidenziali americane. Per sintetizzare il nuovo video sono bastati 21 secondi del discorso originale. Per fortuna, l'imitazione della voce non era fedele come quella fatta da Jordan Peele, e ha permesso di scoprire la verità.

Ma anche i falsi meno sofisticati possono produrre un impatto notevole. Un video di Nancy Pelosi "ubriaca" ha ottenuto milioni di visualizzazioni su YouTube, ma si trattava semplicemente di un falso ottenuto rallentando artificialmente il video, per dare l'impressione che farfugliasse. Anche molte donne famose si sono scoperte protagoniste di revenge porn (film porno diffusi per vendetta), realizzati introducendo i loro volti in immagini e film pornografici.

La minaccia del Deepfake: frode e ricatto

I video Deepfake sono stati utilizzati sia per scopi politici sia per vendetta personale, ma vengono impiegati sempre più spesso in gravi tentativi di frode e ricatto.

Al CEO di una società energetica britannica sono stati estorti 243.000 dollari utilizzando un Deepfake vocale, in cui il responsabile della casa madre richiedeva un trasferimento di fondi per motivi di emergenza. Il falso era così convincente che il CEO non ha nemmeno pensato di controllare, ma i fondi sono stati trasferiti al conto bancario di un terzo, anziché a quello della sede centrale. Il CEO si è insospettito solo quando il suo capo gli ha richiesto un altro bonifico. Questa volta è scattato un campanello di allarme, ma ormai era troppo tardi per recuperare i fondi già trasferiti.

In una recente frode avvenuta in Francia non è stata utilizzata la tecnica del Deepfake, ma un'imitazione combinata con una copia fedele dell'ufficio del Ministro degli Esteri Jean-Yves le Drian e del relativo arredamento, per sottrarre milioni di dollari ad alcuni alti dirigenti. Il falsario Gilbert Chikli è stato accusato di aver impersonato il ministro per chiedere a dirigenti e persone facoltose il denaro necessario per liberare alcuni ostaggi francesi in Siria. Attualmente è sotto processo.

minacce e pericoli del Deepfake

Gli autori del Deepfake potrebbero anche ricattare il presidente di una società minacciandolo di pubblicare un video Deepfake dannoso se non accetta di pagare un riscatto. Oppure, un intruso potrebbe entrare in una rete semplicemente sintetizzando una videochiamata del Chief Information Officer per indurre i dipendenti a fornire le proprie password con i relativi privilegi, permettendo quindi agli hacker di attingere a piene mani dai database dei dati sensibili.

In passato sono stati utilizzati video porno Deepfake per ricattare reporter e giornaliste come Rana Ayyub in India, che denuncia gli abusi di potere. Con il calo di prezzo della tecnologia, in futuro l'utilizzo del Deepfake a scopo di frode e ricatto è solo destinato ad aumentare.

Come proteggersi dal Deepfake

Le autorità hanno già cominciato ad affrontare la minaccia dei video Deepfake. Ad esempio, nello Stato della California sono stati approvati due progetti di legge che rendono illegali alcune pratiche del Deepfake. La legge AB-602 vieta l'uso di immagini umane sintetiche per creare pornografia senza il consenso della persona interessata, mentre la legge AB-730 vieta la manipolazione delle immagini di candidati politici a meno di 60 giorni dalle elezioni.

Ma sarà sufficiente? Per fortuna i vendor di Cybersecurity rilasciano continuamente nuovi algoritmi di rilevamento sempre più efficaci, che analizzano i video e rilevano le piccole distorsioni introdotte durante il processo di falsificazione. Ad esempio, i sintetizzatori Deepfake attuali modellano un viso 2D e quindi lo distorcono per adattarlo alla prospettiva 3D del video. In questi casi è fondamentale osservare la direzione del naso.

I video Deepfake sono ancora a un livello che consente di rilevare i difetti a occhio nudo. Cerca queste caratteristiche:

  • Movimenti a scatto
  • Cambiamenti di illuminazione da un fotogramma all'altro
  • Cambiamenti di tonalità della pelle
  • Battito di ciglia anomalo o assente
  • Scarsa sincronizzazione delle labbra con il parlato
  • Artefatti digitali nell'immagine

Purtroppo, con il continuo miglioramento delle tecniche Deepfake, sarà sempre più difficile riconoscere i falsi a occhio nudo e sarà necessario ricorrere a un buon programma di Cybersecurity.

Tecnologie anti-falsificazione all'avanguardia

Alcune tecnologie emergenti oggi aiutano i videomaker ad autenticare i propri video. È possibile utilizzare un algoritmo di crittografia per inserire hash a intervalli prestabiliti durante il video. Se il video viene alterato, gli hash vengono modificati. Le tecnologie IA e blockchain consentono di registrare un'impronta digitale anti-manomissione per i video. È simile alla filigrana per i documenti, ma il problema è che questi hash devono sopravvivere anche in caso di compressione del video per l'uso con codec diversi.

Un altro modo per scoraggiare i tentativi di Deepfake è costituito dall'utilizzo di un programma che inserisce nei video artefatti digitali espressamente concepiti per nascondere gli schemi di pixel utilizzati dal software di rilevamento dei volti. Questo rallenta gli algoritmi Deepfake e riduce la qualità dei risultati, limitando le probabilità di successo del Deepfaking.

La protezione migliore è costituita da valide procedure di sicurezza

La tecnologia non rappresenta tuttavia l'unica soluzione per proteggersi dai video Deepfake. Anche l'applicazione di valide procedure di sicurezza è estremamente efficace per contrastare il Deepfake.

Ad esempio, l'integrazione di controlli automatici in tutte le procedure di esborso dei fondi avrebbe impedito molti attacchi Deepfake e altre frodi simili. È possibile:

  • Assicurarsi che dipendenti e familiari sappiano come funziona il Deepfaking e i problemi che comporta.
  • Imparare a identificare un Deepfake e spiegare agli altri come fare.
  • Assicurarsi di usare solo fonti di notizie attendibili.
  • Adottare efficaci protocolli di base: "fidati ma verifica". Un atteggiamento scettico verso video e messaggi vocali non impedisce di farsi ingannare, ma aiuta a evitare numerosi tranelli.

Ricorda che se gli hacker iniziano a utilizzare il Deepfake per introdursi nelle reti aziendali e domestiche, le best practice di base per la Cybersecurity svolgono un ruolo chiave per minimizzare il rischio:

  • I backup regolari proteggono i dati dal ransomware e offrono la possibilità di ripristinare i dati danneggiati.
  • È importante utilizzare più password complesse per i diversi account, perché la violazione di un servizio o di una rete non deve comportare la compromissione degli altri. Se un estraneo accede al tuo account Facebook, non deve riuscire a entrare anche negli altri account.
  • Usa un valido pacchetto di protezione, come Kaspersky's Total Security, per proteggere la rete domestica, il laptop e lo smartphone dai cyberattacchi. Questo pacchetto include software antivirus, una VPN per impedire gli attacchi alle connessioni Wi-Fi e anche la protezione delle webcam.

Prospettive future del Deepfake

Il Deepfake continua a evolversi. Due anni fa era facile riconoscere i video Deepfake a causa della scarsa qualità dei movimenti e del fatto che le persone simulate non sbattevano mai le palpebre. Ma la nuova generazione di falsi video si è evoluta e adattata.

Al momento si stima che esistano 15.000 video Deepfake in circolazione. Alcuni sono solo per divertimento, mentre altri tentano di manipolare gli utenti. Purtroppo, vista la velocità con cui è possibile creare un nuovo Deepfake, tale numero è destinato ad aumentare rapidamente.

Link correlati

Attacchi alle celebrità e come possono colpire anche te

Attacchi alle webcam: la tua webcam potrebbe spiarti?

Potenziali effetti futuri della diffusione dei Deepfake sulla Cybersecurity

Falsi video e Deepfake: cosa possono fare gli utenti per proteggersi?

Gli hacker non si limitano più a usare Photoshop per incollare la faccia di un politico sul corpo di una pornostar. Oggi, grazie a tecnologie simili a quelle utilizzate per i film di Hollywood, i video Deepfake possono dare l'impressione che le vittime pronuncino determinate parole, per poi usare il filmato allo scopo di danneggiarne la reputazione o addirittura ricattarle.
Kaspersky Logo