Non farti ingannare… scopri nuovi modi per riconoscere i falsi

Come distinguere una foto o un video reale da un falso e risalire alla sua provenienza.

Come verificare l'autenticità e l'origine di foto e video

Negli ultimi 18 mesi circa sembra che abbiamo perso la capacità di fidarci dei nostri occhi. I falsi di Photoshop non sono certo una novità, ma l’avvento dell’intelligenza artificiale generativa ha portato la falsificazione a livelli inediti. Forse il primo falso creato dall’IA (Intelligenza Artificiale) diventato virale è stata l’immagine del 2023 che ritraeva il Papa con indosso un giubbotto bianco griffato. Ma da allora il numero di immagini contraffatte convincenti è salito alle stelle, arrivando a migliaia di casi. E con l’ulteriore sviluppo dell’IA possiamo aspettarci nel prossimo futuro video falsi sempre più convincenti.

Uno dei primi deepfake diventato virale in tutto il mondo: il Papa con un giubbotto bianco griffato

Uno dei primi deepfake diventato virale in tutto il mondo: il Papa con un giubbotto bianco griffato

Questo non farà che esacerbare il già complesso problema delle fake news e delle immagini di commento. Un articolo potrebbe, ad esempio, mostrare una foto affermando che si tratta di un certo evento mentre la foto si riferisce in realtà a tutt’altro, una foto potrebbe ritrarre insieme persone che non si sono mai incontrate e così via.

Lo spoofing di immagini e video ha un impatto diretto sulla sicurezza informatica. I truffatori usano da anni immagini e video falsi per indurre il distacco di denaro dalle tasche delle vittime. Potresti ricevere la foto di un cucciolo triste e bisognoso di aiuto, l’immagine di una celebrità che promuove alcuni loschi schemi o quella della carta di credito di qualcuno che conosci. I truffatori utilizzano anche le immagini generate dall’IA per attività di catfishing nei siti di incontri e nei social media.

Le truffe più sofisticate utilizzano video e audio deepfake del capo della vittima o di un suo famigliare per convincerli a eseguire gli ordini dei truffatori. Proprio di recente, un dipendente di un istituto finanziario è stato indotto a trasferire 25 milioni di dollari a criminali informatici! Gli hacker avevano organizzato una videochiamata con il “CFO” e i “colleghi” della vittima, tutti deepfake.

Quindi cosa si può fare per gestire deepfake e falsi? E come si possono individuare? Il problema è estremamente complesso, ma può essere mitigato passo dopo passo tracciando la provenienza dell’immagine.

Un momento… dove l’ho già visto?

Come accennato in precedenza, esistono diversi gradi di “falso”. A volte l’immagine in sé non è falsa, ma viene utilizzata in modo fuorviante. Una foto reale di una zona di guerra può essere spacciata come proveniente da un altro conflitto oppure una scena di un film viene fatta passare per materiale documentario. In questi casi, la ricerca di anomalie nell’immagine stessa non è di grande aiuto, ma si può provare a cercarne copie online. Fortunatamente, esistono strumenti come Google Reverse Image Search e TinEye che possono aiutarci a questo scopo.

Se hai dei dubbi su un’immagine, caricala su uno di questi strumenti e guarda cosa viene fuori. Potresti scoprire che la stessa immagine di un incendio, di un canile o delle vittime di qualche tragedia è presente online da anni. Per inciso, quando si tratta di false raccolte di fondi, ci sono alcuni altri campanelli d’allarme a cui prestare attenzione oltre alle immagini stesse.

Cane triste da un canile? No, da uno stock fotografico

Cane triste da un canile? No, da uno stock fotografico

Fotoritoccato? Lo sapremo presto.

Con l’avvento del moderno ritocco fotografico, matematici, ingegneri ed esperti di immagini si sono a lungo impegnati a trovare metodi di rilevamento automatico delle immagini alterate. Alcuni metodi includono l’analisi dei metadati dell’immagine e l’analisi del livello di errore (ELA), che controllano gli artefatti della compressione JPEG per identificare le parti modificate di un’immagine. Molti diffusi strumenti di analisi delle immagini come Fake Image Detector applicano queste tecniche.

Fake Image Detector avverte che il Papa probabilmente non si veste così a Pasqua... né mai

Fake Image Detector avverte che il Papa probabilmente non si veste così a Pasqua… né mai

Con l’emergere dell’intelligenza artificiale generativa abbiamo anche visto nuovi metodi basati sull’intelligenza artificiale per rilevare i contenuti generati, ma nessuno di questi è perfetto. Ecco alcuni dei maggiori sviluppi: rilevamento del morphing del viso, rilevamento delle immagini generate dall’IA e determinazione del modello IA utilizzato per generarle, oltre a un modello di IA aperto per i medesimi scopi.

Con tutti questi approcci, il problema principale è che nessuno dà la certezza al 100% della provenienza dell’immagine, garantisce che l’immagine sia priva di modifiche o consente di verificare tali modifiche.

WWW in soccorso: verifica della provenienza dei contenuti

Non sarebbe fantastico se esistesse un modo più semplice per i normali utenti di verificare se un’immagine è vera? Pensa di fare clic su un’immagine e leggere informazioni del tipo: “Tizio ha scattato questa foto con un iPhone il 20 marzo”, “Caio ha ritagliato i bordi e ha aumentato la luminosità il 22 marzo”, “Sempronio ha salvato nuovamente questa immagine con un’alta compressione il 23 marzo”, o “Non sono state apportate modifiche”, e che tutti questi dati siano impossibili da falsificare. Troppo bello per essere vero? Beh, è esattamente ciò a cui mira la coalizione per la Content Provenance and Authenticity (C2PA). C2PA annovera alcuni dei principali nomi nei settori dell’informatica, della fotografia e dei media: Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press e un centinaio di altri membri, praticamente tutte le aziende interessate dal problema in ogni singola fase della vita di un’immagine, dalla creazione alla pubblicazione online.

Lo standard C2PA sviluppato da questa coalizione è già disponibile e ha persino raggiunto la versione 1.3, e ora stiamo iniziando a vedere i pezzi del puzzle industriale necessari per usarlo. Nikon sta progettando di realizzare fotocamere compatibili con C2PA e la BBC ha già pubblicato i suoi primi articoli con immagini verificate.

La BBC spiega come vengono verificate le immagini e i video nei suoi articoli

La BBC spiega come vengono verificate le immagini e i video nei suoi articoli

L’idea è che quando i media responsabili e le grandi aziende passano alla pubblicazione di immagini in forma verificata, sarà possibile verificare la provenienza di qualsiasi immagine direttamente nel browser. Vedrai una piccola etichetta “immagine verificata” e facendovi clic verrà visualizzata una finestra più grande che mostra quali immagini sono state utilizzate come origine e quali modifiche sono state apportate in ogni fase prima che l’immagine appaia nel browser, da chi e quando. Sarai anche in grado di vedere tutte le versioni intermedie dell’immagine.

Cronologia della creazione e della modifica delle immagini

Cronologia della creazione e della modifica delle immagini

Questo approccio non è solo per le fotocamere; può funzionare anche per altri modi di creare immagini. Anche servizi come Dall-E e Midjourney possono etichettare le loro creazioni.

Un'immagine chiaramente creata in Adobe Photoshop

Un’immagine chiaramente creata in Adobe Photoshop

Il processo di verifica si basa sul criptaggio a chiave pubblica simile alla protezione utilizzata nei certificati dei server Web per stabilire una connessione HTTPS sicura. L’idea è che ogni creatore di immagini, che si tratti dell’utente medio con un particolare tipo di fotocamera o del professionista con una licenza di Photoshop, dovrà ottenere un certificato X.509 da un’autorità di certificazione attendibile. Questo certificato può essere parte integrante della fotocamera, mentre per i prodotti software può essere emesso al momento dell’attivazione. Durante l’elaborazione delle immagini con tracciamento della provenienza, ogni nuova versione del file conterrà una grande quantità di informazioni aggiuntive: data, ora e posizione delle modifiche, miniature delle versioni originali/modificate e così via. Tutto questo sarà firmato digitalmente dall’autore o dal photo editor dell’immagine. In questo modo, un file di immagine verificato sarà accompagnato da una catena di tutte le versioni precedenti, ciascuna firmata dalla persona che l’ha modificata.

Questo video include contenuti generati dall'IA

Questo video include contenuti generati dall’IA

Gli autori della specifica si occupano anche delle funzionalità di privacy. A volte i giornalisti non possono rivelare le loro fonti. Per situazioni del genere esiste un tipo speciale di modifica chiamata “revisione”. Consente di sostituire alcune delle informazioni sull’autore dell’immagine con zeri e di firmare la modifica con il proprio certificato.

Per mostrare le capacità di C2PA, è stata creata una raccolta di immagini e video di prova. È possibile visitare il sito Web Content Credentials per visualizzare le credenziali, la cronologia della creazione e la cronologia delle modifiche di queste immagini.

Il sito Web Content Credentials rivela il contesto delle immagini C2PA

Il sito Web Content Credentials rivela il contesto delle immagini C2PA

Limiti naturali

Sfortunatamente, le firme digitali per le immagini non risolveranno da un giorno all’altro il problema dei falsi. Dopotutto, esistono già miliardi di immagini online che non sono state firmate da nessuno e che non scompariranno dal Web. Tuttavia, poiché sempre più fonti di informazioni affidabili passeranno alla pubblicazione di immagini firmate, qualsiasi foto senza firma digitale inizierà a essere vista con sospetto. Foto e video reali con timestamp e dati sulla posizione saranno quasi impossibili da spacciare per qualcos’altro e i contenuti generati dall’AI saranno più facili da individuare.

Consigli