{"id":28683,"date":"2024-04-15T14:48:35","date_gmt":"2024-04-15T12:48:35","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=28683"},"modified":"2024-04-15T16:04:35","modified_gmt":"2024-04-15T14:04:35","slug":"real-or-fake-image-analysis-and-provenance","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/real-or-fake-image-analysis-and-provenance\/28683\/","title":{"rendered":"Non farti ingannare&#8230; scopri nuovi modi per riconoscere i falsi"},"content":{"rendered":"<p>Negli ultimi 18 mesi circa sembra che abbiamo perso la capacit\u00e0 di fidarci dei nostri occhi. I falsi di Photoshop non sono certo una novit\u00e0, ma l\u2019avvento dell\u2019intelligenza artificiale generativa ha portato la falsificazione a livelli inediti. Forse il primo falso creato dall\u2019IA (Intelligenza Artificiale) diventato virale \u00e8 stata l\u2019immagine del 2023 che ritraeva il Papa con indosso un giubbotto bianco griffato. Ma da allora il numero di immagini contraffatte convincenti \u00e8 salito alle stelle, arrivando a migliaia di casi. E con l\u2019ulteriore sviluppo dell\u2019IA possiamo aspettarci nel prossimo futuro video falsi sempre pi\u00f9 convincenti.<\/p>\n<div id=\"attachment_28684\" style=\"width: 416px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15143923\/real-or-fake-image-analysis-and-provenance-01.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28684\" class=\"wp-image-28684 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15143923\/real-or-fake-image-analysis-and-provenance-01.jpg\" alt=\"Uno dei primi deepfake diventato virale in tutto il mondo: il Papa con un giubbotto bianco griffato \" width=\"406\" height=\"500\"><\/a><p id=\"caption-attachment-28684\" class=\"wp-caption-text\">Uno dei primi deepfake diventato virale in tutto il mondo: il Papa con un giubbotto bianco griffato<\/p><\/div>\n<p>Questo non far\u00e0 che esacerbare il gi\u00e0 complesso problema delle fake news e delle immagini di commento. Un articolo potrebbe, ad esempio, mostrare una foto affermando che si tratta di un certo evento mentre la foto si riferisce in realt\u00e0 a tutt\u2019altro, una foto potrebbe ritrarre insieme persone che non si sono mai incontrate e cos\u00ec via.<\/p>\n<p>Lo spoofing di immagini e video ha un impatto diretto sulla sicurezza informatica. I truffatori usano da anni immagini e video falsi per indurre il distacco di denaro dalle tasche delle vittime. Potresti ricevere la foto di un cucciolo triste e bisognoso di aiuto, l\u2019immagine di una celebrit\u00e0 che promuove <a href=\"https:\/\/www.kaspersky.it\/blog\/online-investment-dangerous-apps\/28410\/\" target=\"_blank\" rel=\"noopener\">alcuni loschi schemi<\/a> o quella della carta di credito di qualcuno che conosci. I truffatori utilizzano anche le <a href=\"https:\/\/www.kaspersky.it\/blog\/pig-butchering-crypto-investment-scam\/28606\/\" target=\"_blank\" rel=\"noopener\">immagini generate dall\u2019IA per attivit\u00e0 di catfishing<\/a> nei siti di incontri e nei social media.<\/p>\n<p>Le truffe pi\u00f9 sofisticate utilizzano <a href=\"https:\/\/www.kaspersky.it\/blog\/how-to-spot-and-prevent-boss-scams\/28628\/\" target=\"_blank\" rel=\"noopener\">video e audio deepfake del capo della vittima<\/a> o di un suo famigliare per convincerli a eseguire gli ordini dei truffatori. Proprio di recente, un dipendente di un istituto finanziario \u00e8 stato indotto a <a href=\"https:\/\/edition.cnn.com\/2024\/02\/04\/asia\/deepfake-cfo-scam-hong-kong-intl-hnk\/index.html\" target=\"_blank\" rel=\"nofollow noopener\">trasferire 25 milioni di dollari<\/a> a criminali informatici! Gli hacker avevano organizzato una videochiamata con il \u201cCFO\u201d e i \u201ccolleghi\u201d della vittima, tutti deepfake.<\/p>\n<p>Quindi cosa si pu\u00f2 fare per gestire deepfake e falsi? E come si possono individuare? Il problema \u00e8 estremamente complesso, ma pu\u00f2 essere mitigato passo dopo passo tracciando la <strong>provenienza<\/strong> dell\u2019immagine.<\/p>\n<h2>Un momento\u2026 dove l\u2019ho gi\u00e0 visto?<\/h2>\n<p>Come accennato in precedenza, esistono diversi gradi di \u201cfalso\u201d. A volte l\u2019immagine in s\u00e9 non \u00e8 falsa, ma viene utilizzata in modo fuorviante. Una foto reale di una zona di guerra pu\u00f2 essere spacciata come proveniente da un altro conflitto oppure una scena di un film viene fatta passare per materiale documentario. In questi casi, la ricerca di anomalie nell\u2019immagine stessa non \u00e8 di grande aiuto, ma si pu\u00f2 provare a cercarne copie online. Fortunatamente, esistono strumenti come <a href=\"https:\/\/support.google.com\/websearch\/answer\/1325808?hl=it&amp;sjid=11799196324277800924-EU\" target=\"_blank\" rel=\"nofollow noopener\">Google Reverse Image Search<\/a> e <a href=\"https:\/\/tineye.com\/\" target=\"_blank\" rel=\"nofollow noopener\">TinEye<\/a> che possono aiutarci a questo scopo.<\/p>\n<p>Se hai dei dubbi su un\u2019immagine, caricala su uno di questi strumenti e guarda cosa viene fuori. Potresti scoprire che la stessa immagine di un incendio, di un canile o delle vittime di qualche tragedia \u00e8 presente online da anni. Per inciso, quando si tratta di false raccolte di fondi, ci sono alcuni altri <a href=\"https:\/\/www.kaspersky.it\/blog\/fake-charity-scam\/17949\/\" target=\"_blank\" rel=\"noopener\">campanelli d\u2019allarme<\/a> a cui prestare attenzione oltre alle immagini stesse.<\/p>\n<div id=\"attachment_28685\" style=\"width: 1506px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144057\/real-or-fake-image-analysis-and-provenance-02.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28685\" class=\"wp-image-28685 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144057\/real-or-fake-image-analysis-and-provenance-02.jpg\" alt=\"Cane triste da un canile? No, da uno stock fotografico \" width=\"1496\" height=\"903\"><\/a><p id=\"caption-attachment-28685\" class=\"wp-caption-text\">Cane triste da un canile? No, da uno stock fotografico<\/p><\/div>\n<h2>Fotoritoccato? Lo sapremo presto.<\/h2>\n<p>Con l\u2019avvento del moderno ritocco fotografico, matematici, ingegneri ed esperti di immagini si sono a lungo impegnati a trovare metodi di rilevamento automatico delle immagini alterate. Alcuni metodi includono l\u2019analisi dei metadati dell\u2019immagine e l\u2019analisi del <a href=\"https:\/\/en.wikipedia.org\/wiki\/Error_level_analysis\" target=\"_blank\" rel=\"noopener nofollow\">livello di errore (ELA)<\/a>, che controllano gli artefatti della compressione JPEG per identificare le parti modificate di un\u2019immagine. Molti diffusi strumenti di analisi delle immagini come <a href=\"https:\/\/www.fakeimagedetector.com\/\" target=\"_blank\" rel=\"nofollow noopener\">Fake Image Detector<\/a> applicano queste tecniche.<\/p>\n<div id=\"attachment_28686\" style=\"width: 619px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144137\/real-or-fake-image-analysis-and-provenance-03.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28686\" class=\"wp-image-28686 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144137\/real-or-fake-image-analysis-and-provenance-03.jpg\" alt=\"Fake Image Detector avverte che il Papa probabilmente non si veste cos\u00ec a Pasqua... n\u00e9 mai \" width=\"609\" height=\"810\"><\/a><p id=\"caption-attachment-28686\" class=\"wp-caption-text\">Fake Image Detector avverte che il Papa probabilmente non si veste cos\u00ec a Pasqua\u2026 n\u00e9 mai<\/p><\/div>\n<p>Con l\u2019emergere dell\u2019intelligenza artificiale generativa abbiamo anche visto nuovi metodi basati sull\u2019intelligenza artificiale per rilevare i contenuti generati, ma nessuno di questi \u00e8 perfetto. Ecco alcuni dei maggiori sviluppi: rilevamento del <a href=\"https:\/\/www.hhi.fraunhofer.de\/en\/departments\/vit\/research-groups\/computer-vision-graphics\/research-topics\/detection-of-face-morphing-attacks.html\" target=\"_blank\" rel=\"nofollow noopener\">morphing del viso<\/a>, rilevamento delle immagini generate dall\u2019IA e <a href=\"https:\/\/www.aiornot.com\/#pricing\" target=\"_blank\" rel=\"nofollow noopener\">determinazione del modello IA utilizzato per generarle<\/a>, oltre a un <a href=\"https:\/\/huggingface.co\/Organika\/sdxl-detector\" target=\"_blank\" rel=\"nofollow noopener\">modello di IA<\/a> aperto per i medesimi scopi.<\/p>\n<p>Con tutti questi approcci, il problema principale \u00e8 che nessuno d\u00e0 la certezza al 100% della provenienza dell\u2019immagine, garantisce che l\u2019immagine sia priva di modifiche o consente di verificare tali modifiche.<\/p>\n<h2>WWW in soccorso: verifica della provenienza dei contenuti<\/h2>\n<p>Non sarebbe fantastico se esistesse un modo pi\u00f9 semplice per i normali utenti di verificare se un\u2019immagine \u00e8 vera? Pensa di fare clic su un\u2019immagine e leggere informazioni del tipo: \u201cTizio ha scattato questa foto con un iPhone il 20 marzo\u201d, \u201cCaio ha ritagliato i bordi e ha aumentato la luminosit\u00e0 il 22 marzo\u201d, \u201cSempronio ha salvato nuovamente questa immagine con un\u2019alta compressione il 23 marzo\u201d, o \u201cNon sono state apportate modifiche\u201d, e che tutti questi dati siano impossibili da falsificare. Troppo bello per essere vero? Beh, \u00e8 esattamente ci\u00f2 a cui mira la coalizione per la <a href=\"https:\/\/c2pa.org\/\" target=\"_blank\" rel=\"nofollow noopener\">Content Provenance and Authenticity<\/a> (C2PA). C2PA annovera alcuni dei principali nomi nei settori dell\u2019informatica, della fotografia e dei media: Canon, Nikon, Sony, Adobe, AWS, Microsoft, Google, Intel, BBC, Associated Press e un centinaio di altri membri, praticamente tutte le aziende interessate dal problema in ogni singola fase della vita di un\u2019immagine, dalla creazione alla pubblicazione online.<\/p>\n<p>Lo <a href=\"https:\/\/c2pa.org\/specifications\/specifications\/1.3\/index.html\" target=\"_blank\" rel=\"nofollow noopener\">standard C2PA<\/a> sviluppato da questa coalizione \u00e8 gi\u00e0 disponibile e ha persino raggiunto la versione 1.3, e ora stiamo iniziando a vedere i pezzi del puzzle industriale necessari per usarlo. Nikon sta <a href=\"https:\/\/www.nikon.com\/company\/news\/2024\/0109_imaging_02.html\" target=\"_blank\" rel=\"nofollow noopener\">progettando<\/a> di realizzare fotocamere compatibili con C2PA e la BBC ha gi\u00e0 <a href=\"https:\/\/www.bbc.co.uk\/rd\/blog\/2024-03-c2pa-verification-news-journalism-credentials\" target=\"_blank\" rel=\"nofollow noopener\">pubblicato<\/a> i suoi primi articoli con immagini verificate.<\/p>\n<div id=\"attachment_28687\" style=\"width: 1258px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144228\/real-or-fake-image-analysis-and-provenance-04.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28687\" class=\"wp-image-28687 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144228\/real-or-fake-image-analysis-and-provenance-04.jpg\" alt=\"La BBC spiega come vengono verificate le immagini e i video nei suoi articoli \" width=\"1248\" height=\"702\"><\/a><p id=\"caption-attachment-28687\" class=\"wp-caption-text\">La BBC spiega come vengono verificate le immagini e i video nei suoi articoli<\/p><\/div>\n<p>L\u2019idea \u00e8 che quando i media responsabili e le grandi aziende passano alla pubblicazione di immagini in forma verificata, sar\u00e0 possibile verificare la provenienza di qualsiasi immagine direttamente nel browser. Vedrai una piccola etichetta \u201cimmagine verificata\u201d e facendovi clic verr\u00e0 visualizzata una finestra pi\u00f9 grande che mostra quali immagini sono state utilizzate come origine e quali modifiche sono state apportate in ogni fase prima che l\u2019immagine appaia nel browser, da chi e quando. Sarai anche in grado di vedere tutte le versioni intermedie dell\u2019immagine.<\/p>\n<div id=\"attachment_28688\" style=\"width: 2090px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144316\/real-or-fake-image-analysis-and-provenance-05.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28688\" class=\"wp-image-28688 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144316\/real-or-fake-image-analysis-and-provenance-05.jpg\" alt=\"Cronologia della creazione e della modifica delle immagini \" width=\"2080\" height=\"756\"><\/a><p id=\"caption-attachment-28688\" class=\"wp-caption-text\">Cronologia della creazione e della modifica delle immagini<\/p><\/div>\n<p>Questo approccio non \u00e8 solo per le fotocamere; pu\u00f2 funzionare anche per altri modi di creare immagini. Anche servizi come Dall-E e Midjourney possono etichettare le loro creazioni.<\/p>\n<div id=\"attachment_28689\" style=\"width: 1174px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144410\/real-or-fake-image-analysis-and-provenance-06.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28689\" class=\"wp-image-28689 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144410\/real-or-fake-image-analysis-and-provenance-06.jpg\" alt=\"Un'immagine chiaramente creata in Adobe Photoshop \" width=\"1164\" height=\"977\"><\/a><p id=\"caption-attachment-28689\" class=\"wp-caption-text\">Un\u2019immagine chiaramente creata in Adobe Photoshop<\/p><\/div>\n<p>Il processo di verifica si basa sul criptaggio a chiave pubblica simile alla protezione utilizzata nei certificati dei server Web per stabilire una connessione HTTPS sicura. L\u2019idea \u00e8 che ogni creatore di immagini, che si tratti dell\u2019utente medio con un particolare tipo di fotocamera o del professionista con una licenza di Photoshop, dovr\u00e0 ottenere un certificato X.509 da un\u2019autorit\u00e0 di certificazione attendibile. Questo certificato pu\u00f2 essere parte integrante della fotocamera, mentre per i prodotti software pu\u00f2 essere emesso al momento dell\u2019attivazione. Durante l\u2019elaborazione delle immagini con tracciamento della provenienza, ogni nuova versione del file conterr\u00e0 una grande quantit\u00e0 di informazioni aggiuntive: data, ora e posizione delle modifiche, miniature delle versioni originali\/modificate e cos\u00ec via. Tutto questo sar\u00e0 firmato digitalmente dall\u2019autore o dal photo editor dell\u2019immagine. In questo modo, un file di immagine verificato sar\u00e0 accompagnato da una catena di tutte le versioni precedenti, ciascuna firmata dalla persona che l\u2019ha modificata.<\/p>\n<div id=\"attachment_28691\" style=\"width: 742px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144511\/real-or-fake-image-analysis-and-provenance-07.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28691\" class=\"wp-image-28691 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144511\/real-or-fake-image-analysis-and-provenance-07.jpg\" alt=\"Questo video include contenuti generati dall'IA \" width=\"732\" height=\"412\"><\/a><p id=\"caption-attachment-28691\" class=\"wp-caption-text\">Questo video include contenuti generati dall\u2019IA<\/p><\/div>\n<p>Gli autori della specifica si occupano anche delle funzionalit\u00e0 di privacy. A volte i giornalisti non possono rivelare le loro fonti. Per situazioni del genere esiste un tipo speciale di modifica chiamata \u201crevisione\u201d. Consente di sostituire alcune delle informazioni sull\u2019autore dell\u2019immagine con zeri e di firmare la modifica con il proprio certificato.<\/p>\n<p>Per mostrare le capacit\u00e0 di C2PA, \u00e8 stata creata una raccolta di <a href=\"https:\/\/github.com\/c2pa-org\/public-testfiles?tab=readme-ov-file\" target=\"_blank\" rel=\"nofollow noopener\">immagini e video di prova<\/a>. \u00c8 possibile visitare il <a href=\"https:\/\/contentcredentials.org\/verify\" target=\"_blank\" rel=\"nofollow noopener\">sito Web Content Credentials<\/a> per visualizzare le credenziali, la cronologia della creazione e la cronologia delle modifiche di queste immagini.<\/p>\n<div id=\"attachment_28692\" style=\"width: 1910px\" class=\"wp-caption aligncenter\"><a href=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144602\/real-or-fake-image-analysis-and-provenance-08-1.jpg\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-28692\" class=\"wp-image-28692 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2024\/04\/15144602\/real-or-fake-image-analysis-and-provenance-08-1.jpg\" alt=\"Il sito Web Content Credentials rivela il contesto delle immagini C2PA\" width=\"1900\" height=\"1286\"><\/a><p id=\"caption-attachment-28692\" class=\"wp-caption-text\">Il sito Web Content Credentials rivela il contesto delle immagini C2PA<\/p><\/div>\n<h2>Limiti naturali<\/h2>\n<p>Sfortunatamente, le firme digitali per le immagini non risolveranno da un giorno all\u2019altro il problema dei falsi. Dopotutto, esistono gi\u00e0 miliardi di immagini online che non sono state firmate da nessuno e che non scompariranno dal Web. Tuttavia, poich\u00e9 sempre pi\u00f9 fonti di informazioni affidabili passeranno alla pubblicazione di immagini firmate, qualsiasi foto senza firma digitale inizier\u00e0 a essere vista con sospetto. Foto e video reali con timestamp e dati sulla posizione saranno quasi impossibili da spacciare per qualcos\u2019altro e i contenuti generati dall\u2019AI saranno pi\u00f9 facili da individuare.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Come distinguere una foto o un video reale da un falso e risalire alla sua provenienza. <\/p>\n","protected":false},"author":2722,"featured_media":28693,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[16],"tags":[1516,3300,3789,2620,2233,1517,116,67,753,580],"class_list":{"0":"post-28683","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tips","8":"tag-ai","9":"tag-deepfake","10":"tag-falsi","11":"tag-ia","12":"tag-immagini","13":"tag-intelligenza-artificiale","14":"tag-phishing","15":"tag-suggerimenti","16":"tag-tecnologia","17":"tag-truffe"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/real-or-fake-image-analysis-and-provenance\/28683\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/real-or-fake-image-analysis-and-provenance\/27312\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/22606\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/11577\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/29968\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/real-or-fake-image-analysis-and-provenance\/27469\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/27262\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/real-or-fake-image-analysis-and-provenance\/29956\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/real-or-fake-image-analysis-and-provenance\/37264\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/real-or-fake-image-analysis-and-provenance\/12254\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/real-or-fake-image-analysis-and-provenance\/50932\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/real-or-fake-image-analysis-and-provenance\/21787\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/real-or-fake-image-analysis-and-provenance\/22495\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/real-or-fake-image-analysis-and-provenance\/31189\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/real-or-fake-image-analysis-and-provenance\/36220\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/real-or-fake-image-analysis-and-provenance\/27628\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/real-or-fake-image-analysis-and-provenance\/33473\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/real-or-fake-image-analysis-and-provenance\/33100\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/immagini\/","name":"immagini"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/28683","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=28683"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/28683\/revisions"}],"predecessor-version":[{"id":28697,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/28683\/revisions\/28697"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/28693"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=28683"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=28683"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=28683"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}