{"id":27923,"date":"2023-07-25T09:19:47","date_gmt":"2023-07-25T07:19:47","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=27923"},"modified":"2023-07-25T09:19:47","modified_gmt":"2023-07-25T07:19:47","slug":"audio-deepfake-technology","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/audio-deepfake-technology\/27923\/","title":{"rendered":"Non credere alle tue orecchie: deepfake vocali"},"content":{"rendered":"<p>Ti \u00e8 mai capitato di chiederti come facciamo a sapere con chi stiamo parlando al telefono? Ovviamente non si tratta solo del semplice nome visualizzato sullo schermo. Se sentiamo una voce sconosciuta quando riceviamo una chiamata da un numero salvato, capiamo subito che qualcosa non va. Per cercare di capire con chi stiamo realmente parlando, inconsciamente notiamo il timbro, il modo e l\u2019intonazione del discorso. Ma quanto \u00e8 affidabile il nostro udito nell\u2019era digitale dell\u2019intelligenza artificiale? Come ci insegnano le ultime notizie, non sempre conviene fidarsi di quello che sentiamo, perch\u00e9 le voci possono essere contraffatte utilizzando la tecnologia deepfake.<\/p>\n<h2>Aiuto, sono in pericolo!<\/h2>\n<p>Nella primavera del 2023, alcuni truffatori in Arizona hanno <a href=\"https:\/\/www.independent.co.uk\/tech\/ai-voice-clone-scam-kidnapping-b2319083.html\" target=\"_blank\" rel=\"noopener nofollow\">tentato di estorcere denaro<\/a> a una donna per telefono. La donna ha sentito la voce della figlia quindicenne implorare aiuto prima che uno sconosciuto prendesse il telefono e chiedesse un riscatto, mentre si sentivano ancora le urla della figlia in sottofondo. La madre era sicura che la voce fosse quella di sua figlia. Fortunatamente, di l\u00ec a poco ha scoperto che in realt\u00e0 la figlia stava bene, rendendosi conto di essere stata vittima di un tentativo di truffa.<\/p>\n<p>Non pu\u00f2 essere dimostrato al 100% che gli aggressori abbiano utilizzato un deepfake per imitare la voce dell\u2019adolescente. Forse la truffa era di natura pi\u00f9 tradizionale e i malintenzionati contavano sul fatto che la qualit\u00e0 della chiamata, l\u2019imprevedibilit\u00e0 della situazione, lo stress e l\u2019immaginazione della madre avrebbero fatto la loro parte nel convincerla. Ma se anche questo caso non avesse niente a che fare con le tecnologie di rete neurale, le truffe tramite deepfake possono verificarsi e senza dubbio si verificano. Inoltre, con il continuo sviluppo di questa tecnologia, diventano sempre pi\u00f9 convincenti e pericolose. Per contrastare il diffondersi dell\u2019utilizzo della tecnologia deepfake a scopo fraudolento da parte dei criminali, dobbiamo capire come funziona.<\/p>\n<h2>Cosa sono i deepfake?<\/h2>\n<p>L\u2019intelligenza artificiale dei deepfake <em>(<\/em> <em>\u201cdeep learning\u201d<\/em> + <em>\u201cfake\u201d<\/em>) \u00e8 cresciuta rapidamente negli ultimi anni. Le tecniche di machine learning possono essere utilizzate per creare falsi convincenti di immagini, video o contenuti audio. Ad esempio, utilizzando le reti neurali \u00e8 possibile intervenire su foto e video per sostituire il volto di una persona con un altro preservando le espressioni e l\u2019illuminazione. Sebbene inizialmente questi falsi fossero di bassa qualit\u00e0 e facili da individuare, con lo sviluppo degli algoritmi i risultati sono diventati cos\u00ec convincenti che ora \u00e8 difficile distinguerli dalla realt\u00e0. Nel 2022, per la prima volta nella storia mondiale, \u00e8 stato lanciato in Russia un <a href=\"https:\/\/www.youtube.com\/playlist?list=PLWTwWADrHvpkgv3cKyjomdfhESt5711OZ\" target=\"_blank\" rel=\"noopener nofollow\">programma televisivo deepfake<\/a>, in cui i cloni deepfake di Jason Statham, Margot Robbie, Keanu Reeves e Robert Pattinson interpretano i personaggi principali.<\/p>\n<div id=\"attachment_27924\" style=\"width: 2058px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-27924\" class=\"size-full wp-image-27924\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2023\/07\/19143026\/audio-deepfake-technology-01.jpg\" alt=\"Versioni deepfake delle star di Hollywood nella serie TV russa PMJason. (Fonte) \" width=\"2048\" height=\"1278\"><p id=\"caption-attachment-27924\" class=\"wp-caption-text\">Versioni deepfake delle star di Hollywood nella serie TV russa PMJason. (<a href=\"https:\/\/xn--h1aax.xn--p1ai\/news\/v-rossii-vyshel-pervyy-v-mire-dipfeyk-veb-serial-\/\" target=\"_blank\" rel=\"noopener nofollow\">Fonte<\/a>)<\/p><\/div>\n<h2>Conversione vocale<\/h2>\n<p>In questo articolo, tuttavia, ci concentriamo sulla tecnologia utilizzata per creare deepfake vocali. \u00c8 anche nota come conversione vocale (o \u201cclonazione vocale\u201d se si sta creando una copia digitale completa). La conversione vocale si basa sugli autoencoder, un tipo di rete neurale che prima comprime i dati di input (parte del <u>co<\/u>dificatore) in una rappresentazione interna compatta, quindi impara a decomprimerli da questa rappresentazione (parte del <u>de<\/u>codificatore) per ripristinare i dati originali. In questo modo, il modello impara a presentare i dati in un formato compresso evidenziando le informazioni pi\u00f9 importanti.<\/p>\n<div id=\"attachment_27925\" style=\"width: 2143px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-27925\" class=\"size-full wp-image-27925\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2023\/07\/19143206\/audio-deepfake-technology-02.png\" alt=\"Schema di codifica automatica. \" width=\"2133\" height=\"1600\"><p id=\"caption-attachment-27925\" class=\"wp-caption-text\">Schema di codifica automatica. (<a href=\"https:\/\/www.compthree.com\/blog\/autoencoder\/\" target=\"_blank\" rel=\"noopener nofollow\">Fonte<\/a>)<\/p><\/div>\n<p>Per creare i deepfake vocali, vengono inserite nel modello due registrazioni audio, con la voce della seconda registrazione convertita nella prima. Il codificatore del contenuto viene utilizzato per determinare <strong>ci\u00f2 che<\/strong> \u00e8 stato detto nella prima registrazione, mentre il codificatore del parlante viene utilizzato per estrarre le caratteristiche principali della voce dalla seconda registrazione, ovvero <strong>il modo<\/strong> in cui la seconda persona parla. Le rappresentazioni compresse di <strong>quello che<\/strong> deve essere detto e di <strong>come<\/strong> viene detto vengono combinate e il risultato viene generato utilizzando il decodificatore. In questo modo, quello che viene detto nella prima registrazione viene espresso dalla persona della seconda registrazione.<\/p>\n<div id=\"attachment_27927\" style=\"width: 1288px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-27927\" class=\"size-full wp-image-27927\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2023\/07\/19143342\/audio-deepfake-technology-03.jpg\" alt=\"Processo di creazione di una voce deepfake\" width=\"1278\" height=\"435\"><p id=\"caption-attachment-27927\" class=\"wp-caption-text\">Processo di creazione di una voce deepfake. (<a href=\"http:\/\/cs230.stanford.edu\/projects_fall_2020\/reports\/55721255.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Fonte<\/a>)<\/p><\/div>\n<p>\u00a0<\/p>\n<p>Esistono altri approcci che utilizzano i codificatori automatici, ad esempio quelli che utilizzano <a href=\"https:\/\/it.wikipedia.org\/wiki\/Rete_generativa_avversaria\" target=\"_blank\" rel=\"noopener nofollow\">reti neurali generative (GAN)<\/a> o <a href=\"https:\/\/en.wikipedia.org\/wiki\/Diffusion_model\" target=\"_blank\" rel=\"noopener nofollow\">modelli di diffusione<\/a>. La ricerca su come realizzare i deepfake \u00e8 supportata in particolare dall\u2019industria cinematografica. Pensaci: con le tecnologie deepfake per audio e video \u00e8 possibile sostituire i volti degli attori nei film e negli spettacoli TV e doppiare i film sincronizzando alla perfezione le espressioni facciali in qualsiasi lingua.<\/p>\n<h2>Ecco come funziona.<\/h2>\n<p>Durante la ricerca sulle tecnologie deepfake, ci siamo chiesti quanto potesse essere difficile creare un deepfake della propria voce. \u00c8 venuto fuori che sono disponibili molti strumenti open source gratuiti per lavorare con la conversione vocale, ma non \u00e8 altrettanto facile ottenere un risultato di alta qualit\u00e0. Occorrono esperienza di programmazione in Python e buone capacit\u00e0 di elaborazione. E anche in questo caso la qualit\u00e0 ottenuta \u00e8 tutt\u2019altro che ideale. Oltre a quelle open source, sono disponibili anche soluzioni proprietarie e a pagamento.<\/p>\n<p>Ad esempio, all\u2019inizio del 2023 Microsoft <a href=\"https:\/\/arstechnica.com\/information-technology\/2023\/01\/microsofts-new-ai-can-simulate-anyones-voice-with-3-seconds-of-audio\/\" target=\"_blank\" rel=\"noopener nofollow\">ha annunciato<\/a> un algoritmo in grado di riprodurre una voce umana sulla base di un esempio audio della durata di soli tre secondi! Questo modello funziona anche con pi\u00f9 lingue, quindi puoi persino sentirti parlare una lingua straniera. Questa soluzione sembra promettente, ma attualmente \u00e8 ancora in fase di ricerca. La piattaforma ElevenLabs, invece, <a href=\"https:\/\/www.theverge.com\/2023\/1\/31\/23579289\/ai-voice-clone-deepfake-abuse-4chan-elevenlabs\" target=\"_blank\" rel=\"noopener nofollow\">consente agli utenti<\/a> di creare deepfake vocali senza fatica: basta caricare una registrazione audio della voce e delle parole da pronunciare e il gioco \u00e8 fatto. Ovviamente, non appena si \u00e8 sparsa la voce, le persone hanno iniziato a giocare con questa tecnologia in tutti i modi possibili.<\/p>\n<h2>La battaglia di Ermione e una banca troppo fiduciosa<\/h2>\n<p>In piena conformit\u00e0 con la <a href=\"https:\/\/it.wikipedia.org\/wiki\/Legge_di_Godwin\" target=\"_blank\" rel=\"noopener nofollow\">legge di Godwin<\/a>, a Emma Watson \u00e8 stato fatto <a href=\"https:\/\/www.vice.com\/en\/article\/dy7mww\/ai-voice-firm-4chan-celebrity-voices-emma-watson-joe-rogan-elevenlabs\" target=\"_blank\" rel=\"noopener nofollow\">leggere il Mein Kampf<\/a> e un altro utente ha <a href=\"https:\/\/www.vice.com\/en\/article\/dy7axa\/how-i-broke-into-a-bank-account-with-an-ai-generated-voice\" target=\"_blank\" rel=\"noopener nofollow\">utilizzato<\/a> la tecnologia ElevenLabs per sferrare un attacco al proprio conto bancario. Trovi che sia inquietante? Per noi lo \u00e8. In particolare, se a tutto questo aggiungiamo le spaventose storie riguardanti truffatori che raccolgono campioni di voci facendo pronunciare alle persone le parole \u201cs\u00ec\u201d o \u201cconferma\u201d, mentre sono al telefono con presunti operatori di una banca, un ufficio della pubblica amministrazione o un servizio di sondaggi, con lo scopo di rubare il loro denaro utilizzando l\u2019autorizzazione vocale.<\/p>\n<p>In realt\u00e0, la situazione non \u00e8 cos\u00ec catastrofica. In primo luogo, occorrono circa cinque minuti di registrazioni audio per creare una voce artificiale in ElevenLabs: un semplice \u201cs\u00ec\u201d non \u00e8 sufficiente. In secondo luogo, anche le banche sono a conoscenza di queste truffe. La voce pu\u00f2 quindi essere utilizzata solo per avviare determinate operazioni non correlate al trasferimento di fondi (ad esempio, per controllare il saldo del conto). In sostanza, rubare denaro in questo modo non \u00e8 possibile.<\/p>\n<p>A ElevenLabs va riconosciuto il merito di aver reagito rapidamente al problema, riscrivendo le regole del servizio, vietando agli utenti gratuiti (ovvero anonimi) di creare deepfake basati sulle proprie voci caricate e bloccando gli account segnalati con reclami per \u201ccontenuti offensivi\u201d.<\/p>\n<p>Per quanto utili possano essere, queste misure tuttavia non risolvono ancora il problema dell\u2019utilizzo dei deepfake vocali per scopi sospetti.<\/p>\n<h2>Altri utilizzi dei deepfake nelle truffe<\/h2>\n<p>La tecnologia deepfake di per s\u00e9 \u00e8 innocua. Se utilizzata per scopi fraudolenti o intenti criminali, pu\u00f2 tuttavia diventare uno strumento pericoloso, che offre molte opportunit\u00e0 di inganno, diffamazione o disinformazione. Fortunatamente, non si sono verificati casi di truffe di massa riguardanti l\u2019alterazione della voce. Si sono verificati, invece, diversi casi di alto profilo in cui i truffatori hanno utilizzato deepfake vocali.<\/p>\n<p>Nel 2019, questa tecnologia \u00e8 stata utilizzata per organizzare una <a href=\"https:\/\/www.wsj.com\/articles\/fraudsters-use-ai-to-mimic-ceos-voice-in-unusual-cybercrime-case-11567157402\" target=\"_blank\" rel=\"noopener nofollow\">truffa ai danni di un\u2019azienda del settore energetico con sede nel Regno Unito<\/a>. Durante una conversazione telefonica, fingendo di essere il CEO dell\u2019azienda madre tedesca, il truffatore ha richiesto un trasferimento urgente di \u20ac 220.000 sul conto di un\u2019azienda fornitrice. Dopo il pagamento, il truffatore ha chiamato altre due volte: la prima volta per rassicurare il personale dell\u2019ufficio nel Regno Unito, segnalando che l\u2019azienda madre aveva gi\u00e0 inviato un rimborso, e la seconda volta per richiedere un altro trasferimento. Durante tutte e tre le chiamate, il responsabile della sede nel Regno Unito era stato assolutamente sicuro di aver parlato con il suo manager, perch\u00e9 ne aveva riconosciuto sia l\u2019accento tedesco che il tono e il modo di parlare. Il secondo trasferimento non \u00e8 stato eseguito solo perch\u00e9 il truffatore per errore ha effettuato la chiamata da un numero austriaco, anzich\u00e9 tedesco, rendendo sospettoso il responsabile dell\u2019ufficio britannico.<\/p>\n<p>Un anno dopo, nel 2020, in un\u2019altra truffa i criminali hanno utilizzato la tecnologia deepfake per mettere a segno un <a href=\"https:\/\/www.forbes.com\/sites\/thomasbrewster\/2021\/10\/14\/huge-bank-fraud-uses-deep-fake-voice-tech-to-steal-millions\/?sh=42bdebd47559\" target=\"_blank\" rel=\"noopener nofollow\">furto<\/a> di una cifra che potrebbe arrivare a 35.000.000 di dollari ai danni di un\u2019anonima societ\u00e0 giapponese (dalle indagini non sono emersi n\u00e9 il nome della societ\u00e0, n\u00e9 il valore totale dei beni rubati).<\/p>\n<p>Non \u00e8 noto quali soluzioni (open source, a pagamento o addirittura proprietarie) i truffatori abbiano utilizzato per falsificare le voci, ma in entrambi questi casi le aziende hanno chiaramente, e gravemente, subito una frode deepfake.<\/p>\n<h2>Previsioni per il futuro<\/h2>\n<p>Le opinioni sul futuro dei deepfake sono discordi. Attualmente, una larga parte di questa tecnologia \u00e8 nelle mani di grandi aziende e la disponibilit\u00e0 al pubblico \u00e8 limitata. Ma come dimostra la storia dei molto pi\u00f9 popolari modelli generativi, come i programmi <a href=\"https:\/\/openai.com\/dall-e-2\/\" target=\"_blank\" rel=\"noopener nofollow\">DALL-E<\/a>, <a href=\"https:\/\/www.midjourney.com\/\" target=\"_blank\" rel=\"noopener nofollow\">Midjourney<\/a> e <a href=\"https:\/\/stability.ai\/blog\/stable-diffusion-announcement\" target=\"_blank\" rel=\"noopener nofollow\">Stable Diffusion<\/a>, e degli ancora pi\u00f9 popolari <a href=\"https:\/\/en.wikipedia.org\/wiki\/Large_language_model\" target=\"_blank\" rel=\"noopener nofollow\">modelli linguistici di grandi dimensioni<\/a> (LLM, Large Language Model) come ChatGPT, tecnologie simili potrebbero diventare di pubblico dominio nel prossimo futuro. Ne \u00e8 la conferma la recente <a href=\"https:\/\/www.semianalysis.com\/p\/google-we-have-no-moat-and-neither\" target=\"_blank\" rel=\"noopener nofollow\">fuga di informazioni<\/a> trapelate dalla corrispondenza interna di Google, in cui alcuni rappresentanti del gigante di Internet rivelano il timore di perdere la corsa dell\u2019IA alle soluzioni aperte. Questo comporter\u00e0 ovviamente un aumento dell\u2019uso dei deepfake vocali, anche per scopi fraudolenti.<\/p>\n<p>Il passo pi\u00f9 promettente nello sviluppo dei deepfake \u00e8 la generazione in tempo reale, che garantir\u00e0 una crescita esplosiva dei deepfake (e delle truffe in cui verranno utilizzati). Riesci a immaginare una <a href=\"https:\/\/github.com\/iperov\/DeepFaceLive\" target=\"_blank\" rel=\"noopener nofollow\">videochiamata<\/a> con qualcuno il cui volto e la cui voce sono completamente falsi? <a href=\"https:\/\/blog.metaphysic.ai\/future-autoencoder-deepfakes\/\" target=\"_blank\" rel=\"noopener nofollow\">Ad ogni modo<\/a>, si tratta di un livello di elaborazione dei dati che richiede quantit\u00e0 enormi di risorse, di cui solo le grandi corporation dispongono. Le migliori tecnologie rimarranno pertanto private e i truffatori non saranno in grado di stare al passo con i professionisti. La qualit\u00e0 non eccezionale aiuter\u00e0 anche gli utenti a imparare a identificare facilmente le contraffazioni.<\/p>\n<h2>Come proteggersi<\/h2>\n<p>Per tornare alla domanda iniziale: possiamo fidarci delle nostre orecchie e delle voci che sentiamo? Con tutta probabilit\u00e0, nella maggior parte dei casi, diventare paranoici e iniziare a inventare parole in un codice segreto da usare con amici e familiari sarebbe un po\u2019 esagerato, Tuttavia, in situazioni pi\u00f9 gravi la paranoia potrebbe essere appropriata. Secondo le previsioni basate sullo scenario pi\u00f9 pessimistico, nelle mani dei criminali la tecnologia deepfake in futuro potrebbe diventare un\u2019arma formidabile. Ma abbiamo ancora tempo per prepararci e creare metodi affidabili per proteggerci dalla contraffazione: sono gi\u00e0 disponibili molte <a href=\"https:\/\/arxiv.org\/abs\/2005.08781\" target=\"_blank\" rel=\"noopener nofollow\">ricerche<\/a> sui deepfake e le grandi aziende stanno gi\u00e0 lavorando allo sviluppo di <a href=\"https:\/\/venturebeat.com\/ai\/intel-unveils-real-time-deepfake-detector-claims-96-accuracy-rate\/\" target=\"_blank\" rel=\"noopener nofollow\">soluzioni di protezione<\/a> mirate. Abbiamo gi\u00e0 parlato in dettaglio di come contrastare i deepfake video <a href=\"https:\/\/www.kaspersky.it\/blog\/rsa2020-deepfakes-mitigation\/20885\/\" target=\"_blank\" rel=\"noopener\">in questo articolo<\/a>.<\/p>\n<p>Per il momento, siamo solo all\u2019inizio dello sviluppo di adeguati sistemi di protezione contro le contraffazioni dell\u2019IA. \u00c8 quindi importante tenere presente che i deepfake sono solo un altro tipo avanzato di social engineering. Il rischio di imbattersi in truffe come questa \u00e8 basso, ma \u00e8 reale. Vale quindi la pena conoscerle e imparare a riconoscerle. Se ricevi una chiamata strana, presta attenzione alla qualit\u00e0 del suono. La tonalit\u00e0 \u00e8 innaturale, incomprensibile o ci sono strani rumori? Ricontrolla sempre le informazioni tramite altri canali e ricorda che i truffatori fanno affidamento soprattutto sull\u2019effetto sorpresa e sul panico.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Registrazioni audio deepfake che imitano la voce di chiunque vengono gi\u00e0 utilizzati per truffe multimilionarie. Come vengono realizzati i deepfake e come proteggersi.<\/p>\n","protected":false},"author":2738,"featured_media":27928,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2641,2195],"tags":[3300,162,1517,3724,638,111,3719,753],"class_list":{"0":"post-27923","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-technology","9":"tag-deepfake","10":"tag-frode","11":"tag-intelligenza-artificiale","12":"tag-machine-learning","13":"tag-minacce","14":"tag-privacy","15":"tag-reti-neurali","16":"tag-tecnologia"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/audio-deepfake-technology\/27923\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/audio-deepfake-technology\/25887\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/audio-deepfake-technology\/21327\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/audio-deepfake-technology\/11071\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/audio-deepfake-technology\/28587\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/audio-deepfake-technology\/26223\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/audio-deepfake-technology\/26543\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/audio-deepfake-technology\/29025\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/audio-deepfake-technology\/35694\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/audio-deepfake-technology\/11670\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/audio-deepfake-technology\/48586\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/audio-deepfake-technology\/20851\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/audio-deepfake-technology\/21555\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/audio-deepfake-technology\/30344\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/audio-deepfake-technology\/34254\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/audio-deepfake-technology\/26493\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/audio-deepfake-technology\/32197\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/audio-deepfake-technology\/31880\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/deepfake\/","name":"deepfake"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/27923","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/2738"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=27923"}],"version-history":[{"count":2,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/27923\/revisions"}],"predecessor-version":[{"id":27930,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/27923\/revisions\/27930"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/27928"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=27923"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=27923"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=27923"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}