{"id":25409,"date":"2021-09-01T17:40:59","date_gmt":"2021-09-01T15:40:59","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=25409"},"modified":"2021-09-30T17:52:05","modified_gmt":"2021-09-30T15:52:05","slug":"what-is-apple-csam-detection","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/what-is-apple-csam-detection\/25409\/","title":{"rendered":"Ecco come Apple intende monitorare gli utenti"},"content":{"rendered":"<p>All\u2019inizio di agosto di quest\u2019anno, Apple ha <a href=\"https:\/\/www.theverge.com\/2021\/8\/5\/22611721\/apple-csam-child-abuse-scanning-hash-system-ncmec\" target=\"_blank\" rel=\"noopener nofollow\">svelato il suo nuovo sistema<\/a> per identificare le foto contenenti immagini di abusi su minori. Anche se la motivazione di Apple alla base di questo sistema, ovvero combattere la diffusione della pornografia infantile, \u00e8 senza dubbio lodevole, l\u2019annuncio ha sollevato subito diverse critiche.<\/p>\n<p>Apple da tempo si preoccupa di costruire un\u2019immagine di casa produttrice di dispositivi dove la privacy degli utenti \u00e8 al primo posto. Le nuove funzionalit\u00e0 previste per iOS 15 e iPadOS 15 hanno gi\u00e0 inferto un duro colpo a questa immagine ma l\u2019azienda non si sta tirando indietro. Ecco cosa \u00e8 successo e quali conseguenze ci saranno per l\u2019utenti medio di iPhone e iPad.<\/p>\n<h2>Cos\u2019\u00e8 il rilevamento CSAM?<\/h2>\n<p>I progetti di Apple sono ben delineati sul <a href=\"https:\/\/www.apple.com\/child-safety\/\" target=\"_blank\" rel=\"noopener nofollow\">sito web della societ\u00e0<\/a>. L\u2019azienda ha sviluppato un sistema chiamato rilevamento CSAM, che cerca nei dispositivi degli utenti \u201cmateriale pedopornografico\u201d, noto anche come CSAM (acronimo inglese per <em>Child Sexual Abuse Material<\/em>).<\/p>\n<p>Anche se \u201cpornografia infantile\u201d \u00e8 sinonimo di CSAM, il National Center for Missing and Exploited Children (<a href=\"https:\/\/www.missingkids.org\/HOME\" target=\"_blank\" rel=\"noopener nofollow\">NCMEC<\/a>), che aiuta a trovare e salvare i bambini scomparsi e sfruttati negli Stati Uniti, considera \u201cCSAM\u201d il termine pi\u00f9 appropriato. Il NCMEC fornisce ad Apple e ad altre aziende tecnologiche informazioni sulle immagini CSAM conosciute.<\/p>\n<p>Apple ha introdotto il rilevamento CSAM insieme ad altre caratteristiche che espandono il controllo dei genitori sui dispositivi mobili Apple. Per esempio, i genitori riceveranno una notifica se qualcuno invia ai loro figli una foto sessualmente esplicita su Apple Messages.<\/p>\n<p>La presentazione simultanea di diverse tecnologie ha portato ad una certa confusione, e molte persone hanno avuto l\u2019impressione che Apple volesse monitorare tutti gli utenti in ogni momento, e non \u00e8 questo il caso.<\/p>\n<p><strong><input type=\"hidden\" class=\"category_for_banner\" value=\"ksc-trial\"><\/strong><\/p>\n<h2>Tempi di implementazione del rilevamento CSAM<\/h2>\n<p>Il rilevamento CSAM far\u00e0 parte dei sistemi operativi mobili iOS 15 e iPadOS 15, che saranno disponibili a partire da questo autunno per gli utenti dei dispositivi iPhone e iPad correnti (iPhone 6S, iPad di quinta generazione e successivi). Anche se la funzione in teoria sar\u00e0 disponibile sui dispositivi mobili Apple in tutto il mondo, per ora il sistema funzioner\u00e0 appieno solo negli Stati Uniti.<\/p>\n<h2>Come funzioner\u00e0 il rilevamento CSAM<\/h2>\n<p>Il rilevamento CSAM funziona solo in combinazione con iCloud Photos, che \u00e8 la parte del servizio iCloud che carica le foto da uno smartphone o tablet ai server Apple e che saranno\u00a0 accessibili anche sugli altri dispositivi dell\u2019utente.<\/p>\n<p>Se un utente disattiva la sincronizzazione delle foto nelle impostazioni, il rilevamento CSAM smette di funzionare. Questo significa che le foto vengono confrontate con quelle dei database criminali solo nel cloud? Non esattamente. Il sistema \u00e8 volutamente complesso: Apple sta cercando di garantire un certo grado di privacy.<\/p>\n<p>Come <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener nofollow\">spiega<\/a> Apple, il rilevamento CSAM funziona scansionando le foto su un dispositivo per determinare se corrispondono alle foto nei database NCMEC o di altre organizzazioni simili.<strong>\u00a0<\/strong><\/p>\n<div id=\"attachment_25411\" style=\"width: 1270px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-25411\" class=\"wp-image-25411 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2021\/09\/01080141\/what-is-apple-csam-detection-1.png\" alt=\"Schema semplificato di come funziona il rilevamento CSAM\" width=\"1260\" height=\"640\"><p id=\"caption-attachment-25411\" class=\"wp-caption-text\">Schema semplificato di come funziona il rilevamento CSAM. <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Fonte<\/a><\/p><\/div>\n<p>Il metodo di rilevamento utilizza la tecnologia NeuralHash, che in sostanza crea identificatori digitali, o hash, per le foto in base al loro contenuto. Se un hash corrisponde a uno presente nel database delle immagini conosciute inerenti a una qualche forma di sfruttamento di bambini, allora l\u2019immagine e il suo hash vengono caricati sui server di Apple. Apple, a sua volta, esegue un ulteriore controllo prima di registrare ufficialmente l\u2019immagine.<\/p>\n<p>Un altro componente del sistema, una tecnologia di cifratura chiamata <em>private set intersection<\/em>, cifra i risultati della scansione del rilevamento CSAM in modo che Apple possa decifrarli solo se una serie di criteri sono soddisfatti. In teoria, questo dovrebbe impedire che il sistema venga usato in modo improprio, cio\u00e8 dovrebbe impedire a un dipendente dell\u2019azienda di abusare del sistema o di consegnare le immagini su richiesta delle agenzie governative.<\/p>\n<p>In un\u2019intervista del 13 agosto con il <em>Wall Street Journal<\/em>, Craig Federighi, vicepresidente senior di software engeneering per Apple, ha <a href=\"https:\/\/www.wsj.com\/articles\/apple-executive-defends-tools-to-fight-child-porn-acknowledges-privacy-backlash-11628859600\" target=\"_blank\" rel=\"noopener nofollow\">spiegato<\/a> in cosa consiste il protocollo <em>private set intersection<\/em>: per allertare Apple, devono corrispondere 30 foto alle immagini nel database NCMEC. Come mostra il diagramma qui di seguito, il sistema <em>private set intersection<\/em> non permetter\u00e0 che l\u2019insieme di dati (le informazioni sul funzionamento del rilevamento CSAM e le foto), sia decifrato fino a quando questa soglia non sar\u00e0 raggiunta. Secondo Apple, poich\u00e9 la soglia per segnalare un\u2019immagine \u00e8 molto alta, una falsa corrispondenza \u00e8 molto improbabile, ovvero una \u201cpossibilit\u00e0 su un trilione\u201d.<strong>\u00a0<\/strong><\/p>\n<div id=\"attachment_25412\" style=\"width: 1150px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-25412\" class=\"wp-image-25412 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2021\/09\/01080422\/what-is-apple-csam-detection-2.png\" alt=\"Una caratteristica importante del sistema di rilevamento CSAM: per decifrare i dati, un gran numero di foto deve corrispondere\" width=\"1140\" height=\"700\"><p id=\"caption-attachment-25412\" class=\"wp-caption-text\">Una caratteristica importante del sistema di rilevamento CSAM: per decifrare i dati, deve esserci una corrispondenza tra un gran numero di foto. <a href=\"https:\/\/www.apple.com\/child-safety\/pdf\/CSAM_Detection_Technical_Summary.pdf\" target=\"_blank\" rel=\"noopener nofollow\">Fonte<\/a><\/p><\/div>\n<p>Cosa succede quando il sistema viene allertato? Un dipendente Apple controlla manualmente i dati, conferma la presenza o meno di pornografia infantile e avvisa le autorit\u00e0. Per ora il sistema funzioner\u00e0 a pieno regime solo negli Stati Uniti, quindi la notifica raggiunger\u00e0 il NCMEC, che \u00e8 promosso dal Dipartimento di Giustizia degli Stati Uniti.<\/p>\n<h2>Problemi con il sistema di rilevamento CSAM<\/h2>\n<p>Le potenziali critiche alle azioni di Apple rientrano in due categorie: mettere in discussione l\u2019approccio dell\u2019azienda e analizzare le vulnerabilit\u00e0 del protocollo. Al momento, ci sono poche prove concrete che Apple abbia commesso un errore tecnico (una questione che discuteremo pi\u00f9 in dettaglio in seguito), anche se non sono mancate critiche in ambito pi\u00f9 generale.<\/p>\n<p>Per esempio, la Electronic Frontier Foundation ha <a href=\"https:\/\/www.eff.org\/deeplinks\/2021\/08\/if-you-build-it-they-will-come-apple-has-opened-backdoor-increased-surveillance\" target=\"_blank\" rel=\"noopener nofollow\">descritto<\/a> in dettaglio alcune problematiche. Secondo la EFF, aggiungendo la scansione delle immagini degli utenti, Apple sta essenzialmente incorporando una porta sul retro per accedere ai dispositivi degli utenti. La EFF \u00e8 <a href=\"https:\/\/www.eff.org\/deeplinks\/2019\/11\/why-adding-client-side-scanning-breaks-end-end-encryption\" target=\"_blank\" rel=\"noopener nofollow\">scettica<\/a> nei confronti di questa idea fin dal 2019.<\/p>\n<p>Quale sarebbe l\u2019aspetto negativo di tutto ci\u00f2? Beh, considerate di avere un dispositivo nel quale i dati sono completamente cifrati (come afferma Apple) che poi inizia a segnalare ad estranei certi contenuti. Al momento l\u2019obiettivo \u00e8 la pornografia infantile e ci si basa sull\u2019assioma che, se non si sta facendo nulla di male, non c\u2019\u00e8 nulla di cui preoccuparsi; tuttavia,\u00a0 se esiste un meccanismo del genere, non possiamo sapere che non verr\u00e0 applicato ad altri contenuti.<\/p>\n<p>In definitiva, questa critica si riferisce pi\u00f9 alle implicazioni politiche che alla tecnologica. Il problema sta nell\u2019assenza di un contratto sociale che bilanci sicurezza e privacy. Tutti noi, dai burocrati ai produttori di dispositivi, passando per gli sviluppatori di software, gli attivisti dei diritti umani e gli utenti, stiamo cercando di trovare questo equilibrio.<\/p>\n<p>Le forze dell\u2019ordine si lamentano del fatto che la cifratura diffusa complichi la raccolta di prove e la cattura dei criminali, e questo \u00e8 comprensibile. Anche le preoccupazioni per la sorveglianza digitale di massa sono ovvie. Le opinioni, comprese quelle in merito alle politiche e alle decisioni di Apple, sono di tutti i tipi.<\/p>\n<h2>Potenziali problemi con l\u2019implementazione del rilevamento CSAM<\/h2>\n<p>Lasciando per un attimo da parte le perplessit\u00e0 etiche, dal punto di vista tecnologico ci imbattiamo in alcune strade sconnesse. Qualsiasi codice di un programma produce nuove vulnerabilit\u00e0. Non importa cosa potrebbero fare i governi: cosa succederebbe se un criminale informatico approfittasse delle vulnerabilit\u00e0 del sistema rilevamento CSAM? Quando si tratta di cifratura di dati, la preoccupazione \u00e8 naturale e fondata: se si indebolisce la protezione delle informazioni, anche se con buone intenzioni, allora chiunque pu\u00f2 sfruttare questa debolezza per altri scopi.<\/p>\n<p>Una revisione indipendente del codice di rilevamento CSAM \u00e8 appena iniziata e potrebbe richiedere molto tempo. Tuttavia, abbiamo gi\u00e0 appreso alcune cose.<\/p>\n<p>In primo luogo, il codice che permette di confrontare le foto con un \u201cmodello\u201d <a href=\"https:\/\/www.macobserver.com\/news\/neural-hash-extracted\/\" target=\"_blank\" rel=\"noopener nofollow\">esiste<\/a> in iOS (e macOS) dalla versione 14.3. \u00c8 del tutto possibile che il codice far\u00e0 parte del rilevamento CSAM. Le <a href=\"https:\/\/github.com\/AsuharietYgvar\/AppleNeuralHash2ONNX\" target=\"_blank\" rel=\"noopener nofollow\">utility<\/a> per sperimentare un algoritmo di ricerca per la corrispondenza delle immagini hanno gi\u00e0 trovato alcune <a href=\"https:\/\/github.com\/anishathalye\/neural-hash-collider\" target=\"_blank\" rel=\"noopener nofollow\">incogruenze<\/a>. Per esempio, secondo l\u2019algoritmo NeuralHash di Apple, le due immagini qui sotto hanno lo stesso hash:<strong>\u00a0<\/strong><\/p>\n<div id=\"attachment_25413\" style=\"width: 750px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-25413\" class=\"wp-image-25413 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2021\/09\/01080650\/what-is-apple-csam-detection-3.png\" alt=\"Secondo l'algoritmo NeuralHash di Apple, queste due foto corrispondono\" width=\"740\" height=\"360\"><p id=\"caption-attachment-25413\" class=\"wp-caption-text\">Secondo l\u2019algoritmo NeuralHash di Apple, queste due foto corrispondono. <a href=\"https:\/\/github.com\/anishathalye\/neural-hash-collider\" target=\"_blank\" rel=\"noopener nofollow\">Fonte<\/a><\/p><\/div>\n<p>Se \u00e8 possibile estrarre il database degli hash delle foto illegali, allora \u00e8 possibile creare immagini \u201cinnocenti\u201d che fanno scattare l\u2019allarme, il che significa che Apple potrebbe ricevere abbastanza falsi allarmi da rendere il rilevamento CSAM insostenibile. Questo \u00e8 molto probabilmente il motivo per cui Apple mantiene separato questo rilevamento, con una parte dell\u2019algoritmo che lavora solo sul lato server.<\/p>\n<p>C\u2019\u00e8 anche un\u2019<a href=\"https:\/\/pseudorandom.resistant.tech\/obfuscated_apples.html\" target=\"_blank\" rel=\"noopener nofollow\">analisi<\/a> del protocollo <em>private set intersection<\/em> (PSI) di Apple che fa discutere. La denuncia \u00e8 essenzialmente questa: anche prima di raggiungere la soglia di allarme, il sistema PSI trasferisca un bel po\u2019 di informazioni ai server di Apple. L\u2019articolo descrive uno scenario in cui le forze dell\u2019ordine richiedono i dati ad Apple, e suggerisce che anche i falsi allarmi potrebbero portare a una visita della polizia.<\/p>\n<p>Per ora si tratta solo di prove iniziali di una revisione esterna del rilevamento CSAM. Il loro successo dipender\u00e0 in gran parte dall\u2019azienda (nota per il valore che d\u00e0 alla privacy), che offrir\u00e0 informazioni trasparenti sul funzionamento del rilevamento CSAM, e in particolare, sul suo codice sorgente.<\/p>\n<h2>Rilevamento CSAM: implicazioni per l\u2019utente medio<\/h2>\n<p>I dispositivi moderni sono cos\u00ec complessi che non \u00e8 facile determinare quanto siano veramente sicuri, cio\u00e8 fino a che punto siano all\u2019altezza delle promesse della casa produttrice. Tutto ci\u00f2 che la maggior parte di noi pu\u00f2 fare \u00e8 fidarsi, o diffidare, dell\u2019azienda in base alla sua reputazione.<\/p>\n<p>Tuttavia, \u00e8 importante ricordare un punto chiave: il rilevamento CSAM funziona solo se gli utenti caricano le foto su iCloud. La decisione di Apple \u00e8 stata intenzionale e ha anticipato alcune delle obiezioni alla tecnologia. Se non si caricano le foto sul cloud, nulla verr\u00e0 inviato da nessuna parte.<\/p>\n<p>Forse ricorderete il famoso <a href=\"https:\/\/it.wikipedia.org\/wiki\/Strage_di_San_Bernardino\" target=\"_blank\" rel=\"noopener nofollow\">conflitto<\/a> tra Apple e l\u2019FBI nel 2016, quando l\u2019FBI chiese aiuto ad Apple per sbloccare un iPhone 5C che apparteneva al colpevole di una sparatoria a San Bernardino, in California. L\u2019FBI voleva che Apple scrivesse un software che avrebbe permesso all\u2019FBI di aggirare la protezione con password del telefono.<\/p>\n<p>L\u2019azienda, riconoscendo che accettare questa richiesta avrebbe potuto portare a sbloccare non solo il telefono del criminale ma anche quello di chiunque altro, rifiut\u00f2. L\u2019FBI fece marcia indietro e fin\u00ec per hackerare il dispositivo con un aiuto esterno, <a href=\"https:\/\/www.washingtonpost.com\/gdpr-consent\/?next_url=https%3a%2f%2fwww.washingtonpost.com%2ftechnology%2f2021%2f04%2f14%2fazimuth-san-bernardino-apple-iphone-fbi%2f\" target=\"_blank\" rel=\"noopener nofollow\">sfruttando le vulnerabilit\u00e0 del software<\/a>, e Apple mantenne la sua reputazione di azienda che combatte per i diritti dei suoi clienti.<\/p>\n<p>Tuttavia, la storia non \u00e8 cos\u00ec semplice. Apple aveva consegnato una copia dei dati di iCloud. Infatti, l\u2019azienda <a href=\"https:\/\/www.reuters.com\/article\/us-apple-fbi-icloud-exclusive-idUSKBN1ZK1CT\" target=\"_blank\" rel=\"noopener nofollow\">ha accesso<\/a> praticamente a tutti i dati degli utenti caricati sul cloud. Alcuni, come le <a href=\"https:\/\/support.apple.com\/it-it\/HT202303\" target=\"_blank\" rel=\"noopener nofollow\">password di Keychain e le informazioni di pagamento<\/a>, sono memorizzati utilizzando la cifratura end-to-end, ma la maggior parte delle informazioni sono cifrate solo per la protezione dall\u2019accesso <em>non autorizzato<\/em>, cio\u00e8, da un hackeraggio dei server dell\u2019azienda. Ci\u00f2 significa che l\u2019azienda pu\u00f2 decifrare i dati.<\/p>\n<p>Le eventuali implicazioni sono forse il colpo di scena pi\u00f9 interessante nella storia del sistema di rilevamento CSAM. L\u2019azienda potrebbe, per esempio, semplicemente scansionare tutte le immagini in iCloud Photos (come fanno Facebook, Google e molti altri fornitori di servizi su cloud). Apple ha creato un meccanismo pi\u00f9 elegante che l\u2019avrebbe aiutata a respingere le accuse di sorveglianza di massa degli utenti, ma invece ha attirato ancora pi\u00f9 critiche, per\u00a0 via della scansione dei dispositivi degli utenti.<\/p>\n<p>In definitiva, tutto questo clamore alla fine non cambia quasi nulla per l\u2019utente medio. Se siete preoccupati per la protezione dei vostri dati, dovreste guardare <em>qualsiasi<\/em> servizio cloud con un occhio critico. I dati che memorizzate solo sul vostro dispositivo sono ancora al sicuro. Le recenti azioni di Apple hanno seminato dubbi fondati: se l\u2019azienda continuer\u00e0 su questa linea rimane una questione aperta.<\/p>\n<p><strong><input type=\"hidden\" class=\"category_for_banner\" value=\"ksc-trial\"><\/strong><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Apple ha intenzione di utilizzare il suo nuovo sistema di rilevamento CSAM per monitorare gli utenti e identificare la presenza di pornografia infantile sui dispositivi.<\/p>\n","protected":false},"author":665,"featured_media":25415,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2194,2195],"tags":[3,204,1067,25,111,1170,753],"class_list":{"0":"post-25409","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-privacy","8":"category-technology","9":"tag-apple","10":"tag-ios","11":"tag-ipad","12":"tag-iphone","13":"tag-privacy","14":"tag-sorveglianza","15":"tag-tecnologia"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/what-is-apple-csam-detection\/25409\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/what-is-apple-csam-detection\/23225\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/what-is-apple-csam-detection\/18712\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/what-is-apple-csam-detection\/9359\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/what-is-apple-csam-detection\/25274\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/what-is-apple-csam-detection\/23344\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/what-is-apple-csam-detection\/22723\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/what-is-apple-csam-detection\/25890\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/what-is-apple-csam-detection\/31362\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/what-is-apple-csam-detection\/9971\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/what-is-apple-csam-detection\/41502\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/what-is-apple-csam-detection\/17541\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/what-is-apple-csam-detection\/18025\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/what-is-apple-csam-detection\/15203\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/what-is-apple-csam-detection\/27253\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/what-is-apple-csam-detection\/31527\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/what-is-apple-csam-detection\/27462\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/what-is-apple-csam-detection\/24270\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/what-is-apple-csam-detection\/29599\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/what-is-apple-csam-detection\/29404\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/ios\/","name":"iOS"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/25409","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/665"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=25409"}],"version-history":[{"count":7,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/25409\/revisions"}],"predecessor-version":[{"id":25425,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/25409\/revisions\/25425"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/25415"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=25409"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=25409"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=25409"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}