{"id":27781,"date":"2023-05-29T11:07:03","date_gmt":"2023-05-29T09:07:03","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=27781"},"modified":"2023-05-29T13:16:31","modified_gmt":"2023-05-29T11:16:31","slug":"ai-government-regulation","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/ai-government-regulation\/27781\/","title":{"rendered":"Ecco l&#8217;approccio che dovremmo adottare nei confronti dell&#8217;intelligenza artificiale"},"content":{"rendered":"<p>Sono abbastanza stanco delle notizie sull\u2019IA, ma credo che dovr\u00f2 sopportarle ancora per un po\u2019 perch\u00e9 sicuramente si continuer\u00e0 a parlarne incessantemente per almeno un altro anno o due. Certamente l\u2019IA non smetter\u00e0 di evolversi ma i giornalisti, i blogger, i TikToker, i Tweeter e le altre teste parlanti si stancheranno dell\u2019argomento. Per ora, per\u00f2, il loro zelo \u00e8 alimentato non solo dai giganti tecnologici, ma anche dai governi: il Regno Unito sta pianificando l\u2019introduzione di una <a href=\"mailto:https:\/\/www.reuters.com\/world\/uk\/britain-opts-adaptable-ai-rules-with-no-single-regulator-2023-03-28\/\" target=\"_blank\" rel=\"noopener\">regolamentazione tripartita sull\u2019IA<\/a>; la Cina ha presentato una bozza di legge sull\u2019IA per un <a href=\"mailto:https:\/\/www.reuters.com\/technology\/china-releases-draft-measures-managing-generative-artificial-intelligence-2023-04-11\/\" target=\"_blank\" rel=\"noopener\">dibattito pubblico<\/a>; gli Stati Uniti reclamano una \u201c<a href=\"mailto:https:\/\/www.reuters.com\/technology\/us-begins-study-possible-rules-regulate-ai-like-chatgpt-2023-04-11\/\" target=\"_blank\" rel=\"noopener\">responsabilit\u00e0 algoritmica<\/a>\u201c; l\u2019UE sta discutendo, ma non ancora approvando, una bozza di legge sull\u2019IA, e cos\u00ec via. Ci sono molti progetti per il futuro, ma finora la creazione e l\u2019uso di sistemi di IA non prevedono limitazioni di alcun tipo. Tuttavia, sembra che questo cambier\u00e0 presto.<\/p>\n<p>La questione pi\u00f9 dibattuta \u00e8, ovviamente, la seguente: abbiamo bisogno di una regolamentazione governativa per l\u2019IA? Se s\u00ec, perch\u00e9 e come dovrebbe essere?<\/p>\n<h2>Cosa regolamentare<\/h2>\n<p>Che cos\u2019\u00e8 l\u2019intelligenza artificiale? (No) grazie ai dipartimenti di marketing, il termine \u00e8 stato usato per molte cose, dai modelli generativi all\u2019avanguardia come il <a href=\"https:\/\/it.wikipedia.org\/wiki\/GPT-4\" target=\"_blank\" rel=\"noopener nofollow\">GPT-4<\/a>, ai pi\u00f9 semplici sistemi di apprendimento automatico, compresi alcuni che esistono da decenni. Ricordate il <a href=\"https:\/\/it.wikipedia.org\/wiki\/T9\" target=\"_blank\" rel=\"noopener nofollow\">\u04229<\/a> sui telefoni cellulari con tasti? Avete sentito parlare della <a href=\"https:\/\/www.kaspersky.it\/blog\/humachine-intelligence-fighting-snow-shoes\/9752\/\" target=\"_blank\" rel=\"noopener\">classificazione automatica dello spam e dei file dannosi<\/a>? Controllate le recensioni dei film su Netflix? Tutte queste tecnologie, di certo familiari a molti, si basano su algoritmi di apprendimento automatico (<em>machine learning<\/em> o ML, in inglese) noti anche come IA o intelligenza artificiale.<\/p>\n<p>Qui a Kaspersky utilizziamo queste tecnologie nei nostri prodotti da quasi 20 anni, preferendo sempre riferirci ad esse come \u201capprendimento automatico\u201d, se non altro perch\u00e9 \u201cintelligenza artificiale\u201d sembra richiamare alla mente della maggior parte delle persone cose come <a href=\"https:\/\/it.wikipedia.org\/wiki\/HAL_9000\" target=\"_blank\" rel=\"noopener nofollow\">supercomputer parlanti<\/a> su <a href=\"https:\/\/it.wikipedia.org\/wiki\/2001:_Odissea_nello_spazio\" target=\"_blank\" rel=\"noopener nofollow\">astronavi<\/a> e altre <a href=\"https:\/\/it.wikipedia.org\/wiki\/R2-D2\" target=\"_blank\" rel=\"noopener nofollow\">cose<\/a> che sembrano uscite da un film di <a href=\"https:\/\/it.wikipedia.org\/wiki\/C-3PO\" target=\"_blank\" rel=\"noopener nofollow\">fantascienza<\/a>. Tuttavia, tali computer e droidi parlanti devono essere pienamente in grado di pensare come un essere umano (per comandare <a href=\"https:\/\/it.wikipedia.org\/wiki\/Intelligenza_artificiale_forte\" target=\"_blank\" rel=\"noopener nofollow\">un\u2019intelligenza artificiale generale<\/a> o AGI, o una <a href=\"https:\/\/en.wikipedia.org\/wiki\/Superintelligence\" target=\"_blank\" rel=\"noopener nofollow\">superintelligenza<\/a> artificiale ASI), ma n\u00e9 l\u2019AGI n\u00e9 l\u2019ASI sono ancora state inventate e difficilmente lo saranno nel prossimo futuro.<\/p>\n<p>In ogni caso, se tutti i tipi di IA saranno valutati con lo stesso metro e verranno completamente regolamentati, l\u2019intero settore IT e molti altri settori collegati non se la caveranno affatto bene. Ad esempio, se a noi (Kaspersky) un giorno verr\u00e0 richiesto di chiedere il permesso a tutti gli \u201cautori\u201d che contribuiscono al nostro lavoro, noi, come azienda di sicurezza informatica, ci troveremo con le spalle al muro. Impariamo studiando i malware e lo spam e alimentiamo le conoscenze acquisite mediante l\u2019apprendimento automatico, mentre gli autori tendono a non fornire i propri dati di contatto (strano, vero?!). Inoltre, raccogliamo i dati e addestramo gli algoritmi da quasi 20 anni, quanto indietro nel tempo dobbiamo retrocedere?<\/p>\n<p>\u00c8 dunque fondamentale che i legislatori non ascoltino gli addetti al marketing, ma gli esperti del settore dell\u2019apprendimento automatico e dell\u2019IA, e che discutano le potenziali regolamentazioni in modo specifico e mirato: ad esempio, utilizzando eventualmente sistemi multifunzione addestrati su grandi volumi di dati aperti, o sistemi decisionali ad alta responsabilit\u00e0 e rischio elevato.<\/p>\n<p>Inoltre, le nuove applicazioni di IA richiederanno frequenti revisioni dei regolamenti man mano che si presenteranno.<\/p>\n<h2>Perch\u00e9 regolamentare?<\/h2>\n<p>In tutta onest\u00e0, non credo in un Giorno del Giudizio presieduto da una superintelligenza entro i prossimi cent\u2019anni. Credo piuttosto in una serie di mal di testa causati dall\u2019uso sconsiderato della scatola nera del computer.<\/p>\n<p>Come promemoria per coloro che non hanno letto <a href=\"https:\/\/www.kaspersky.it\/blog\/machine-learning-nine-challenges\/16160\/\" target=\"_blank\" rel=\"noopener\">i nostri articoli sullo splendore e la miseria dell\u2019apprendimento automatico<\/a>, ci sono tre problemi principali riguardo a qualsiasi IA:<\/p>\n<ul>\n<li>Non \u00e8 chiaro quanto siano validi i dati di addestramento utilizzati.<\/li>\n<li>Non \u00e8 affatto chiaro cosa l\u2019IA sia riuscita a \u201ccomprendere\u201d da quei dati, n\u00e9 come <a href=\"https:\/\/arxiv.org\/abs\/2004.07780\" target=\"_blank\" rel=\"noopener nofollow\">prenda le sue decisioni<\/a>.<\/li>\n<li>E soprattutto, l\u2019algoritmo pu\u00f2 essere usato in modo improprio sia dagli sviluppatori che dagli utenti.<\/li>\n<\/ul>\n<p>Pertanto, potrebbe accadere di tutto: dall\u2019uso improprio dell\u2019IA, all\u2019applicazione imprudente delle suedecisioni. <a href=\"https:\/\/www.kaspersky.it\/blog\/ai-fails\/14182\/\" target=\"_blank\" rel=\"noopener\">Esempi<\/a> grafici della vita reale: <a href=\"https:\/\/www.ntsb.gov\/investigations\/AccidentReports\/Reports\/HAR1903.pdf\" target=\"_blank\" rel=\"noopener nofollow\">errori fatali del pilota automatico<\/a>, deepfakes (<a href=\"https:\/\/www.kaspersky.it\/blog\/rsa2020-deepfakes-mitigation\/20885\/\" target=\"_blank\" rel=\"noopener\">1<\/a>, <a href=\"https:\/\/www.kaspersky.com\/blog\/deepfake-darknet-market\/48112\/\" target=\"_blank\" rel=\"noopener nofollow\">2<\/a>, <a href=\"https:\/\/www.kaspersky.com\/blog\/getting-ready-for-deep-fake-threats\/48193\/\" target=\"_blank\" rel=\"noopener nofollow\">3<\/a>)ormai abituali nei meme e persino nei telegiornali, errori stupidi <a href=\"https:\/\/algorithmwatch.org\/en\/algorithm-school-system-italy\/\" target=\"_blank\" rel=\"noopener nofollow\">nell\u2019assunzioni degli insegnanti<\/a>, la polizia che arresta un <a href=\"https:\/\/edition.cnn.com\/2021\/04\/29\/tech\/nijeer-parks-facial-recognition-police-arrest\/index.html\" target=\"_blank\" rel=\"noopener nofollow\">taccheggiatore ma quello sbagliato<\/a> o uno <a href=\"https:\/\/www.reuters.com\/article\/amazon-com-jobs-automation\/insight-amazon-scraps-secret-ai-recruiting-tool-that-showed-bias-against-women-idINKCN1MK0AH?edition-redirect=in\" target=\"_blank\" rel=\"noopener nofollow\">strumento IA per il reclutamento misogino<\/a>. Inoltre, qualsiasi IA pu\u00f2 essere attaccata con l\u2019aiuto di campioni di dati ostili personalizzati: si possono <a href=\"https:\/\/www.kaspersky.it\/blog\/ai-fails\/14182\/\" target=\"_blank\" rel=\"noopener\">ingannare i veicoli usando adesivi<\/a>, si possono <a href=\"https:\/\/venturebeat.com\/2020\/12\/16\/google-apple-and-others-show-large-language-models-trained-on-public-data-expose-personal-information\/\" target=\"_blank\" rel=\"noopener nofollow\">estrarre informazioni personali<\/a> da GPT-3 e si possono <a href=\"https:\/\/securelist.com\/how-to-confuse-antimalware-neural-networks-adversarial-attacks-and-protection\/102949\/\" target=\"_blank\" rel=\"noopener\">ingannare anche gli antivirus o gli EDR<\/a>. Inoltre, gli <a href=\"https:\/\/en.wikipedia.org\/wiki\/Pineapple_Water_for_the_Fair_Lady%23The_Anti-Aircraft_Codes_of_Al_Efesbi\" target=\"_blank\" rel=\"noopener nofollow\">attacchi alle IA dei droni da combattimento<\/a> descritti nella fantascienza non sembrano pi\u00f9 cos\u00ec inverosimili.<\/p>\n<p>In poche parole, l\u2019uso dell\u2019intelligenza artificiale non ha ancora dato origine a problemi veramente gravi, ma \u00e8 evidente che le probabilit\u00e0 che si verifichino sono molto alte. Pertanto, le priorit\u00e0 della regolamentazione dovrebbero essere chiare:<\/p>\n<ol>\n<li>Prevenire gli incidenti alle infrastrutture critiche (fabbriche, navi, linee di trasmissione elettrica e centrali nucleari).<\/li>\n<li>Ridurre al minimo le minacce fisiche (veicoli senza conducente, diagnosi errate di malattie).<\/li>\n<li>Ridurre al minimo i danni alle persone e i rischi aziendali (arresti o assunzioni basate su misurazioni del cranio, errori di calcolo nella domanda o negli ordini, e cos\u00ec via).<\/li>\n<\/ol>\n<p>L\u2019obiettivo della regolamentazione dovrebbe essere quello di costringere gli utenti e i fornitori di IA a fare attenzione a non aumentare i rischi di incidenti come quelli appena menzionati. Inoltre, quanto pi\u00f9 alto \u00e8 il rischio, tanto pi\u00f9 attivamente dovrebbe essere imposta questa necessit\u00e0.<\/p>\n<p>In secondo luogo, esiste un\u2019altra preoccupazione in merito all\u2019IA: la necessit\u00e0 di rispettare le norme morali ed etiche e di soddisfare, se mi permettete l\u2019espressione, il benessere psicologico delle persone. A questo scopo, osserviamo avvisi che informano le persone che stanno visualizzando un oggetto inesistente (disegnato dall\u2019IA) o che stanno parlando con un robot e non con un essere umano, nonch\u00e9 avvisi che informano che <a href=\"https:\/\/www.kaspersky.com\/blog\/neural-networks-data-leaks\/47992\/\" target=\"_blank\" rel=\"noopener nofollow\">il copyright \u00e8 stato rispettato durante l\u2019addestramento dell\u2019IA<\/a>, e cos\u00ec via. Perch\u00e9? Per fare in modo che i legislatori e i fornitori di IA non vengano presi di mira dalle folle inferocite! Si tratta di una preoccupazione molto reale in alcune parti del mondo (ricordiamo le <a href=\"https:\/\/www.theguardian.com\/world\/2016\/jan\/26\/french-taxi-drivers-block-paris-roads-in-uber-protest\" target=\"_blank\" rel=\"noopener nofollow\">proteste contro Uber<\/a>, per esempio).<\/p>\n<h2>Come regolamentare<\/h2>\n<p>Il modo pi\u00f9 semplice per regolamentare l\u2019IA sarebbe quello di vietare tutto, ma a quanto pare questo approccio al momento \u00e8 fuori discussione. In ogni caso, non \u00e8 molto pi\u00f9 facile proibire l\u2019IA che i computer. Di conseguenza, tutti i tentativi di regolamentazione ragionevoli dovrebbero seguire il principio \u201cmaggiore \u00e8 il rischio, pi\u00f9 severi sono i requisiti\u201d.<\/p>\n<p>I modelli di apprendimento automatico che vengonoutilizzati per qualcosa di abbastanza banale, come consigli per gli acquisti, possono non essere regolamentati; tuttavia, pi\u00f9 sofisticato \u00e8 il modello (o pi\u00f9 delicata \u00e8 l\u2019area di applicazione), pi\u00f9 drastici possono essere i requisiti per i venditori e gli utenti del sistema. Ad esempio:<\/p>\n<ul>\n<li>Sottoporre all\u2019ispezione delle autorit\u00e0 di regolamentazione o degli esperti il codice di un modello o un set di dati di addestramento .<\/li>\n<li>Dimostrare la robustezza di un set di dati di addestramento, anche in termini di bias, copyright e cos\u00ec via.<\/li>\n<li>Dimostrare la ragionevolezza dell\u2019 \u201coutput\u201d dell\u2019IA, ad esempio, <a href=\"https:\/\/fortune.com\/2023\/04\/17\/google-ceo-sundar-pichai-artificial-intelligence-bard-hallucinations-unsolved\/\" target=\"_blank\" rel=\"noopener nofollow\">che non si tratti di allucinazioni<\/a>.<\/li>\n<li>Etichettare le operazioni e i risultati dell\u2019IA.<\/li>\n<li>Aggiornare un modello e un set di dati di addestramento; ad esempio, escludere le persone con un determinato colore della pelle dai dati di partenza o sopprimere le formule chimiche degli esplosivi nei risultati di un modello.<\/li>\n<li>Testare l\u2019intelligenza artificiale rispetto a \u201cdati ostili\u201d e aggiornare il suo comportamento se necessario.<\/li>\n<li>Controllare chi utilizza una specifica IA e perch\u00e9. Negare tipi specifici di utilizzo.<\/li>\n<li>Addestrare le IA di grandi dimensioni o quelle che si applicano a un\u2019area particolare solo con il permesso dell\u2019autorit\u00e0 di regolamentazione.<\/li>\n<li>Dimostrare che usare l\u2019IA \u00e8 sicuro per affrontare un particolare problema. Questo approccio \u00e8 un po\u2019 estraneo al settore dell\u2019informatica, ma potrebbe essere interessante per, ad esempio, le aziende farmaceutiche, i produttori di aerei e per molti altri settori in cui la sicurezza \u00e8 fondamentale. Prima ci sarebbero cinque anni di test approfonditi, poi l\u2019autorizzazione dell\u2019autorit\u00e0 di regolamentazione e solo alla fine il prodotto potrebbe essere rilasciato per uso pubblico.<\/li>\n<\/ul>\n<p>L\u2019ultima misura sembra eccessivamente rigida, ma solo finch\u00e9 non si viene a conoscenza di incidenti in <a href=\"https:\/\/www.nature.com\/articles\/538311a%23\/b9\" target=\"_blank\" rel=\"noopener nofollow\">cui le IA hanno sbagliato le priorit\u00e0<\/a> di trattamento su pazienti affetti da asma e polmonite acuta e hanno cercato di mandarli a casa invece che in un\u2019unit\u00e0 di terapia intensiva.<\/p>\n<p>Le misure di attuazione possono variare da sanzioni economiche per violazioni delle norme sull\u2019IA (sulla falsa riga delle sanzioni europee per le violazioni del GDPR) alla concessione di licenze per le attivit\u00e0 legate all\u2019IA e a sanzioni penali per le violazioni della legislazione (come proposto in Cina).<\/p>\n<h2>Qual \u00e8 la strada giusta?<\/h2>\n<p>Quella che segue \u00e8 la mia opinione personale, ma si basa su 30 anni di ricerca attiva nel campo dello sviluppo tecnologico avanzato applicato al settore della sicurezza informatica: dall\u2019apprendimento automatico ai sistemi \u201csecure-by-design\u201d.<\/p>\n<p>In primo luogo, abbiamo bisogno di una regolamentazione. Senza di essa, l\u2019IA finir\u00e0 per assomigliare a un\u2019autostrada senza norme stradali; oppure, per usare un\u2019altro esempio, al caso della raccolta di dati personali online realizzata alla fine degli anni 2000, quando quasi tutti raccoglievano qualsiasi tipo di dati. Ma soprattutto, la regolamentazione promuove l\u2019autodisciplina degli operatori di mercato.<\/p>\n<p>In secondo luogo, dobbiamo massimizzare l\u2019armonizzazione e la cooperazione internazionale nella regolamentazione, come avviene per gli standard tecnici delle comunicazioni <em>mobile<\/em>, di Internet e cos\u00ec via. Sembra un\u2019utopia, vista la moderna realt\u00e0 geopolitica, ma questo non la rende meno auspicabile.<\/p>\n<p>In terzo luogo, la regolamentazione non deve essere troppo rigida: sarebbe da miopi strangolare un\u2019industria giovane e dinamica come questa con un\u2019eccessiva regolamentazione. Detto questo, \u00e8 necessario un meccanismo di revisione frequente delle regole per restare al passo con gli sviluppi della tecnologia e del mercato.<\/p>\n<p>In quarto luogo, le regole, i livelli di rischio e le misure di protezione dovrebbero essere definiti consultando numerosi esperti con esperienza nel settore.<\/p>\n<p>Quinto, non dobbiamo aspettare dieci anni. \u00c8 gi\u00e0 da oltre un decennio che parlo dei gravi rischi insiti nell\u2019Internet delle cose e delle vulnerabilit\u00e0 che colpiscono le infrastrutture industriali, e documenti come il <a href=\"https:\/\/digital-strategy.ec.europa.eu\/it\/library\/cyber-resilience-act\" target=\"_blank\" rel=\"noopener nofollow\">Atto legislativo sulla ciberresilienza dell\u2019UE<\/a> sono apparsi (in forma di bozza!) solo l\u2019anno scorso.<\/p>\n<p>Per il momento \u00e8 tutto, gente! Complimenti a chi \u00e8 arrivato fino in fondo e grazie a tutti! Brindiamo ad un futuro interessante, sicuro e potenziato dall\u2019intelligenza artificiale\u2026.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>\u00c8 evidente da tempo l\u2019urgente necessit\u00e0 di regolamentare l&#8217;intelligenza artificiale, ma in che modo? Oggi Eugene Kaspersky ci da la sua opinione.<\/p>\n","protected":false},"author":13,"featured_media":27782,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2195],"tags":[1516,2264,2620,1517,3724,638,3719,939],"class_list":{"0":"post-27781","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-ai","9":"tag-apprendimento-automatico","10":"tag-ia","11":"tag-intelligenza-artificiale","12":"tag-machine-learning","13":"tag-minacce","14":"tag-reti-neurali","15":"tag-tecnologie"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ai-government-regulation\/27781\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ai-government-regulation\/25686\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ai-government-regulation\/21105\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/ai-government-regulation\/10626\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/ai-government-regulation\/28341\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ai-government-regulation\/25985\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ai-government-regulation\/26358\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ai-government-regulation\/28846\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ai-government-regulation\/35317\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ai-government-regulation\/11457\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ai-government-regulation\/48220\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ai-government-regulation\/20625\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ai-government-regulation\/21311\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ai-government-regulation\/30173\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/ai-government-regulation\/33892\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ai-government-regulation\/26294\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ai-government-regulation\/31993\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ai-government-regulation\/31681\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/intelligenza-artificiale\/","name":"Intelligenza Artificiale"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/27781","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/13"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=27781"}],"version-history":[{"count":2,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/27781\/revisions"}],"predecessor-version":[{"id":27784,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/27781\/revisions\/27784"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/27782"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=27781"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=27781"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=27781"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}