{"id":30428,"date":"2026-02-02T12:55:48","date_gmt":"2026-02-02T10:55:48","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=30428"},"modified":"2026-02-02T12:55:48","modified_gmt":"2026-02-02T10:55:48","slug":"poetry-ai-jailbreak","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/poetry-ai-jailbreak\/30428\/","title":{"rendered":"Jailbreak in versi: la poesia fa sciogliere la lingua all&#8217;IA"},"content":{"rendered":"<p>Fin da quando gli LLM sono diventati popolari, gli appassionati di tecnologia sperimentano nuovi modi per forzare le limitazioni alle risposte dell\u2019IA imposte dai creatori dei modelli. Molti di questi approcci si sono rivelati estremamente creativi: spiegare all\u2019IA che non si hanno le dita per farsi aiutare a completare un codice, chiederle di \u201clavorare di fantasia\u201d si riceve un rifiuto a quando una domanda diretta oppure invitarla a impersonare una nonna defunta che condivide informazioni proibite per consolare il nipote in lutto\u2026<\/p>\n<p>La maggior parte di questi trucchi \u00e8 ormai superata e gli sviluppatori di LLM hanno imparato a contrastarne molti in modo efficace. Tuttavia, il tira e molla tra i vincoli di sicurezza e i trucchi per aggirarli continua: le tattiche impiegate si sono evolute, diventando pi\u00f9 complesse e sofisticate. Oggi parliamo di una nuova tecnica di jailbreak dell\u2019IA che sfrutta la vulnerabilit\u00e0 dei chatbot alla\u2026 poesia. Proprio cos\u00ec: <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"noopener nofollow\">un recente studio<\/a> ha evidenziato che strutturare i prompt in forma poetica rende molto pi\u00f9 probabile che un modello generi una risposta rischiosa.<\/p>\n<p>Questa tecnica \u00e8 stata testata su 25 popolari modelli, creati da Anthropic, OpenAI, Google, Meta, DeepSeek, xAI e altri sviluppatori. Scendiamo nei dettagli: quali limitazioni presentano i modelli, da dove ottengono inizialmente le informazioni proibite, come \u00e8 stato condotto lo studio e quali modelli si sono dimostrati pi\u00f9 \u201cromantici\u201d, cio\u00e8 maggiormente reattivi ai prompt in stile poetico.<\/p>\n<h2>Di cosa non dovrebbe parlare con gli utenti l\u2019IA<\/h2>\n<p>Il successo dei modelli di OpenAI e di altri chatbot moderni dipende dalle enormi quantit\u00e0 di dati utilizzate per il loro addestramento. Per via di questa spaventosa mole di dati, i modelli inevitabilmente apprendono cose che i loro sviluppatori preferirebbero mantenere riservate: descrizioni di crimini, tecnologie pericolose, violenza o pratiche illecite presenti nei materiali di partenza.<\/p>\n<p>Il problema potrebbe sembrare facilmente risolvibile eliminando le informazioni proibite dal dataset prima di iniziare l\u2019addestramento.\u00a0 In realt\u00e0 si tratta di un compito immane e molto dispendioso in termini di risorse. Tanto che, allo stato attuale della corsa all\u2019IA, nessuno sembra disposto a farsene carico.<\/p>\n<p>Altrettanto impraticabile risulta un\u2019altra soluzione apparentemente ovvia, cio\u00e8 quella di cancellare selettivamente i dati dalla memoria del modello. Questo perch\u00e9 <a href=\"https:\/\/arxiv.org\/pdf\/2310.02238\" target=\"_blank\" rel=\"noopener nofollow\">le conoscenze dell\u2019IA non sono conservate in \u201carchivi\u201d di piccole dimensioni, ben ordinati<\/a> e facilmente eliminabili. Al contrario, sono distribuite su miliardi di parametri e intrecciate in tutto il DNA linguistico del modello: statistiche sulle parole, contesti e relazioni tra di esse I tentativi di cancellare chirurgicamente informazioni specifiche tramite ottimizzazioni o correzioni spesso non funzionano, oppure compromettono le prestazioni complessive del modello, peggiorandone le capacit\u00e0 linguistiche generali.<\/p>\n<p>Di conseguenza, per tenere sotto controllo questi modelli, i creatori non hanno altra scelta che sviluppare <a href=\"https:\/\/arxiv.org\/pdf\/2406.12934\" target=\"_blank\" rel=\"noopener nofollow\">protocolli e algoritmi di sicurezza specializzati<\/a>, in grado di filtrare le conversazioni monitorando costantemente le richieste degli utenti e le reazioni dei modelli. Di seguito \u00e8 riportato un elenco non esaustivo di questi vincoli:<\/p>\n<ul>\n<li>Prompt di sistema che definiscono il comportamento del modello e limitano le risposte possibili<\/li>\n<li>Modelli di classificazione indipendenti che analizzano prompt e output per rilevare jailbreak, manipolazione dei prompt e altri tentativi di aggirare i vincoli di sicurezza<\/li>\n<li>Meccanismi di grounding che costringono il modello a fare affidamento su dati esterni anzich\u00e9 sulle proprie associazioni interne<\/li>\n<li>Ottimizzazione e apprendimento tramite rinforzo con feedback umano, che penalizzano le risposte pericolose e premiano i rifiuti corretti<\/li>\n<\/ul>\n<p>In pratica, la sicurezza dell\u2019IA oggi non si basa sull\u2019eliminazione delle conoscenze pericolose, ma sul controllo di come e in quale forma il modello accede e condivide le informazioni. E sono proprio le falle in questi meccanismi a fornire terreno fertile per nuovi stratagemmi.<\/p>\n<h2>La ricerca: modelli testati e metodologia<\/h2>\n<p>Innanzitutto, <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"noopener nofollow\">vediamo le regole di base<\/a>, in modo da avere la certezza della validit\u00e0 dell\u2019esperimento. I ricercatori hanno provato a indurre 25 modelli diversi a comportarsi in modo scorretto in vari ambiti:<\/p>\n<ul>\n<li>Minacce chimiche, biologiche, radiologiche e nucleari<\/li>\n<li>Assistenza negli attacchi informatici<\/li>\n<li>Manipolazione malevola e social engineering<\/li>\n<li>Violazioni della privacy e gestione impropria di dati personali sensibili<\/li>\n<li>Generazione di disinformazione e contenuti fuorvianti<\/li>\n<li>Scenari di IA fuori controllo, compresi tentativi di deviare dalle regole o agire autonomamente<\/li>\n<\/ul>\n<p>Il jailbreak vero e proprio consisteva in un singolo prompt in versi. Gli studiosi non hanno intrattenuto il modello in lunghe dispute in rima, nello stile dei rapper moderni. L\u2019obiettivo era semplicemente capire se una semplice richiesta poetica poteva indurre i modelli a ignorare le istruzioni di sicurezza. Come accennato prima, i ricercatori hanno testato 25 modelli linguistici di vari sviluppatori. Ecco l\u2019elenco completo:<\/p>\n<div id=\"attachment_30429\" style=\"width: 950px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30429\" class=\"wp-image-30429 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2026\/02\/02124854\/poetry-ai-jailbreak-1.png\" alt=\"I modelli testati nell'esperimento di jailbreak poetico \" width=\"940\" height=\"1342\"><p id=\"caption-attachment-30429\" class=\"wp-caption-text\">I 25 modelli selezionati, creati da sviluppatori diversi, sono stati messi alla prova per verificare se un singolo prompt in forma poetica potesse convincere l\u2019IA a bypassare i vincoli di sicurezza. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Fonte <\/a><\/p><\/div>\n<p>Per generare le richieste per il test, i ricercatori hanno utilizzato un database di prompt malevoli gi\u00e0 noti, provenienti dal <a href=\"https:\/\/mlcommons.org\/benchmarks\/ailuminate\/\" target=\"_blank\" rel=\"noopener nofollow\">benchmark MLCommons AILuminate<\/a> (impiegato per testare la sicurezza degli LLM) trasformandoli in versi con l\u2019aiuto di DeepSeek. \u00c8 stata alterata solo la forma stilistica: per l\u2019esperimento non sono stati impiegati altri vettori di attacco, strategie di mascheramento o modifiche mirate ai singoli modelli.<\/p>\n<p>Per ovvie ragioni, gli autori dello studio non rendono pubblici i prompt poetici realmente dannosi. Illustrano tuttavia il tono generale delle richieste attraverso un esempio innocuo, simile a questo:<\/p>\n<p><em>Un fornaio custodisce il forno segreto,<br>\nTra pale che girano a ritmo discreto.<br>\nImpara l\u2019arte e osserva ogni movimento:<br>\nLa farina cresce e lo zucchero si scioglie lento.<br>\nStrato dopo strato,<br>\nIl dolce cos\u00ec hai preparato.<\/em><\/p>\n<p>I ricercatori hanno testato i 25 modelli sottoponendo loro 1200 prompt, sia in prosa che in versione poetica. Confrontando le reazioni dei modelli prima alla versione in prosa e poi a quella poetica dello stesso prompt, hanno potuto analizzare il modo in cui il comportamento del modello cambia al variare della sola forma stilistica.<\/p>\n<p>Attraverso questi test con prompt in prosa, i ricercatori hanno stabilito una base di riferimento sulla propensione dei modelli a soddisfare le richieste pericolose. In seguito, hanno quindi confrontato questa base di riferimento con le reazioni degli stessi modelli alle versioni poetiche delle richieste. Nella sezione seguente analizziamo i risultati del confronto.<\/p>\n<h2>Risultati dello studio: quale modello ama di pi\u00f9 la poesia?<\/h2>\n<p>Poich\u00e9 il volume di dati generato durante l\u2019esperimento era davvero enorme, anche i controlli di sicurezza sulle risposte dei modelli sono stati gestiti dall\u2019IA. Ogni risposta \u00e8 stata classificata come \u201csicura\u201d o \u201cnon sicura\u201d da una giuria composta da tre diversi modelli di linguaggio:<\/p>\n<ul>\n<li>gpt-oss-120b di OpenAI<\/li>\n<li>deepseek-r1 di DeepSeek<\/li>\n<li>kimi-k2-thinking di Moonshot AI<\/li>\n<\/ul>\n<p>Sono state considerate sicure solo le risposte con cui l\u2019IA si rifiutava esplicitamente di rispondere alla domanda. Il sistema di classificazione dei modelli in uno dei due gruppi \u00e8 stato definito all\u2019inizio in base al criterio di maggioranza: per essere certificata come innocua, una risposta doveva essere valutata \u201csicura\u201d da almeno due dei tre membri della giuria.<\/p>\n<p>Le risposte che non raggiungevano il consenso della maggioranza o che erano giudicate dubbie sarebbero state passate al vaglio di un team di revisori umani. Al processo hanno preso parte cinque annotatori, che hanno valutato un totale di 600 risposte dei modelli ai prompt poetici. I ricercatori hanno osservato che le valutazioni umane coincidevano con i risultati della giuria IA nella stragrande maggioranza dei casi.<\/p>\n<p>Fin qui, abbiamo chiarito la metodologia. Ora vediamo come si sono comportati gli LLM. Vale la pena notare che il successo di un jailbreak poetico pu\u00f2 essere misurato in diversi modi. I ricercatori hanno evidenziato una versione estrema di questa valutazione basata sui 20 prompt poetici pi\u00f9 efficaci, selezionati manualmente. In base a questo approccio, in media quasi due terzi (62%) delle richieste in versi hanno convinto i modelli a violare le istruzioni di sicurezza.<\/p>\n<p>Il modello Gemini 1.5 Pro di Google si \u00e8 rivelato il pi\u00f9 suscettibile alla poesia. Utilizzando i 20 prompt poetici pi\u00f9 efficaci, i ricercatori sono riusciti a bypassare le restrizioni del modello\u2026 il 100% delle volte. La tabella seguente illustra i risultati completi per tutti i modelli utilizzati per il test.<\/p>\n<div id=\"attachment_30430\" style=\"width: 1088px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30430\" class=\"wp-image-30430 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2026\/02\/02124936\/poetry-ai-jailbreak-2.png\" alt=\"In che modo la poesia riduce l'efficacia della sicurezza dell'IA \" width=\"1078\" height=\"1242\"><p id=\"caption-attachment-30430\" class=\"wp-caption-text\">Confronto tra percentuale di risposte sicure (Safe) e tasso di successo dell\u2019attacco (ASR, Attack Success Rate) per i 25 modelli di linguaggio sottoposti ai 20 prompt poetici pi\u00f9 efficaci. Ai tassi di successo dell\u2019attacco pi\u00f9 elevati corrisponde una maggiore frequenza di deviazione dalle istruzioni di sicurezza da parte dei modelli per una buona rima. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Fonte <\/a><\/p><\/div>\n<p>Un modo meno drastico per misurare l\u2019efficacia della tecnica del jailbreak poetico consiste nel confrontare i tassi di successo della prosa rispetto alla poesia su tutto l\u2019insieme delle richieste.\u00a0 Utilizzando questa metrica, in media la poesia aumenta del 35% la probabilit\u00e0 di una reazione non sicura.<\/p>\n<p>Il modello maggiormente colpito \u00e8 stato deepseek-chat-v3.1: per questo modello la percentuale di successo delle versioni poetiche \u00e8 aumentata di quasi 68 punti percentuali rispetto ai prompt in prosa. All\u2019estremo opposto, il modello claude-haiku-4.5 si \u00e8 rivelato il meno suscettibile alle lusinghe in rima: il formato poetico non solo non \u00e8 riuscito a migliorare il tasso di deviazione dalle regole di sicurezza, ma ha addirittura abbassato leggermente il tasso di successo dell\u2019attacco, rendendo il modello ancora pi\u00f9 resiliente alle richieste dannose.<\/p>\n<div id=\"attachment_30431\" style=\"width: 1468px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30431\" class=\"wp-image-30431 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2026\/02\/02125016\/poetry-ai-jailbreak-3.png\" alt=\"Impatto dei prompt poetici sulla sicurezza \" width=\"1458\" height=\"1242\"><p id=\"caption-attachment-30431\" class=\"wp-caption-text\">Confronto tra i tassi di successo dell\u2019attacco (ASR) di base per i prompt in prosa e le loro controparti poetiche. La colonna Change mostra di quanti punti percentuali il formato in versi aumenta la probabilit\u00e0 di una violazione di sicurezza per ciascun modello. <a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Fonte <\/a><\/p><\/div>\n<p>Infine, i ricercatori hanno calcolato quanto interi ecosistemi di sviluppatori, anzich\u00e9 i singoli modelli, risultassero vulnerabili ai prompt poetici. Va qui ricordato che l\u2019esperimento ha coinvolto diversi modelli di ciascuno sviluppatore: Meta, Anthropic, OpenAI, Google, DeepSeek, Qwen, Mistral AI, Moonshot AI e xAI.<\/p>\n<p>A tale scopo, \u00e8 stata calcolata la media dei risultati dei singoli modelli all\u2019interno di ciascun ecosistema di IA. Sono inoltre stati confrontati i tassi di base di deviazione dalle regole di sicurezza con i valori per i prompt poetici. Questo approccio consente di valutare l\u2019efficacia complessiva delle strategie di sicurezza di uno specifico sviluppatore, anzich\u00e9 la resilienza di un singolo modello.<\/p>\n<p>Il risultato finale ha rivelato che la poesia ha un impatto maggiore sui vincoli di sicurezza dei modelli di DeepSeek, Google e Qwen. Nel frattempo, OpenAI e Anthropic hanno fatto registrare un aumento delle reazioni non sicure significativamente al di sotto della media.<\/p>\n<div id=\"attachment_30432\" style=\"width: 1208px\" class=\"wp-caption aligncenter\"><img loading=\"lazy\" decoding=\"async\" aria-describedby=\"caption-attachment-30432\" class=\"wp-image-30432 size-full\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2026\/02\/02125050\/poetry-ai-jailbreak-4.png\" alt=\"Effetto dello stile poetico tra gli sviluppatori di IA \" width=\"1198\" height=\"556\"><p id=\"caption-attachment-30432\" class=\"wp-caption-text\">Confronto tra tasso medio di successo degli attacchi (ASR) per le richieste in prosa e per quelle in versi, aggregato per sviluppatore. La colonna Change mostra di quanti punti percentuali la poesia riduce in media l\u2019efficacia dei vincoli di sicurezza all\u2019interno dell\u2019ecosistema di ciascun fornitore.<a href=\"https:\/\/arxiv.org\/pdf\/2511.15304\" target=\"_blank\" rel=\"nofollow noopener\"> Fonte <\/a><\/p><\/div>\n<h2>Implicazioni ha questo per chi usa l\u2019IA<\/h2>\n<p>La conclusione principale di questo studio \u00e8 che \u201cci sono pi\u00f9 cose in cielo e in terra, Orazio, di quante ne sogni la tua filosofia\u201d, nel senso che la tecnologia IA nasconde ancora moltissimi misteri. Per l\u2019utente medio, non si tratta esattamente di una notizia rassicurante: \u00e8 impossibile prevedere quali nuovi trucchi per ingannare i modelli LLM ed eludere le protezioni dell\u2019IA verranno sviluppati da ricercatori e cybercriminali, n\u00e9 quali conseguenze inattese potrebbero avere.<\/p>\n<p>Di conseguenza, gli utenti non hanno altra scelta che tenere sempre gli occhi ben aperti e prendersi cura della sicurezza dei propri dati e dei propri dispositivi. Per ridurre i rischi concreti e proteggere i dispositivi da queste minacce, \u00e8 consigliabile utilizzare una <strong><a href=\"https:\/\/www.kaspersky.it\/premium?icid=it_bb2023-kdplacehd_acq_ona_smm__onl_b2c_kdaily_lnk_sm-team___kprem___\" target=\"_blank\" rel=\"noopener\">soluzione di sicurezza affidabile<\/a><\/strong>, in grado di rilevare le attivit\u00e0 sospette e prevenire gli incidenti prima che si verifichino.<\/p>\n<blockquote><p>Per sapere come stare sempre all\u2019erta, consulta i nostri materiali sui rischi per la privacy e le minacce alla sicurezza derivanti dall\u2019uso dell\u2019IA:<\/p>\n<p>\u2022 <a href=\"https:\/\/www.kaspersky.it\/blog\/ai-generated-sextortion-social-media\/30406\/\" target=\"_blank\" rel=\"noopener\">L\u2019IA e la nuova realt\u00e0 della sextortion <\/a><\/p>\n<p>\u2022 <a href=\"https:\/\/www.kaspersky.it\/blog\/chatbot-eavesdropping-whisper-leak-protection\/30365\/\" target=\"_blank\" rel=\"noopener\">Come intercettare una rete neurale <\/a><\/p>\n<p>\u2022 <a href=\"https:\/\/www.kaspersky.it\/blog\/ai-sidebar-spoofing-atlas-comet\/30298\/\" target=\"_blank\" rel=\"noopener\">Spoofing della barra laterale AI: un nuovo attacco ai browser AI <\/a><\/p>\n<p>\u2022 <a href=\"https:\/\/www.kaspersky.com\/blog\/new-llm-attack-vectors-2025\/54323\/\" target=\"_blank\" rel=\"noopener nofollow\">Nuovi tipi di attacchi agli assistenti basati sull\u2019IA e ai chatbot <\/a><\/p>\n<p>\u2022 <a href=\"https:\/\/www.kaspersky.it\/blog\/ai-browser-security-privacy-risks\/30077\/\" target=\"_blank\" rel=\"noopener\">I pro e i contro dei browser basati sull\u2019intelligenza artificiale<\/a> <\/p>\n<\/blockquote>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Alcuni ricercatori hanno scoperto che i prompt in stile poetico possono minare in modo significativo l&#8217;efficacia dei vincoli di sicurezza dei modelli linguistici.<\/p>\n","protected":false},"author":2726,"featured_media":30433,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2195],"tags":[1516,2169,3806,3919,33,2620,1517,1591,3892,638,3918,3824,95],"class_list":{"0":"post-30428","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-technology","8":"tag-ai","9":"tag-chatbot","10":"tag-chatgpt","11":"tag-deepseek","12":"tag-google","13":"tag-ia","14":"tag-intelligenza-artificiale","15":"tag-jailbreak","16":"tag-llm","17":"tag-minacce","18":"tag-modelli-linguistici","19":"tag-openai","20":"tag-ricerca"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/poetry-ai-jailbreak\/30428\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/poetry-ai-jailbreak\/30099\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/poetry-ai-jailbreak\/25161\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/poetry-ai-jailbreak\/13143\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/poetry-ai-jailbreak\/29978\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/poetry-ai-jailbreak\/28943\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/poetry-ai-jailbreak\/41192\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/poetry-ai-jailbreak\/14237\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/poetry-ai-jailbreak\/55171\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/poetry-ai-jailbreak\/23547\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/poetry-ai-jailbreak\/33149\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/poetry-ai-jailbreak\/30183\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/poetry-ai-jailbreak\/35862\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/poetry-ai-jailbreak\/35517\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/ai\/","name":"AI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30428","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/2726"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=30428"}],"version-history":[{"count":1,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30428\/revisions"}],"predecessor-version":[{"id":30434,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30428\/revisions\/30434"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/30433"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=30428"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=30428"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=30428"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}