{"id":30059,"date":"2025-09-15T10:00:04","date_gmt":"2025-09-15T08:00:04","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=30059"},"modified":"2025-09-11T20:54:11","modified_gmt":"2025-09-11T18:54:11","slug":"shadow-ai-3-policies","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/shadow-ai-3-policies\/30059\/","title":{"rendered":"Tre approcci di sicurezza informatica alla &#8220;IA ombra&#8221; sul posto di lavoro"},"content":{"rendered":"<p>Un recente rapporto del MIT, <a target=\"_blank\" rel=\"nofollow noopener\" href=\"https:\/\/mlq.ai\/media\/quarterly_decks\/v0.1_State_of_AI_in_Business_2025_Report.pdf\">The GenAI Divide:<\/a> <a target=\"_blank\" rel=\"nofollow noopener\" href=\"https:\/\/mlq.ai\/media\/quarterly_decks\/v0.1_State_of_AI_in_Business_2025_Report.pdf\">State of AI in Business 2025<\/a>, ha indotto un significativo raffreddamento dei titoli tecnologici. Il rapporto offre osservazioni interessanti sull\u2019economia e l\u2019organizzazione dell\u2019IA nelle aziende, con preziosi spunti anche per i team di sicurezza informatica. Gli autori non si sono occupati dei problemi di sicurezza: le parole \u201csecurity\u201d, \u201ccybersecurity\u201d o \u201csafety\u201d non compaiono per nulla nel rapporto. Tuttavia, i risultati ottenuti possono e devono essere presi in considerazione se si vogliono introdurre nuovi criteri di sicurezza aziendali in materia di IA.<\/p>\n<p>L\u2019osservazione fondamentale \u00e8 che mentre solo il 40% delle organizzazioni intervistate ha acquistato un abbonamento LLM, il 90% dei dipendenti usa regolarmente sul posto di lavoro strumenti personali basati sull\u2019intelligenza artificiale. E questa \u201ceconomia IA ombra\u201d (il termine usato nel rapporto) sembra essere pi\u00f9 efficace di quella ufficiale. Solo il 5% delle aziende vede vantaggi economici dell\u2019IA, che i dipendenti invece gi\u00e0 usano per aumentare la propria produttivit\u00e0.<\/p>\n<p>L\u2019approccio dall\u2019alto verso il basso all\u2019implementazione dell\u2019IA spesso manca il bersaglio. Pertanto, gli autori raccomandano di \u201cimparare dalla tecnologia ombra e analizzare quali strumenti personali offrono valore prima di acquistare alternative aziendali\u201d. In che modo questo consiglio si allinea con la sicurezza informatica?<\/p>\n<h2>Un bando completo dell\u2019IA ombra<\/h2>\n<p>Una politica preferita da molti CISO \u00e8 quella di testare e implementare (o meglio ancora, creare da s\u00e9) i propri strumenti di intelligenza artificiale e semplicemente bandire tutti gli altri. Questo approccio pu\u00f2 risultare economicamente inefficiente, con il rischio che l\u2019azienda rimanga indietro rispetto alla concorrenza. \u00c8 anche difficile da applicare, poich\u00e9 comporta costi e sforzi in materia di conformit\u00e0. Tuttavia, per alcuni settori altamente regolamentati o per le unit\u00e0 aziendali che gestiscono dati estremamente sensibili, un criterio di proibizione potrebbe essere l\u2019unica alternativa. Lo si pu\u00f2 implementare con i seguenti metodi:<\/p>\n<ul>\n<li>Bloccare l\u2019accesso a tutti gli strumenti di intelligenza artificiale pi\u00f9 diffusi a livello di rete usando uno strumento di filtro della rete.<\/li>\n<li>Configurare un sistema <a target=\"_blank\" href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/data-loss-prevention-dlp\/\" rel=\"noopener\">DLP<\/a> per monitorare e bloccare il trasferimento dei dati ad applicazioni e servizi di IA; ci\u00f2 include la prevenzione del copia-incolla di grandi blocchi di testo.<\/li>\n<li>Usare una lista per definire quali applicazioni siano consentite nei dispositivi aziendali e impedire cos\u00ec ai dipendenti di eseguire applicazioni di terze parti che potrebbero dare accesso diretto all\u2019IA o aggirare altre misure di sicurezza.<\/li>\n<li>Vietare l\u2019uso dei dispositivi personali per le attivit\u00e0 lavorative.<\/li>\n<li>Usare strumenti aggiuntivi, come l\u2019analisi video, per rilevare e limitare la capacit\u00e0 dei dipendenti di scattare foto degli schermi dei propri computer con gli smartphone personali.<\/li>\n<li>Stabilire un criterio a livello aziendale che vieti l\u2019uso di qualsiasi strumento di IA a eccezione di quelli inclusi in un elenco approvato dalla direzione e distribuiti direttamente dai team di sicurezza. Questo criterio deve essere formalmente documentato e i dipendenti devono ricevere adeguata formazione.<\/li>\n<\/ul>\n<h2>Uso illimitato dell\u2019IA<\/h2>\n<p>Se l\u2019azienda ritiene insignificanti i rischi derivanti dall\u2019uso degli strumenti di IA o se dispone di reparti che non gestiscono dati personali o altri dati sensibili, l\u2019uso dell\u2019IA pu\u00f2 essere pressoch\u00e9 illimitato. Impostando un breve elenco di misure e restrizioni, l\u2019azienda pu\u00f2 osservare le abitudini d\u2019uso degli LLM, identificare i servizi pi\u00f9 diffusi e usare questi dati per pianificare azioni e perfezionare le misure di sicurezza. Anche con questo approccio democratico, \u00e8 comunque necessario:<\/p>\n<ul>\n<li>Formare i dipendenti sulle nozioni di base per un uso responsabile dell\u2019IA con l\u2019aiuto di un modulo di sicurezza informatica. Un buon punto di partenza: <a target=\"_blank\" href=\"https:\/\/www.kaspersky.it\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/28531\/\" rel=\"noopener\">i nostri consigli<\/a> o <a href=\"https:\/\/k-asap.com\/it\/?icid=it_kdailyplacehold_acq_ona_smm__onl_b2b_kasperskydaily_wpplaceholder____kasap___\" target=\"_blank\" rel=\"noopener\">l'aggiunta di un corso specializzato alla piattaforma di sensibilizzazione alla sicurezza<\/a>.<\/li>\n<li>Configurare la registrazione dettagliata del traffico delle applicazioni per analizzare il ritmo d\u2019impiego dell\u2019IA e i tipi di servizi usati.<\/li>\n<li>Verificare che tutti i dipendenti abbiano un <a href=\"https:\/\/www.kaspersky.it\/enterprise-security\/endpoint-detection-response-edr?icid=it_kdailyplacehold_acq_ona_smm__onl_b2b_kasperskydaily_wpplaceholder_______\" target=\"_blank\" rel=\"noopener\">agente EPP\/EDR<\/a> installato nei propri dispositivi di lavoro e una <a href=\"https:\/\/www.kaspersky.it\/premium?icid=it_bb2023-kdplacehd_acq_ona_smm__onl_b2c_kdaily_lnk_sm-team___kprem___\" target=\"_blank\" rel=\"noopener\">solida soluzione di protezione per i propri gadget personali<\/a> (\u201capp ChatGPT\u201d \u00e8 stata <a target=\"_blank\" href=\"https:\/\/www.kaspersky.com\/blog\/chatgpt-stealer-win-client\/47274\/\" rel=\"noopener nofollow\">l\u2019esca preferita dai truffatori<\/a> per diffondere infostealer nel 2024-2025).<\/li>\n<li>Condurre sondaggi periodici per scoprire con quale frequenza viene usata l\u2019IA e per quali attivit\u00e0. In base questi e a dati di telemetria, misurare gli effetti e i rischi dell\u2019uso dell\u2019IA per calibrare i criteri.<\/li>\n<\/ul>\n<h2>Restrizioni bilanciate sull\u2019uso dell\u2019IA<\/h2>\n<p>A livello aziendale \u00e8 probabile che nessuno dei due estremi d\u2019uso dell\u2019IA (bando totale o libert\u00e0 totale) si riveli adatto. Pi\u00f9 versatile sarebbe un criterio che consenta diversi livelli di accesso all\u2019IA in base al tipo di dati usati. La piena attuazione di tale criterio richiede:<\/p>\n<ul>\n<li>Un proxy IA specializzato che pulisca al volo le query rimuovendo tipi specifici di dati sensibili (come nomi o ID cliente) e che sfrutti il controllo degli accessi basato sui ruoli per bloccare i casi d\u2019uso inappropriati.<\/li>\n<li>Un portale self-service IT in cui i dipendenti possono dichiarare l\u2019uso degli strumenti di IA, dai modelli e servizi di base fino alle applicazioni specializzate, passando dalle estensioni dei browser.<\/li>\n<li>Una soluzione (<a target=\"_blank\" href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/next-generation-firewall-ngfw\/\" rel=\"noopener\">NGFW<\/a>, <a target=\"_blank\" href=\"https:\/\/en.wikipedia.org\/wiki\/Cloud_access_security_broker\" rel=\"noopener nofollow\">CASB<\/a>, <a target=\"_blank\" rel=\"nofollow noopener\" href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/data-loss-prevention-dlp\/\">DLP<\/a> o altro) per il monitoraggio e il controllo dettagliati dell\u2019impiego dell\u2019IA a livello di richieste specifiche per ciascun servizio.<\/li>\n<li>Solo per le aziende che creano software: pipeline CI\/CD e strumenti SAST\/DAST modificati per identificare automaticamente il codice generato dall\u2019IA e identificarlo per successive verifiche.<\/li>\n<li>Come per lo scenario illimitato, formazione regolare dei dipendenti, sondaggi e una solida protezione per dispositivi sia personali che di lavoro.<\/li>\n<\/ul>\n<p>In base ai requisiti elencati, \u00e8 necessario sviluppare un criterio che copra diversi dipartimenti e vari tipi di informazioni, ad esempio:<\/p>\n<table>\n<tbody>\n<tr>\n<td>Tipo di dati<\/td>\n<td>IA rivolta al pubblico (da dispositivi personali e account)<\/td>\n<td>Servizio di IA esterno (tramite un proxy di IA aziendale)<\/td>\n<td>Strumenti IA cloud attendibili o locali<\/td>\n<\/tr>\n<tr>\n<td>Dati pubblici (ad esempio testi pubblicitari)<\/td>\n<td>Consentiti (dichiarati tramite il portale aziendale)<\/td>\n<td>Consentiti (registrati)<\/td>\n<td>Consentiti (registrati)<\/td>\n<\/tr>\n<tr>\n<td>Dati interni generici (ad esempio il contenuto delle e-mail)<\/td>\n<td>Sconsigliati ma non bloccati. Richiedono una dichiarazione<\/td>\n<td>Consentiti (registrati)<\/td>\n<td>Consentiti (registrati)<\/td>\n<\/tr>\n<tr>\n<td>Dati riservati (ad esempio codice sorgente, comunicazioni legali o relative a risorse umane)<\/td>\n<td>Bloccati da DLP\/CASB\/NGFW<\/td>\n<td>Consentiti per scenari specifici approvati dai manager (i dati personali devono essere rimossi; il codice richiede controlli sia automatici che manuali)<\/td>\n<td>Consentiti (registrati, dati personali rimossi secondo necessit\u00e0)<\/td>\n<\/tr>\n<tr>\n<td>Dati regolamentati ad alto impatto (finanziari, sanitari e cos\u00ec via)<\/td>\n<td>Vietati<\/td>\n<td>Vietati<\/td>\n<td>Consentiti con approvazione CISO, soggetta ai requisiti normativi di conservazione<\/td>\n<\/tr>\n<tr>\n<td>Dati altamente critici e classificati<\/td>\n<td>Vietati<\/td>\n<td>Vietati<\/td>\n<td>Vietati (eccezioni possibili solo dietro approvazione del consiglio di amministrazione)<\/td>\n<\/tr>\n<\/tbody>\n<\/table>\n<p>Per applicare il criterio non bastano gli strumenti tecnici ma \u00e8 necessario un approccio organizzativo a pi\u00f9 livelli. Innanzitutto, <a href=\"https:\/\/k-asap.com\/it\/?icid=it_kdailyplacehold_acq_ona_smm__onl_b2b_kasperskydaily_wpplaceholder____kasap___\" target=\"_blank\" rel=\"noopener\">i dipendenti devono essere formati<\/a> sui rischi associati all\u2019IA come fughe di dati, allucinazioni e iniezioni di prompt. Questa formazione dovrebbe essere obbligatoria per tutti i membri dell\u2019organizzazione.<\/p>\n<p>Dopo la formazione iniziale, \u00e8 essenziale sviluppare criteri pi\u00f9 dettagliati e offrire una formazione avanzata ai capi dipartimento. Ci\u00f2 consentir\u00e0 loro di prendere decisioni informate sull\u2019opportunit\u00e0 di approvare o rifiutare le richieste di uso di dati specifici con strumenti di IA pubblici.<\/p>\n<p>Politiche, criteri e misure iniziali sono solo l\u2019inizio: hanno bisogno di essere aggiornati periodicamente. Ci\u00f2 comporta l\u2019analisi dei dati, il perfezionamento dei casi d\u2019uso dell\u2019IA nel mondo reale e il monitoraggio degli strumenti pi\u00f9 diffusi. \u00c8 necessario un portale self-service come ambiente privo di stress in cui i dipendenti possano spiegare quali strumenti di IA stanno usando e per quali scopi. Questo prezioso feedback arricchisce le analisi, aiuta a creare un business case per l\u2019adozione dell\u2019IA e fornisce un modello basato sui ruoli per l\u2019applicazione dei giusti criteri di sicurezza.<\/p>\n<p>Infine, \u00e8 necessario un sistema a pi\u00f9 livelli per rispondere alle violazioni. I possibili passaggi sono:<\/p>\n<ul>\n<li>Un avviso automatico e un corso di micro-formazione obbligatorio su una data violazione.<\/li>\n<li>Riunione privata tra il dipendente, il capo dipartimento e un responsabile della sicurezza delle informazioni.<\/li>\n<li>Un divieto temporaneo degli strumenti basati su IA.<\/li>\n<li>Rigorose sanzioni disciplinari per il tramite delle risorse umane.<\/li>\n<\/ul>\n<h2>Un approccio completo alla sicurezza dell\u2019IA<\/h2>\n<p>I criteri discussi qui coprono una gamma relativamente ristretta di rischi associati all\u2019uso di soluzioni SaaS per l\u2019IA generativa. Per creare un criterio completo che affronti l\u2019intero spettro dei rischi rilevanti, Kaspersky propone le proprie <a target=\"_blank\" href=\"https:\/\/www.kaspersky.com\/blog\/ai-safe-deployment-guidelines\/52789\/\" rel=\"noopener nofollow\">linee guida per l\u2019implementazione sicura dei sistemi di IA<\/a>, stilate in collaborazione con altri esperti fidati.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"mdr\"><input type=\"hidden\" class=\"placeholder_for_banner\" data-cat_id=\"mdr\" value=\"25742\">\n","protected":false},"excerpt":{"rendered":"<p>La maggior parte dei dipendenti usa gi\u00e0 abbonamenti LLM personali nelle attivit\u00e0 lavorative. Come si pu\u00f2 conciliare il mantenimento della competitivit\u00e0 con la prevenzione delle fughe di dati?<\/p>\n","protected":false},"author":2722,"featured_media":30062,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2364,2955,2956],"tags":[2620,3892,3724,45],"class_list":{"0":"post-30059","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-business","8":"category-enterprise","9":"category-smb","10":"tag-ia","11":"tag-llm","12":"tag-machine-learning","13":"tag-sicurezza"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/shadow-ai-3-policies\/30059\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/shadow-ai-3-policies\/29516\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/shadow-ai-3-policies\/24620\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/shadow-ai-3-policies\/29447\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/shadow-ai-3-policies\/28569\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/shadow-ai-3-policies\/40409\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/shadow-ai-3-policies\/13763\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/shadow-ai-3-policies\/54252\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/shadow-ai-3-policies\/32653\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/shadow-ai-3-policies\/29626\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/shadow-ai-3-policies\/35375\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/shadow-ai-3-policies\/35004\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/ia\/","name":"IA"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30059","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=30059"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30059\/revisions"}],"predecessor-version":[{"id":30069,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30059\/revisions\/30069"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/30062"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=30059"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=30059"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=30059"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}