Tre approcci di sicurezza informatica alla “IA ombra” sul posto di lavoro

La maggior parte dei dipendenti usa già abbonamenti LLM personali nelle attività lavorative. Come si può conciliare il mantenimento della competitività con la prevenzione delle fughe di dati?

Un recente rapporto del MIT, The GenAI Divide: State of AI in Business 2025, ha indotto un significativo raffreddamento dei titoli tecnologici. Il rapporto offre osservazioni interessanti sull’economia e l’organizzazione dell’IA nelle aziende, con preziosi spunti anche per i team di sicurezza informatica. Gli autori non si sono occupati dei problemi di sicurezza: le parole “security”, “cybersecurity” o “safety” non compaiono per nulla nel rapporto. Tuttavia, i risultati ottenuti possono e devono essere presi in considerazione se si vogliono introdurre nuovi criteri di sicurezza aziendali in materia di IA.

L’osservazione fondamentale è che mentre solo il 40% delle organizzazioni intervistate ha acquistato un abbonamento LLM, il 90% dei dipendenti usa regolarmente sul posto di lavoro strumenti personali basati sull’intelligenza artificiale. E questa “economia IA ombra” (il termine usato nel rapporto) sembra essere più efficace di quella ufficiale. Solo il 5% delle aziende vede vantaggi economici dell’IA, che i dipendenti invece già usano per aumentare la propria produttività.

L’approccio dall’alto verso il basso all’implementazione dell’IA spesso manca il bersaglio. Pertanto, gli autori raccomandano di “imparare dalla tecnologia ombra e analizzare quali strumenti personali offrono valore prima di acquistare alternative aziendali”. In che modo questo consiglio si allinea con la sicurezza informatica?

Un bando completo dell’IA ombra

Una politica preferita da molti CISO è quella di testare e implementare (o meglio ancora, creare da sé) i propri strumenti di intelligenza artificiale e semplicemente bandire tutti gli altri. Questo approccio può risultare economicamente inefficiente, con il rischio che l’azienda rimanga indietro rispetto alla concorrenza. È anche difficile da applicare, poiché comporta costi e sforzi in materia di conformità. Tuttavia, per alcuni settori altamente regolamentati o per le unità aziendali che gestiscono dati estremamente sensibili, un criterio di proibizione potrebbe essere l’unica alternativa. Lo si può implementare con i seguenti metodi:

  • Bloccare l’accesso a tutti gli strumenti di intelligenza artificiale più diffusi a livello di rete usando uno strumento di filtro della rete.
  • Configurare un sistema DLP per monitorare e bloccare il trasferimento dei dati ad applicazioni e servizi di IA; ciò include la prevenzione del copia-incolla di grandi blocchi di testo.
  • Usare una lista per definire quali applicazioni siano consentite nei dispositivi aziendali e impedire così ai dipendenti di eseguire applicazioni di terze parti che potrebbero dare accesso diretto all’IA o aggirare altre misure di sicurezza.
  • Vietare l’uso dei dispositivi personali per le attività lavorative.
  • Usare strumenti aggiuntivi, come l’analisi video, per rilevare e limitare la capacità dei dipendenti di scattare foto degli schermi dei propri computer con gli smartphone personali.
  • Stabilire un criterio a livello aziendale che vieti l’uso di qualsiasi strumento di IA a eccezione di quelli inclusi in un elenco approvato dalla direzione e distribuiti direttamente dai team di sicurezza. Questo criterio deve essere formalmente documentato e i dipendenti devono ricevere adeguata formazione.

Uso illimitato dell’IA

Se l’azienda ritiene insignificanti i rischi derivanti dall’uso degli strumenti di IA o se dispone di reparti che non gestiscono dati personali o altri dati sensibili, l’uso dell’IA può essere pressoché illimitato. Impostando un breve elenco di misure e restrizioni, l’azienda può osservare le abitudini d’uso degli LLM, identificare i servizi più diffusi e usare questi dati per pianificare azioni e perfezionare le misure di sicurezza. Anche con questo approccio democratico, è comunque necessario:

Restrizioni bilanciate sull'uso dell'IA

A livello aziendale è probabile che nessuno dei due estremi d'uso dell'IA (bando totale o libertà totale) si riveli adatto. Più versatile sarebbe un criterio che consenta diversi livelli di accesso all'IA in base al tipo di dati usati. La piena attuazione di tale criterio richiede:

  • Un proxy IA specializzato che pulisca al volo le query rimuovendo tipi specifici di dati sensibili (come nomi o ID cliente) e che sfrutti il controllo degli accessi basato sui ruoli per bloccare i casi d'uso inappropriati.
  • Un portale self-service IT in cui i dipendenti possono dichiarare l'uso degli strumenti di IA, dai modelli e servizi di base fino alle applicazioni specializzate, passando dalle estensioni dei browser.
  • Una soluzione (NGFW, CASB, DLP o altro) per il monitoraggio e il controllo dettagliati dell'impiego dell'IA a livello di richieste specifiche per ciascun servizio.
  • Solo per le aziende che creano software: pipeline CI/CD e strumenti SAST/DAST modificati per identificare automaticamente il codice generato dall'IA e identificarlo per successive verifiche.
  • Come per lo scenario illimitato, formazione regolare dei dipendenti, sondaggi e una solida protezione per dispositivi sia personali che di lavoro.

In base ai requisiti elencati, è necessario sviluppare un criterio che copra diversi dipartimenti e vari tipi di informazioni, ad esempio:

Tipo di dati IA rivolta al pubblico (da dispositivi personali e account) Servizio di IA esterno (tramite un proxy di IA aziendale) Strumenti IA cloud attendibili o locali
Dati pubblici (ad esempio testi pubblicitari) Consentiti (dichiarati tramite il portale aziendale) Consentiti (registrati) Consentiti (registrati)
Dati interni generici (ad esempio il contenuto delle e-mail) Sconsigliati ma non bloccati. Richiedono una dichiarazione Consentiti (registrati) Consentiti (registrati)
Dati riservati (ad esempio codice sorgente, comunicazioni legali o relative a risorse umane) Bloccati da DLP/CASB/NGFW Consentiti per scenari specifici approvati dai manager (i dati personali devono essere rimossi; il codice richiede controlli sia automatici che manuali) Consentiti (registrati, dati personali rimossi secondo necessità)
Dati regolamentati ad alto impatto (finanziari, sanitari e così via) Vietati Vietati Consentiti con approvazione CISO, soggetta ai requisiti normativi di conservazione
Dati altamente critici e classificati Vietati Vietati Vietati (eccezioni possibili solo dietro approvazione del consiglio di amministrazione)

Per applicare il criterio non bastano gli strumenti tecnici ma è necessario un approccio organizzativo a più livelli. Innanzitutto, i dipendenti devono essere formati sui rischi associati all'IA come fughe di dati, allucinazioni e iniezioni di prompt. Questa formazione dovrebbe essere obbligatoria per tutti i membri dell'organizzazione.

Dopo la formazione iniziale, è essenziale sviluppare criteri più dettagliati e offrire una formazione avanzata ai capi dipartimento. Ciò consentirà loro di prendere decisioni informate sull'opportunità di approvare o rifiutare le richieste di uso di dati specifici con strumenti di IA pubblici.

Politiche, criteri e misure iniziali sono solo l'inizio: hanno bisogno di essere aggiornati periodicamente. Ciò comporta l'analisi dei dati, il perfezionamento dei casi d'uso dell'IA nel mondo reale e il monitoraggio degli strumenti più diffusi. È necessario un portale self-service come ambiente privo di stress in cui i dipendenti possano spiegare quali strumenti di IA stanno usando e per quali scopi. Questo prezioso feedback arricchisce le analisi, aiuta a creare un business case per l'adozione dell'IA e fornisce un modello basato sui ruoli per l'applicazione dei giusti criteri di sicurezza.

Infine, è necessario un sistema a più livelli per rispondere alle violazioni. I possibili passaggi sono:

  • Un avviso automatico e un corso di micro-formazione obbligatorio su una data violazione.
  • Riunione privata tra il dipendente, il capo dipartimento e un responsabile della sicurezza delle informazioni.
  • Un divieto temporaneo degli strumenti basati su IA.
  • Rigorose sanzioni disciplinari per il tramite delle risorse umane.

Un approccio completo alla sicurezza dell'IA

I criteri discussi qui coprono una gamma relativamente ristretta di rischi associati all'uso di soluzioni SaaS per l'IA generativa. Per creare un criterio completo che affronti l'intero spettro dei rischi rilevanti, Kaspersky propone le proprie linee guida per l'implementazione sicura dei sistemi di IA, stilate in collaborazione con altri esperti fidati.

Consigli