Come utilizzare ChatGPT, Gemini e altri sistemi IA in modo sicuro

Oggi gli strumenti di intelligenza artificiale (IA) sono onnipresenti: dai sistemi operativi e dalle suite di applicazioni per ufficio agli editor di immagini e alle chat. Come è possibile utilizzare ChatGPT, Gemini e i numerosi componenti aggiuntivi disponibili senza mettere a rischio la propria sicurezza digitale?

La crescita esplosiva dello scorso anno di applicazioni, servizi e plug-in di intelligenza artificiale sembra destinata ad accelerare. Dalle applicazioni per ufficio e dagli editor di immagini agli ambienti di sviluppo integrati (IDE) come Visual Studio: l’intelligenza artificiale viene aggiunta a strumenti familiari e utilizzati da tempo. Molti sviluppatori stanno creando migliaia di nuove app che sfruttano i più grandi modelli di intelligenza artificiale. Tuttavia, nessuno in questa corsa è stato ancora in grado di risolvere i problemi di sicurezza intrinseci: la necessità innanzitutto di ridurre al minimo le fughe di dati riservati e il livello delle violazioni di account e dispositivi tramite vari strumenti di intelligenza artificiale, oltre che di creare adeguate misure di protezione contro un futuristico “lato oscuro dell’IA”. Fino a quando non verrà trovata una soluzione per garantire la sicurezza di chi utilizza gli assistenti IA, è consigliabile prepararsi a proteggersi acquisendo alcune conoscenze e competenze.

Come è possibile utilizzare l’IA senza doversene pentire in seguito?

Filtra i dati importanti

L’informativa sulla privacy di OpenAI (lo sviluppatore di ChatGPT) afferma senza ombra dubbio che qualsiasi conversazione con il chatbot viene salvata e può essere utilizzata per diverse finalità. In primo luogo, questi dati possono essere utilizzati per la risoluzione dei problemi tecnici e la prevenzione delle violazioni dei termini del servizio, come nel caso in cui la nuova tecnologia venga ad esempio utilizzata per generare contenuti inappropriati. A questo scopo, le chat possono persino essere controllate da un essere umano. In secondo luogo, i dati contenuti nelle chat possono essere utilizzati per l’addestramento di nuove versioni di GPT e per apportare “miglioramenti” ad altri prodotti.

La maggior parte dei più diffusi modelli linguistici (come Gemini di Google, Claude di Anthropic o Bing e Copilot di Microsoft) segue criteri simili e si riserva la possibilità di salvare le versioni integrali delle conversazioni.

Detto questo, si sono già verificate involontarie divulgazioni di dati dalle chat: a causa di alcuni bug del software, gli utenti vedevano le conversazioni di altre persone anziché le proprie. L’utilizzo delle chat per l’addestramento potrebbe anche avere come conseguenza la divulgazione di dati da parte di un modello pre-addestrato: l’assistente IA potrebbe ad esempio fornire le tue informazioni ad altri utenti, se ritiene che siano rilevanti per la risposta. Gli esperti di sicurezza informatica hanno persino progettato più attacchi (uno, due, tre) con l’obiettivo di rubare le conversazioni ed è improbabile che si fermino qui.

Ricorda: tutto quello che scrivi a un chatbot può essere usato contro di te. È importante prestare attenzione durante le conversazione con l’IA.

Non inviare dati personali a un chatbot. Evita di inserire password, numero di passaporto o della carta bancaria, indirizzo, numero di telefono, nominativo o qualsiasi altro dato personale che riguarda te, la tua azienda o i tuoi clienti in una chat con l’intelligenza artificiale. Nella richiesta puoi sostituire questi dati con alcuni asterischi o con la dicitura “CENSURATO”.

Non caricare documenti. Numerosi plug-in e componenti aggiuntivi consentono di utilizzare i chatbot per l’elaborazione di documenti. Potresti provare la tentazione di caricare un documento di lavoro, ad esempio per ricavarne un riepilogo. Tuttavia, caricando incautamente un documento di più pagine, si rischia di divulgare dati riservati, proprietà intellettuale o segreti commerciali come la data di rilascio di un nuovo prodotto o il libro paga dell’intero team. Peggio ancora, durante l’elaborazione di documenti ricevuti da fonti esterne, potresti subire un attacco basato sulla scansione del documento da parte di un modello linguistico.

Configura le impostazioni per la privacy. Esamina attentamente l’informativa sulla privacy e le impostazioni del fornitore del modello LLM (Large-Language-Model): normalmente possono essere utilizzate per ridurre il tracciamento al minimo. Ad esempio, nei prodotti OpenAI è possibile disabilitare il salvataggio della cronologia delle chat, in modo dopo 30 giorni che i dati vengano rimossi senza essere mai utilizzati per l’addestramento. Per chi utilizza API, servizi o app di terze parti per accedere alle soluzioni OpenAI, questa impostazione è abilitata per impostazione predefinita.

Se devi inviare del codice, rimuovi tutti i dati riservati. Questo suggerimento è rivolto ai software engineer che utilizzano gli assistenti AI per controllare e migliorare il proprio codice: è importante rimuovere chiavi API, indirizzi dei server e qualsiasi altra informazione che potrebbe rivelare la struttura dell’applicazione o la configurazione del server.

Limita l’utilizzo di applicazioni e plug-in di terze parti

Indipendentemente da quale dei vari assistenti AI utilizzi, segui sempre i suggerimenti che ti abbiamo dato fin qui. Anche questo, tuttavia, potrebbe non essere sufficiente per garantire la privacy. L’utilizzo di plug-in ChatGPT, estensioni Gemini o applicazioni aggiuntive separate può dare origine a nuovi tipi di minacce.

Innanzitutto, la cronologia delle chat ora può essere archiviata non solo nei server di Google o OpenAI, ma anche in quelli di terze parti che supportano il plug-in o il componente aggiuntivo, oltre che in qualche angolo del tuo computer o smartphone.

In secondo luogo, la maggior parte dei plug-in attinge informazioni da fonti esterne: ricerche Web, messaggi in arrivo di Gmail o note personali da servizi come Notion, Jupyter o Evernote. Di conseguenza, qualsiasi dato proveniente da tali servizi potrebbe anche finire nei server in cui è in esecuzione il plug-in o il modello linguistico stesso. Un’integrazione di questo tipo può comportare rischi significativi, come dimostra questo attacco che crea nuovi repository GitHub per conto dell’utente.

In terzo luogo, la pubblicazione e la verifica dei plug-in per gli assistenti IA sono attualmente un processo molto meno ordinato rispetto, ad esempio, allo screening delle app nell’App Store o in Google Play. Pertanto, le possibilità di imbattersi in un plug-in mal funzionante, scritto male, difettoso o addirittura dannoso sono piuttosto elevate, soprattutto perché sembra che nessuno controlli davvero da chi sono stati sviluppati e relativi contatti.

Come è possibile mitigare questi rischi? Il consiglio principale è dare tempo al tempo… Quello dei plug-in è un ecosistema ancora troppo recente, i processi di pubblicazione e supporto non sono abbastanza fluidi e gli stessi sviluppatori non sempre si preoccupano di progettare correttamente i plug-in o di soddisfare i requisiti di sicurezza delle informazioni. Questo intero ecosistema ha bisogno di più tempo per maturare e diventare più sicuro e affidabile.

Inoltre, il valore apportato da molti plug-in e componenti aggiuntivi alla versione standard di ChatGPT è minimo: modifiche superficiali dell’interfaccia utente e modelli di “prompt di sistema” che personalizzano l’assistente per un’attività specifica (ad esempio, “Agisci come un insegnante di fisica delle scuole superiori…”). Di certo non vorrai mettere a rischio i tuoi dati solo per usufruire di qualche funzionalità di cui puoi benissimo fare a meno, visto che non sono indispensabili per svolgere le tue attività.

Se si ha comunque la necessità di utilizzare determinate funzionalità offete da un plug-in, è importante cercare di tutelarsi al massimo prima di utilizzarle.

  • Scegli estensioni e componenti aggiuntivi che esistono almeno da qualche mese e che vengono aggiornati regolarmente.
  • Prendi in considerazione solo i plug-in con molti download e leggi attentamente le recensioni per vedere se sono stati segnalati problemi.
  • Se il plug-in viene fornito con un’informativa sulla privacy, leggila attentamente prima di iniziare a utilizzare l’estensione.
  • Scegli strumenti open source.
  • Se hai conoscenze, anche rudimentali, di codifica (o un amico programmatore) scorri il codice per assicurarti che invii i dati solo ai server dichiarati e, idealmente, solo ai server del modello IA.

I plug-in di esecuzione richiedono un monitoraggio speciale

Finora abbiamo esaminato i rischi relativi alle possibili fughe di dati, ma questo non è l’unico problema in cui potrebbe incorrere chi usa l’IA. Molti plug-in sono in grado di eseguire azioni specifiche su comando dell’utente, ad esempio l’ordinazione di biglietti aerei. Questi strumenti forniscono ai malintenzionati un nuovo vettore di attacco: alla vittima viene presentato un documento, una pagina Web, un video, o persino un’immagine, che oltre al contenuto principale contiene istruzioni nascoste per il modello linguistico. Se la vittima carica il documento o si collega a un chatbot, quest’ultimo eseguirà le istruzioni dannose, ad esempio acquistando i biglietti a spese della vittima. Questo tipo di attacco viene definito iniezione rapida e sebbene gli sviluppatori di vari LLM stiano cercando di sviluppare una protezione contro questa minaccia, finora nessuno ci è riuscito e forse non la farà mai.

Fortunatamente, le azioni più significative, in particolare quelle che coinvolgono le operazioni di pagamento come l’acquisto di biglietti, richiedono una doppia conferma. Tuttavia, le interazioni tra i modelli linguistici e i plug-in creano una superficie di attacco così ampia che è difficile garantire risultati coerenti con queste misure.

Pertanto, quando si sceglie uno strumento IA è necessario essere molto cauti e assicurarsi che riceva solo dati attendibili per l’elaborazione.

Consigli