{"id":28531,"date":"2024-02-20T11:43:15","date_gmt":"2024-02-20T09:43:15","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=28531"},"modified":"2024-02-20T11:43:15","modified_gmt":"2024-02-20T09:43:15","slug":"how-to-use-chatgpt-ai-assistants-securely-2024","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/28531\/","title":{"rendered":"Come utilizzare ChatGPT, Gemini e altri sistemi IA in modo sicuro"},"content":{"rendered":"<p>La crescita esplosiva dello scorso anno di applicazioni, servizi e plug-in di intelligenza artificiale sembra destinata ad accelerare. Dalle applicazioni per ufficio e dagli editor di immagini agli ambienti di sviluppo integrati (IDE) come Visual Studio: l\u2019intelligenza artificiale viene aggiunta a strumenti familiari e utilizzati da tempo. Molti sviluppatori stanno creando migliaia di nuove app che sfruttano i pi\u00f9 grandi modelli di intelligenza artificiale. Tuttavia, nessuno in questa corsa \u00e8 stato ancora in grado di risolvere i problemi di sicurezza intrinseci: la necessit\u00e0 innanzitutto di ridurre al minimo le fughe di dati riservati e il livello delle violazioni di account e dispositivi tramite vari strumenti di intelligenza artificiale, oltre che di creare adeguate misure di protezione contro un futuristico \u201clato oscuro dell\u2019IA\u201d. Fino a quando non verr\u00e0 trovata una soluzione per garantire la sicurezza di chi utilizza gli assistenti IA, \u00e8 consigliabile prepararsi a proteggersi acquisendo alcune conoscenze e competenze.<\/p>\n<p>Come \u00e8 possibile utilizzare l\u2019IA senza doversene pentire in seguito?<\/p>\n<h2>Filtra i dati importanti<\/h2>\n<p><a href=\"https:\/\/openai.com\/policies\/privacy-policy\" target=\"_blank\" rel=\"noopener nofollow\">L\u2019informativa sulla privacy di OpenAI<\/a> (lo sviluppatore di ChatGPT) afferma senza ombra dubbio che qualsiasi conversazione con il chatbot viene salvata e pu\u00f2 essere utilizzata per diverse finalit\u00e0. In primo luogo, questi dati possono essere utilizzati per la risoluzione dei problemi tecnici e la prevenzione delle violazioni dei termini del servizio, come nel caso in cui la nuova tecnologia venga ad esempio utilizzata per generare contenuti inappropriati. A questo scopo, le chat possono persino essere controllate da un essere umano. In secondo luogo, i dati contenuti nelle chat possono essere utilizzati per l\u2019addestramento di nuove versioni di GPT e per apportare \u201cmiglioramenti\u201d ad altri prodotti.<\/p>\n<p>La maggior parte dei pi\u00f9 diffusi modelli linguistici (come Gemini di Google, Claude di Anthropic o Bing e Copilot di Microsoft) segue criteri simili e si riserva la possibilit\u00e0 di salvare le versioni integrali delle conversazioni.<\/p>\n<p>Detto questo, <a href=\"https:\/\/www.bbc.com\/news\/technology-65047304\" target=\"_blank\" rel=\"noopener nofollow\">si sono gi\u00e0 verificate<\/a> involontarie divulgazioni di dati dalle chat: a causa di alcuni bug del software, gli utenti vedevano le conversazioni di altre persone anzich\u00e9 le proprie. L\u2019utilizzo delle chat per l\u2019addestramento potrebbe anche avere come conseguenza la <a href=\"https:\/\/www.zdnet.com\/article\/chatgpt-can-leak-source-data-violate-privacy-says-googles-deepmind\/\" target=\"_blank\" rel=\"noopener nofollow\">divulgazione di dati da parte di un modello pre-addestrato<\/a>: l\u2019assistente IA potrebbe ad esempio fornire le tue informazioni ad altri utenti, se ritiene che siano rilevanti per la risposta. Gli esperti di sicurezza informatica hanno persino progettato pi\u00f9 attacchi (<a href=\"https:\/\/www.bleepingcomputer.com\/news\/security\/openai-rolls-out-imperfect-fix-for-chatgpt-data-leak-flaw\/\" target=\"_blank\" rel=\"noopener nofollow\">uno<\/a>, <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-bard-data-exfiltration\/\" target=\"_blank\" rel=\"noopener nofollow\">due<\/a>, <a href=\"https:\/\/promptarmor.substack.com\/p\/data-exfiltration-from-writercom\" target=\"_blank\" rel=\"noopener nofollow\">tre<\/a>) con l\u2019obiettivo di rubare le conversazioni ed \u00e8 improbabile che si fermino qui.<\/p>\n<p>Ricorda: tutto quello che scrivi a un chatbot pu\u00f2 essere usato contro di te. \u00c8 importante prestare attenzione durante le conversazione con l\u2019IA.<\/p>\n<p><strong>Non inviare dati personali a un chatbot. <\/strong>Evita di inserire password, numero di passaporto o della carta bancaria, indirizzo, numero di telefono, nominativo o qualsiasi altro dato personale che riguarda te, la tua azienda o i tuoi clienti in una chat con l\u2019intelligenza artificiale. Nella richiesta puoi sostituire questi dati con alcuni asterischi o con la dicitura \u201cCENSURATO\u201d.<\/p>\n<p><strong>Non caricare documenti. <\/strong>Numerosi plug-in e componenti aggiuntivi consentono di utilizzare i chatbot per l\u2019elaborazione di documenti. Potresti provare la tentazione di caricare un documento di lavoro, ad esempio per ricavarne un riepilogo. Tuttavia, caricando incautamente un documento di pi\u00f9 pagine, si rischia di <a href=\"https:\/\/mashable.com\/article\/samsung-chatgpt-leak-details\" target=\"_blank\" rel=\"noopener nofollow\">divulgare dati riservati<\/a>, propriet\u00e0 intellettuale o segreti commerciali come la data di rilascio di un nuovo prodotto o il libro paga dell\u2019intero team. Peggio ancora, durante l\u2019elaborazione di documenti ricevuti da fonti esterne, potresti <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-docs-ai-scam\/\" target=\"_blank\" rel=\"noopener nofollow\">subire un attacco<\/a> basato sulla scansione del documento da parte di un modello linguistico.<\/p>\n<p><strong>Configura le impostazioni per la privacy.<\/strong> Esamina attentamente l\u2019informativa sulla privacy e le impostazioni del fornitore del modello LLM (Large-Language-Model): normalmente possono essere utilizzate per ridurre il tracciamento al minimo. Ad esempio, nei prodotti OpenAI \u00e8 possibile disabilitare il salvataggio della cronologia delle chat, in modo dopo 30 giorni che i dati vengano rimossi senza essere mai utilizzati per l\u2019addestramento. Per chi utilizza API, servizi o app di terze parti per accedere alle soluzioni OpenAI, questa impostazione \u00e8 abilitata per impostazione predefinita.<\/p>\n<p><strong>Se devi inviare del codice, rimuovi tutti i dati riservati.<\/strong> Questo suggerimento \u00e8 rivolto ai software engineer che utilizzano gli assistenti AI per controllare e migliorare il proprio codice: \u00e8 importante rimuovere chiavi API, indirizzi dei server e qualsiasi altra informazione che potrebbe rivelare la struttura dell\u2019applicazione o la configurazione del server.<\/p>\n<h2>Limita l\u2019utilizzo di applicazioni e plug-in di terze parti<\/h2>\n<p>Indipendentemente da quale dei vari assistenti AI utilizzi, segui sempre i suggerimenti che ti abbiamo dato fin qui. Anche questo, tuttavia, potrebbe non essere sufficiente per garantire la privacy. L\u2019utilizzo di plug-in ChatGPT, estensioni Gemini o applicazioni aggiuntive separate pu\u00f2 dare origine a nuovi tipi di minacce.<\/p>\n<p>Innanzitutto, la cronologia delle chat ora pu\u00f2 essere archiviata non solo nei server di Google o OpenAI, ma anche in quelli di terze parti che supportano il plug-in o il componente aggiuntivo, oltre che in qualche angolo del tuo computer o smartphone.<\/p>\n<p>In secondo luogo, la maggior parte dei plug-in attinge informazioni da fonti esterne: ricerche Web, messaggi in arrivo di Gmail o note personali da servizi come Notion, Jupyter o Evernote. Di conseguenza, qualsiasi dato proveniente da tali servizi potrebbe anche finire nei server in cui \u00e8 in esecuzione il plug-in o il modello linguistico stesso. Un\u2019integrazione di questo tipo pu\u00f2 comportare rischi significativi, come dimostra questo <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/chatgpt-plugin-vulns-chat-with-code\/\" target=\"_blank\" rel=\"noopener nofollow\">attacco che crea nuovi repository GitHub per conto dell\u2019utente<\/a>.<\/p>\n<p>In terzo luogo, la pubblicazione e la verifica dei plug-in per gli assistenti IA sono attualmente un processo molto meno ordinato rispetto, ad esempio, allo screening delle app nell\u2019App Store o in Google Play. Pertanto, le possibilit\u00e0 di imbattersi in un plug-in mal funzionante, scritto male, difettoso o addirittura dannoso sono piuttosto elevate, soprattutto perch\u00e9 sembra che <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/chatgpt-plugin-vulns-chat-with-code\/\" target=\"_blank\" rel=\"noopener nofollow\">nessuno controlli davvero<\/a> da chi sono stati sviluppati e relativi contatti.<\/p>\n<p>Come \u00e8 possibile mitigare questi rischi? Il consiglio principale \u00e8 dare tempo al tempo\u2026 Quello dei plug-in \u00e8 un ecosistema ancora troppo recente, i processi di pubblicazione e supporto non sono abbastanza fluidi e gli stessi sviluppatori non sempre si preoccupano di progettare correttamente i plug-in o di soddisfare i requisiti di sicurezza delle informazioni. Questo intero ecosistema ha bisogno di pi\u00f9 tempo per maturare e diventare pi\u00f9 sicuro e affidabile.<\/p>\n<p>Inoltre, il valore apportato da molti plug-in e componenti aggiuntivi alla versione standard di ChatGPT \u00e8 minimo: modifiche superficiali dell\u2019interfaccia utente e modelli di \u201cprompt di sistema\u201d che personalizzano l\u2019assistente per un\u2019attivit\u00e0 specifica (ad esempio, \u201cAgisci come un insegnante di fisica delle scuole superiori\u2026\u201d). Di certo non vorrai mettere a rischio i tuoi dati solo per usufruire di qualche funzionalit\u00e0 di cui puoi benissimo fare a meno, visto che non sono indispensabili per svolgere le tue attivit\u00e0.<\/p>\n<p>Se si ha comunque la necessit\u00e0 di utilizzare determinate funzionalit\u00e0 offete da un plug-in, \u00e8 importante cercare di tutelarsi al massimo prima di utilizzarle.<\/p>\n<ul>\n<li>Scegli estensioni e componenti aggiuntivi che esistono almeno da qualche mese e che vengono aggiornati regolarmente.<\/li>\n<li>Prendi in considerazione solo i plug-in con molti download e leggi attentamente le recensioni per vedere se sono stati segnalati problemi.<\/li>\n<li>Se il plug-in viene fornito con un\u2019informativa sulla privacy, leggila attentamente <strong>prima<\/strong> di iniziare a utilizzare l\u2019estensione.<\/li>\n<li>Scegli strumenti open source.<\/li>\n<li>Se hai conoscenze, anche rudimentali, di codifica (o un amico programmatore) scorri il codice per assicurarti che invii i dati solo ai server dichiarati e, idealmente, solo ai server del modello IA.<\/li>\n<\/ul>\n<h2>I plug-in di esecuzione richiedono un monitoraggio speciale<\/h2>\n<p>Finora abbiamo esaminato i rischi relativi alle possibili fughe di dati, ma questo non \u00e8 l\u2019unico problema in cui potrebbe incorrere chi usa l\u2019IA. Molti plug-in sono in grado di eseguire azioni specifiche su comando dell\u2019utente, ad esempio l\u2019ordinazione di biglietti aerei. Questi strumenti forniscono ai malintenzionati un nuovo vettore di attacco: alla vittima viene presentato un documento, una pagina Web, un video, o persino un\u2019immagine, che oltre al contenuto principale contiene istruzioni nascoste per il modello linguistico. Se la vittima carica il documento o si collega a un chatbot, quest\u2019ultimo eseguir\u00e0 le istruzioni dannose, ad esempio acquistando i biglietti a spese della vittima. Questo tipo di attacco viene definito <a href=\"https:\/\/embracethered.com\/blog\/posts\/2023\/google-bard-image-to-prompt-injection\/\" target=\"_blank\" rel=\"noopener nofollow\">iniezione rapida<\/a> e sebbene gli sviluppatori di vari LLM stiano cercando di sviluppare una protezione contro questa minaccia, finora nessuno ci \u00e8 riuscito e forse non la far\u00e0 mai.<\/p>\n<p>Fortunatamente, le azioni pi\u00f9 significative, in particolare quelle che coinvolgono le operazioni di pagamento come l\u2019acquisto di biglietti, richiedono una doppia conferma. Tuttavia, le interazioni tra i modelli linguistici e i plug-in creano una <a href=\"https:\/\/encyclopedia.kaspersky.com\/glossary\/attack-surface\/\" target=\"_blank\" rel=\"noopener\">superficie di attacco<\/a> cos\u00ec ampia che \u00e8 difficile garantire risultati coerenti con queste misure.<\/p>\n<p>Pertanto, quando si sceglie uno strumento IA \u00e8 necessario essere molto cauti e assicurarsi che riceva solo dati attendibili per l\u2019elaborazione.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-geek\">\n","protected":false},"excerpt":{"rendered":"<p>Oggi gli strumenti di intelligenza artificiale (IA) sono onnipresenti: dai sistemi operativi e dalle suite di applicazioni per ufficio agli editor di immagini e alle chat. Come \u00e8 possibile utilizzare ChatGPT, Gemini e i numerosi componenti aggiuntivi disponibili senza mettere a rischio la propria sicurezza digitale?<\/p>\n","protected":false},"author":2722,"featured_media":28532,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[16],"tags":[1516,2169,3806,3807,2620,1517,3724,45],"class_list":{"0":"post-28531","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-tips","8":"tag-ai","9":"tag-chatbot","10":"tag-chatgpt","11":"tag-gemini","12":"tag-ia","13":"tag-intelligenza-artificiale","14":"tag-machine-learning","15":"tag-sicurezza"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/28531\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27067\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/22377\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/11413\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/29733\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27243\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/27034\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/29651\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/36962\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/12053\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/50562\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/21528\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/22239\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/30940\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/how-to-use-chatgpt-ai-assistants-securely-2024\/27442\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/33249\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/how-to-use-chatgpt-ai-assistants-securely-2024\/32873\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/ai\/","name":"AI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/28531","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/2722"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=28531"}],"version-history":[{"count":1,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/28531\/revisions"}],"predecessor-version":[{"id":28533,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/28531\/revisions\/28533"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/28532"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=28531"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=28531"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=28531"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}