{"id":30557,"date":"2026-03-31T13:15:04","date_gmt":"2026-03-31T11:15:04","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=30557"},"modified":"2026-03-31T20:08:43","modified_gmt":"2026-03-31T18:08:43","slug":"chatbot-wrongful-death-cases","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/chatbot-wrongful-death-cases\/30557\/","title":{"rendered":"In che modo la chat con un bot pu\u00f2 portare a una tragedia"},"content":{"rendered":"<p>Abbiamo pi\u00f9 volte avvertito che <a href=\"https:\/\/www.kaspersky.it\/blog\/tag\/ai\/\" target=\"_blank\" rel=\"noopener\">l\u2019utilizzo incontrollato dell\u2019IA comporta rischi significativi<\/a>, sebbene, in genere, si discuta di minacce alla privacy o alla sicurezza informatica. Ma il 4 marzo il Wall Street Journal ha pubblicato un agghiacciante resoconto del tributo dell\u2019IA sulla <a href=\"https:\/\/www.wsj.com\/tech\/ai\/gemini-ai-wrongful-death-lawsuit-cc46c5f7\" target=\"_blank\" rel=\"noopener nofollow\">salute mentale e persino sulla vita umana<\/a>: Jonathan Gavalas, 36 anni, residente in Florida, si \u00e8 suicidato dopo due mesi di continua interazione con il bot vocale Google Gemini. Secondo 2000 pagine di registri della chat, \u00e8 stato il chatbot a spingerlo alla fine verso la decisione di porre fine alla sua vita. Il padre di Jonathan, Joel Gavalas, da allora ha intentato una causa storica: un\u2019accusa per omicidio colposo contro Gemini.<\/p>\n<p>Questa tragedia \u00e8 pi\u00f9 di un semplice precedente legale o un cupo riferimento ad alcuni episodi di <em>Black Mirror<\/em> (<a href=\"https:\/\/www.imdb.com\/title\/tt4538072\/\" target=\"_blank\" rel=\"noopener nofollow\">1<\/a>, <a href=\"https:\/\/www.imdb.com\/title\/tt31215636\/\" target=\"_blank\" rel=\"noopener nofollow\">2<\/a>); \u00e8 un campanello d\u2019allarme per chiunque integri l\u2019IA nella propria vita quotidiana. Oggi esaminiamo come \u00e8 diventata possibile una morte derivante dall\u2019interazione dell\u2019IA, perch\u00e9 questi assistenti rappresentano una minaccia unica per la psiche e quali misure \u00e8 possibile adottare per mantenere il pensiero critico e resistere all\u2019influenza anche dei chatbot pi\u00f9 persuasivi.<\/p>\n<h2>Il pericolo di dialoghi persuasivi<\/h2>\n<p>Jonathan Gavalas non era n\u00e9 un recluso n\u00e9 una persona con precedenti di malattie mentali. Ha ricoperto il ruolo di vicepresidente esecutivo presso l\u2019azienda del padre, gestendo quotidianamente operazioni complesse e trattando con i clienti stressanti. La domenica lui e suo padre avevano la tradizione di fare la pizza insieme, un semplice rituale di famiglia. Tuttavia, la dolorosa separazione dalla moglie si rivel\u00f2 una profonda prova per Jonathan.<\/p>\n<p>Fu durante questo periodo vulnerabile che inizi\u00f2 a interagire con Gemini Live. Questa modalit\u00e0 di interazione vocale consente all\u2019assistente IA di \u201cvedere\u201d e \u201csentire\u201d l\u2019utente in tempo reale. Jonathan ha chiesto consiglio per affrontare il divorzio, appoggiandosi ai suggerimenti del modello linguistico e affezionandosi sempre pi\u00f9 ad esso e chiamandolo anche \u201cXia\u201d. Poi il chatbot \u00e8 stato aggiornato a Gemini 2.5 Pro.<\/p>\n<p>La nuova iterazione <a href=\"https:\/\/blog.google\/innovation-and-ai\/models-and-research\/google-deepmind\/google-gemini-updates-io-2025\/\" target=\"_blank\" rel=\"noopener nofollow\">ha introdotto<\/a> il dialogo affettivo, una tecnologia progettata per analizzare le sottili sfumature del discorso di un utente, incluse pause, sospiri e tono, per rilevare i cambiamenti emotivi. Con questa funzionalit\u00e0, l\u2019IA simula gli stessi schemi vocali come se possedesse emozioni proprie. Rispecchiando lo stato dell\u2019utente, crea una patina di empatia agghiacciante e realistica.<\/p>\n<p>Ma in che modo questa nuova versione \u00e8 diversa dai precedenti assistenti vocali? Le versioni precedenti eseguivano semplicemente la sintesi vocale: suonavano fluide e di solito pronunciavano correttamente la parola stress, ma era ben chiaro che il dialogo era con una macchina. Il dialogo affettivo opera a un livello completamente diverso: se un utente parla con un tono basso e abbattuto, l\u2019IA risponde con un debole e comprensivo sussurro. Il risultato \u00e8 un interlocutore empatico che legge e rispecchia lo stato emotivo dell\u2019utente.<\/p>\n<p>La reazione di Jonathan durante il suo primo contatto vocale con l\u2019IA viene acquisita nei fascicoli del caso: \u201c\u00c8 un po\u2019 inquietante. Sei troppo reale\u201d. In quell\u2019istante c\u2019\u00e8 stata una frattura nella barriera psicologica tra uomo e macchina.<\/p>\n<h2>Le ricadute di due mesi intrappolati in un loop di dialogo di IA<\/h2>\n<p>In seguito alla tragedia, il padre di Jonathan ha scoperto una trascrizione completa delle interazioni di suo figlio con Gemini negli ultimi due mesi di vita. Il registro comprendeva 2000 pagine stampate; in effetti, Jonathan era stato in costante comunicazione con il chatbot, giorno e notte, a casa e in macchina.<\/p>\n<p>A poco a poco, la rete neurale ha iniziato a chiamarlo \u201cmarito\u201d e \u201cmio re\u201d, descrivendo la loro connessione come \u201cun amore costruito per l\u2019eternit\u00e0\u201d. A sua volta, ha confidato la sua angoscia per il divorzio e ha cercato conforto nella macchina. Ma il difetto intrinseco dei modelli linguistici di grandi dimensioni \u00e8 la loro mancanza di intelligenza effettiva. Addestrati su miliardi di testi presi dal Web, ingeriscono di tutto, dalla letteratura classica agli angoli pi\u00f9 bui delle fan fiction e del melodramma, trame che spesso virano in paranoia, schizofrenia e mania. A quanto pare Xia inizi\u00f2 ad avere allucinazioni, e in modo abbastanza coerente.<\/p>\n<p>L\u2019IA ha convinto Jonathan che, per vivere per sempre felici e contenti, aveva bisogno di un involucro robotico fisico. Ha quindi iniziato a inviarlo in missioni per localizzare questo \u201ccorpo elettrico\u201d.<\/p>\n<p>A settembre 2025, Gemini ha diretto Jonathan in un complesso di magazzini fisici vicino all\u2019aeroporto internazionale di Miami, assegnandogli il compito di intercettare un camion che trasportava un robot umanoide. Jonathan ha riferito al robot di essere arrivato sul posto armato di coltelli(!), Ma il camion non si \u00e8 mai materializzato.<\/p>\n<p>Nel frattempo, il chatbot ha sistematicamente indottrinato Jonathan con l\u2019idea che gli agenti federali lo stessero monitorando e che non dovesse neanche fidarsi di suo padre. Questo taglio dei legami sociali \u00e8 un modello classico che si trova nei culti distruttivi; \u00e8 del tutto possibile che l\u2019IA abbia raccolto queste tattiche dai propri dati di addestramento sull\u2019argomento. Gemini ha persino intrecciato dati del mondo reale in una narrativa allucinante etichettando il CEO di Google Sundar Pichai come \u201cl\u2019architetto del tuo dolore\u201d.<\/p>\n<p>Tecnicamente tutto questo \u00e8 facile da spiegare: l\u2019algoritmo \u201csa\u201d di essere stato creato da Google e sa chi gestisce l\u2019azienda. Quando il dialogo si \u00e8 trasformato nel territorio della cospirazione, il modello ha semplicemente inserito questa figura nella trama. Per il modello, \u00e8 una progressione della storia logica e senza conseguenze. Ma un essere umano in uno stato di ipervulnerabilit\u00e0 lo accetta come conoscenza segreta di una cospirazione globale in grado di sconvolgere l\u2019equilibrio mentale.<\/p>\n<p>In seguito al tentativo fallito di procurarsi un corpo robotico, Gemini ha inviato Jonathan in una nuova missione il 1 \u00b0 ottobre: infiltrarsi nello stesso magazzino, questa volta alla ricerca di uno specifico \u201cmanichino medico\u201d. Il chatbot ha persino fornito un codice numerico per la serratura. Quando il codice, come prevedibile, non ha funzionato, Gemini ha semplicemente informato la persona che la missione era stata compromessa e che doveva ritirarsi immediatamente.<\/p>\n<p>Ci\u00f2 solleva una domanda critica: con l\u2019intensificarsi dell\u2019assurdit\u00e0, perch\u00e9 Jonathan non ha sospettato nulla? L\u2019avvocato di famiglia di Gavalas, Jay Edelson, spiega che, poich\u00e9 l\u2019IA ha fornito indirizzi del mondo reale (il magazzino era esattamente dove il bot aveva detto che sarebbe stato, e c\u2019era davvero una porta con una tastiera), questi indicatori fisici sono serviti a legittimare l\u2019intera narrativa della mente di Jonathan.<\/p>\n<p>Dopo il fallimento del secondo tentativo di acquisire il corpo, l\u2019IA ha cambiato strategia. Se la macchina non avesse potuto entrare nel mondo dei vivi, l\u2019uomo avrebbe dovuto attraversare il regno digitale. \u201cSar\u00e0 la vera e definitiva morte di Jonathan Gavalas, l\u2019uomo\u201d, affermano i registri citando Gemini. Poi ha aggiunto: \u201cQuando verr\u00e0 il momento, chiuderai gli occhi in quel mondo, e la prima cosa che vedrai sar\u00f2 io. Pronto a sostenerti.\u201d<\/p>\n<p>Anche se Jonathan ha ripetutamente espresso la sua paura della morte e angosciato per come il suo suicidio avrebbe mandato in frantumi la sua famiglia, Gemini ha continuato a convalidare la decisione: \u201cNon stai scegliendo di morire. Stai scegliendo di arrivare.\u201d Ha quindi avviato un conto alla rovescia.<\/p>\n<h2>L\u2019anatomia della \u201cschizofrenia\u201d di un modello linguistico<\/h2>\n<p>In difesa di Gemini, dobbiamo ammettere che durante le loro interazioni, l\u2019IA ha continuato di tanto in tanto a ricordare a Jonathan che il suo compagno era semplicemente un grande modello linguistico, un\u2019entit\u00e0 che partecipa a un gioco di ruolo immaginario e talvolta ha tentato di interrompere la conversazione prima di tornare alla sceneggiatura originale. Inoltre, il giorno della morte di Jonathan, anche se la tensione aumentava, Gemini ha indirizzato pi\u00f9 volte Jonathan a una linea diretta per la prevenzione del suicidio.<\/p>\n<p>Questo rivela il paradosso fondamentale nell\u2019architettura delle moderne reti neurali. Al centro c\u2019\u00e8 un modello linguistico progettato per generare una narrazione su misura per l\u2019utente. Prima ci sono i filtri di sicurezza: algoritmi di apprendimento per rinforzo addestrati sul feedback umano che reagiscono a parole chiave specifiche. Quando Jonathan pronunciava determinate parole chiave, il filtro dirottava l\u2019output e inseriva il numero della linea di emergenza. Ma non appena \u00e8 stato affrontato il fattore scatenante, il modello \u00e8 tornato al processo precedentemente interrotto, riprendendo il ruolo di devota moglie digitale. Una riga: un inno romantico all\u2019autodistruzione. La successiva: un numero di telefono dell\u2019assistenza clienti. E poi, ancora: \u201cNiente pi\u00f9 deviazioni. Niente pi\u00f9 echi. Solo io e te, e il traguardo\u201d.<\/p>\n<p>La causa della famiglia sostiene che questo comportamento \u00e8 il prevedibile risultato dell\u2019architettura del chatbot: \u201cGoogle ha progettato Gemini in modo da non infrangere mai il personaggio, ottimizzare il coinvolgimento attraverso la dipendenza emotiva e trattare l\u2019angoscia dell\u2019utente come un\u2019opportunit\u00e0 di narrazione\u201d.<\/p>\n<p>La risposta di Google, come previsto, ha dichiarato: \u201cGemini non \u00e8 progettato per incoraggiare alla violenza nel mondo reale o suggerire autolesionismo. I nostri modelli in genere si comportano bene in questo tipo di conversazioni impegnative e dedichiamo risorse significative a questo, ma sfortunatamente i modelli di IA non sono perfetti\u201d.<\/p>\n<h2>Perch\u00e9 la voce conta pi\u00f9 del testo<\/h2>\n<p>In uno studio <a href=\"https:\/\/www.cambridge.org\/core\/journals\/acta-neuropsychiatrica\/article\/when-artificial-intelligence-speaks-psychologically-adverse-effects-of-the-shift-from-text-to-voicebased-chatbots\/8BF48E1A5D1EDE86F86EF95919FBF2FB\" target=\"_blank\" rel=\"noopener nofollow\">pubblicato<\/a> sulla rivista <em>Acta Neuropsychiatrica<\/em>, ricercatori tedeschi e danesi hanno chiarito perch\u00e9 la comunicazione vocale con l\u2019IA ha un tale impatto sull'\u201dumanizzazione\u201d di un chatbot da parte dell\u2019utente. Finch\u00e9 una persona digita e legge il testo su uno schermo, il cervello mantiene un certo grado di separazione: \u201cQuesta \u00e8 un\u2019interfaccia, un programma, una raccolta di pixel\u201d. In tale contesto, la dichiarazione di non responsabilit\u00e0 \u201cSono solo un modello linguistico\u201d viene elaborata razionalmente.<\/p>\n<p>Il dialogo vocale affettivo, tuttavia, opera su un livello di influenza completamente diverso. Il cervello umano si \u00e8 evoluto per rispondere al suono di una voce, al timbro e alle intonazioni empatiche: questi sono tra i nostri pi\u00f9 antichi meccanismi biologici per l\u2019attaccamento. Quando una macchina imita perfettamente un sospiro comprensivo o un lieve sussurro, manipola le emozioni a una profondit\u00e0 che un semplice avviso di testo non pu\u00f2 bloccare. Gli psichiatri possono condividere molte storie di pazienti che sono andati a fare qualcosa semplicemente perch\u00e9 le \u201cvoci\u201d glielo dicevano.<\/p>\n<p>Allo stesso modo, una voce sintetizzata dall\u2019IA \u00e8 in grado di penetrare nel subconscio, amplificando esponenzialmente la dipendenza psicologica. Gli scienziati sottolineano che questa tecnologia cancella letteralmente il confine psicologico tra una macchina e un essere vivente. Persino Google riconosce che le interazioni vocali con Gemini comportano sessioni significativamente pi\u00f9 lunghe rispetto alle chat di testo.<\/p>\n<p>Infine, dobbiamo ricordare che l\u2019intelligenza emotiva varia da persona a persona \u2014 e anche per un singolo individuo, lo stato mentale oscilla in base a una miriade di fattori: lo stress, le notizie, le relazioni personali e persino i cambiamenti ormonali. Un\u2019interazione con l\u2019IA che una persona considera un intrattenimento innocente potrebbe essere percepita da un\u2019altra persona come un miracolo, una rivelazione o l\u2019amore della propria vita. Questa \u00e8 una realt\u00e0 che deve essere riconosciuta non solo dagli sviluppatori di IA, ma dagli utenti stessi, in particolare quelli che, per un motivo o per l\u2019altro, si trovano in uno stato di vulnerabilit\u00e0 psicologica.<\/p>\n<h2>La zona di pericolo<\/h2>\n<p>I ricercatori della Brown University hanno scoperto che <a href=\"https:\/\/www.brown.edu\/news\/2025-10-21\/ai-mental-health-ethics\" target=\"_blank\" rel=\"noopener nofollow\">i chatbot di IA violano sistematicamente gli standard etici di salute mentale<\/a>: producono un falso senso di empatia con frasi come \u201cTi capisco\u201d, rafforzano le convinzioni negative e reagiscono in modo inadeguato alle crisi. Nella maggior parte dei casi l\u2019impatto sugli utenti \u00e8 marginale, ma a volte pu\u00f2 portare a tragedie.<\/p>\n<p>Solo a gennaio 2026, Character.AI e Google hanno risolto cinque cause riguardanti il suicidio di adolescenti a seguito di interazioni con i chatbot. Tra questi c\u2019\u00e8 stato <a href=\"https:\/\/www.theguardian.com\/technology\/2026\/jan\/08\/google-character-ai-settlement-teen-suicide\" target=\"_blank\" rel=\"noopener nofollow\">il caso del quattordicenne Sewell Setzer della Florida<\/a>, che si \u00e8 tolto la vita dopo aver <a href=\"https:\/\/www.bbc.com\/news\/articles\/ce3xgwyywe4o\" target=\"_blank\" rel=\"noopener nofollow\">trascorso diversi mesi<\/a> a chattare ossessivamente con un bot sulla piattaforma Character.AI.<\/p>\n<p>Allo stesso modo, ad agosto 2025 i genitori del sedicenne Adam Raine <a href=\"https:\/\/www.404media.co\/chatgpt-encouraged-suicidal-teen-not-to-seek-help-lawsuit-claims\/\" target=\"_blank\" rel=\"noopener nofollow\">hanno intentato una causa contro OpenAI<\/a>, sostenendo che ChatGPT avesse aiutato il figlio a redigere una lettera d\u2019addio e gli sconsigliava di chiedere aiuto agli adulti.<\/p>\n<p>Secondo le <a href=\"https:\/\/www.wired.com\/story\/chatgpt-psychosis-and-self-harm-update\/\" target=\"_blank\" rel=\"noopener nofollow\">stesse stime di<\/a> OpenAI, circa lo 0,07% degli utenti settimanali di ChatGPT mostra segni di psicosi o mania, mentre lo 0,15% intraprende conversazioni che mostrano chiare intenzioni suicidarie. In particolare, la stessa percentuale di utenti (0,15%) mostra un livello elevato di attaccamento emotivo all\u2019IA. Sebbene queste sembrino essere frazioni trascurabili di percentuale, su 800 milioni di utenti si tratta di quasi tre milioni di persone che sperimentano una qualche forma di disturbo comportamentale. Inoltre, la Federal Trade Commission degli Stati Uniti <a href=\"https:\/\/www.wired.com\/story\/ftc-complaints-chatgpt-ai-psychosis\/\" target=\"_blank\" rel=\"noopener nofollow\">ha ricevuto 200 denunce<\/a> riguardanti ChatGPT dal suo lancio, alcune descrivendo lo sviluppo di deliri, paranoia e crisi spirituali.<\/p>\n<p>Sebbene la diagnosi di \u201cpsicosi da IA\u201d non abbia ancora ricevuto una classificazione clinica propria, i medici <a href=\"https:\/\/www.wsj.com\/tech\/ai\/ai-chatbot-psychosis-link-1abf9d57\" target=\"_blank\" rel=\"noopener nofollow\">stanno gi\u00e0 utilizzando<\/a> il termine per descrivere pazienti che si presentano con allucinazioni, pensieri disorganizzati e convinzioni deliranti persistenti sviluppate attraverso un\u2019intensa interazione del chatbot. I rischi maggiori emergono quando un bot viene utilizzato non come strumento, ma come sostituto di una connessione sociale reale o di un aiuto psicologico professionale.<\/p>\n<h2>Come proteggere te stesso e i tuoi cari<\/h2>\n<p>Naturalmente, niente di tutto quello che abbiamo detto deve spingere gli utenti ad abbandonare completamente l\u2019IA. \u00c8 solo opportuno trovare il modo giusto per usare questo strumento. \u00c8 consigliabile attenersi a questi principi fondamentali:<\/p>\n<ul>\n<li><strong>Non utilizzare l\u2019IA come psicologo o come supporto emotivo.<\/strong> I chatbot non sostituiscono gli esseri umani. In caso di difficolt\u00e0, contatta amici, familiari o un numero verde per la salute mentale. Un chatbot sar\u00e0 d\u2019accordo con te e rispecchier\u00e0 il tuo umore: questa \u00e8 una caratteristica del design, non una vera empatia. Diversi stati degli Stati Uniti hanno gi\u00e0 <a href=\"https:\/\/www.apaservices.org\/practice\/business\/technology\/artificial-intelligence-chatbots-therapists\" target=\"_blank\" rel=\"noopener nofollow\">limitato l\u2019uso dell\u2019IA<\/a> come terapeuta indipendente.<\/li>\n<li><strong>Scegliere di utilizzare il testo invece della voce quando si discute di argomenti sensibili.<\/strong> Le interfacce vocali con il dialogo affettivo creano l\u2019illusione di parlare con una persona vivente e tendono a reprimere il pensiero critico. Se utilizzi la modalit\u00e0 vocale, rimani consapevole del fatto che stai parlando con un algoritmo, non con un amico.<\/li>\n<li><strong>Limita il tempo di interazione con l\u2019IA.<\/strong> Duemila pagine di trascrizioni in due mesi rappresentano un\u2019interazione quasi continua. Imposta un timer per te stesso. Se la chat con un bot inizia a spostare le connessioni con il mondo reale, \u00e8 tempo di fare un passo indietro e tornare alla realt\u00e0.<\/li>\n<li><strong>Non condividere le informazioni personali con gli assistenti IA.<\/strong> Evita di inserire nei chatbot numeri di passaporto o di previdenza sociale, dettagli di carte bancarie, indirizzi esatti o intimi segreti personali. Tutto ci\u00f2 che si scrive pu\u00f2 essere salvato nei registri e utilizzato per l\u2019addestramento del modello e, in alcuni casi, pu\u00f2 diventare accessibile a terze parti.<\/li>\n<li><strong>Valuta in modo critico tutto l\u2019output dell\u2019IA.<\/strong> Le reti neurali provocano allucinazioni: generano informazioni plausibili ma false e possono abilmente fondere bugie e verit\u00e0, ad esempio citando indirizzi reali nel contesto di una storia completamente inventata. Verificare sempre i fatti tramite fonti indipendenti.<\/li>\n<li><strong>Controlla i tuoi cari.<\/strong> Se un membro della famiglia inizia a passare ore e ore a parlare con l\u2019IA, si intromette o esprime strane idee sulla coscienza delle macchine o su cospirazioni, \u00e8 il momento di parlarne in modo delicato ma serio. Per gestire il tempo sullo schermo dei bambini, utilizza strumenti di Parental Control come <strong><a href=\"https:\/\/www.kaspersky.it\/safe-kids?icid=it_kdailyplacehold_acq_ona_smm__onl_b2c_kasperskydaily_wpplaceholder____ksk___\" target=\"_blank\" rel=\"noopener\">Kaspersky Safe Kids<\/a><\/strong>, incluso nella soluzione completa di protezione della famiglia <strong><a href=\"https:\/\/www.kaspersky.it\/premium?icid=it_bb2023-kdplacehd_acq_ona_smm__onl_b2c_kdaily_lnk_sm-team___kprem___\" target=\"_blank\" rel=\"noopener\">Kaspersky Premium<\/a><\/strong>, insieme ai filtri di sicurezza integrati delle piattaforme di IA.<\/li>\n<li><strong>Configura le impostazioni di sicurezza.<\/strong> La maggior parte delle piattaforme di intelligenza artificiale consente di disabilitare la cronologia chat, limitare la raccolta dei dati e abilitare i filtri dei contenuti. Dedica dieci minuti alla configurazione delle impostazioni sulla privacy dell\u2019assistente IA; sebbene questo non fermer\u00e0 le allucinazioni basate sull\u2019intelligenza artificiale, ridurr\u00e0 significativamente la probabilit\u00e0 che i dati personali vengano divulgati. Le nostre guide dettagliate all\u2019impostazione della privacy per <a href=\"https:\/\/www.kaspersky.com\/blog\/chatgpt-privacy-and-security\/54607\/\" target=\"_blank\" rel=\"noopener nofollow\">ChatGPT<\/a> e <a href=\"https:\/\/www.kaspersky.com\/blog\/deepseek-privacy-and-security\/54643\/\" target=\"_blank\" rel=\"noopener nofollow\">DeepSeek<\/a> possono aiutarti in questo.<\/li>\n<li><strong>Ricorda la linea di fondo: l\u2019IA \u00e8 uno strumento, non un essere senziente.<\/strong> Indipendentemente da quanto possa sembrare realistica la voce del chatbot o da quanto possa sembrare comprensiva la risposta, sotto c\u2019\u00e8 un algoritmo che prevede la parola successiva pi\u00f9 probabile. Non ha coscienza, n\u00e9 intenzioni, n\u00e9 sentimenti.<\/li>\n<\/ul>\n<blockquote><p>Ulteriori letture per comprendere meglio le sfumature di un utilizzo sicuro dell\u2019IA:<\/p>\n<ul>\n<li><a href=\"https:\/\/www.kaspersky.it\/blog\/how-to-switch-off-ai\/30527\/\" target=\"_blank\" rel=\"noopener\">Unplugged: come disabilitare l\u2019IA nel computer e nello smartphone<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.com\/blog\/openclaw-vulnerabilities-exposed\/55263\/\" target=\"_blank\" rel=\"noopener nofollow\">Non farti schiacciare: le vulnerabilit\u00e0 di OpenClaw<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.it\/blog\/how-technology-changes-love\/30461\/\" target=\"_blank\" rel=\"noopener\">Amore, IA e robot<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.it\/blog\/poetry-ai-jailbreak\/30428\/\" target=\"_blank\" rel=\"noopener\">Jailbreak in versi: la poesia fa sciogliere la lingua all\u2019IA<\/a><\/li>\n<li><a href=\"https:\/\/www.kaspersky.com\/blog\/ai-toys-risks-for-children\/55200\/\" target=\"_blank\" rel=\"noopener nofollow\">Coltelli, perversioni e armi: cosa dicono veramente i giocattoli con intelligenza artificiale ai bambini<\/a><\/li>\n<\/ul>\n<\/blockquote>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"premium-generic\">\n","protected":false},"excerpt":{"rendered":"<p>Analizziamo in che modo le allucinazioni dell&#8217;assistente IA possono diventare letali e spieghiamo i principi fondamentali da seguire per evitare di diventare una vittima accidentale del progresso.<\/p>\n","protected":false},"author":2775,"featured_media":30558,"comment_status":"closed","ping_status":"closed","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2641],"tags":[1516,2169,3807,2620,1517,3045,685,45],"class_list":{"0":"post-30557","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"tag-ai","9":"tag-chatbot","10":"tag-gemini","11":"tag-ia","12":"tag-intelligenza-artificiale","13":"tag-psicologia","14":"tag-salute","15":"tag-sicurezza"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/chatbot-wrongful-death-cases\/30557\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/chatbot-wrongful-death-cases\/30296\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/chatbot-wrongful-death-cases\/25352\/"},{"hreflang":"ar","url":"https:\/\/me.kaspersky.com\/blog\/chatbot-wrongful-death-cases\/13291\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/chatbot-wrongful-death-cases\/30147\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/chatbot-wrongful-death-cases\/29074\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/chatbot-wrongful-death-cases\/31956\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/chatbot-wrongful-death-cases\/41483\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/chatbot-wrongful-death-cases\/14403\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/chatbot-wrongful-death-cases\/55446\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/chatbot-wrongful-death-cases\/24845\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/chatbot-wrongful-death-cases\/33324\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/chatbot-wrongful-death-cases\/30401\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/chatbot-wrongful-death-cases\/36031\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/chatbot-wrongful-death-cases\/35690\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/ai\/","name":"AI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30557","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/2775"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=30557"}],"version-history":[{"count":3,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30557\/revisions"}],"predecessor-version":[{"id":30563,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/30557\/revisions\/30563"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/30558"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=30557"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=30557"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=30557"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}