Nel 2025 i ricercatori della sicurezza informatica hanno scoperto alcuni database pubblici appartenenti a diversi strumenti di generazione di immagini basati sull’IA. Già questo è sufficiente a domandarsi quanto poco le startup di IA tengano alla privacy e alla sicurezza dei dati dei propri utenti. Ma è la natura del contenuto di questi database a essere allarmante.
Un gran numero di immagini generate in questi database erano immagini di donne in lingerie o completamente nude. Alcune erano state chiaramente create a partire da foto di bambini o con l’intenzione di far sembrare più giovani (e svestite) donne adulte. E infine, la parte più inquietante: immagini pornografiche generate da foto del tutto innocenti di persone reali, verosimilmente tratte dai social media.
In questo post vediamo cos’è la sextortion e perché gli strumenti di IA possono rendere chiunque una vittima. Descriviamo in dettaglio i contenuti di questi database pubblici e forniamo consigli su come evitare di diventare vittime di sextortion nell’era dell’IA.
Cos’è la sextortion?
L’estorsione online su base sessuale è diventata così comune che si è guadagnata un termine dedicato: sextortion (contrazione di sex e extortion, sesso ed estorsione). Ne abbiamo già trattato le tipologie nel nostro post Cinquanta sfumature di sextortion. Per riassumere, questa forma di ricatto comporta la minaccia di pubblicare immagini o video intimi per estorcere denaro o costringere la vittima a intraprendere determinate azioni.
In passato, le vittime di sextortion erano in genere lavoratori del settore per adulti o individui che avevano condiviso contenuti intimi con persone inaffidabili.
Tuttavia, il rapido avanzamento dell’intelligenza artificiale, in particolare la tecnologia text-to-image, ha cambiato radicalmente le regole del gioco. Ora, letteralmente chiunque abbia reso pubbliche le proprie foto più innocenti può diventare vittima di sextortion. Questo perché l’IA generativa consente, in qualsiasi immagine digitale, di spogliare o sostituire con un corpo nudo le persone ritratte, in pochi secondi e in modo convincente.
Ovviamente questo tipo di falsificazione esiste da prima dell’IA, ma richiedeva ore di meticoloso lavoro in Photoshop. Oggi, tutto ciò che serve è descrivere a parole il risultato desiderato.
A peggiorare le cose, molti servizi di IA generativa non si preoccupano granché di proteggere i contenuti per cui vengono utilizzati. Come accennato, l’anno scorso i ricercatori hanno scoperto almeno tre database accessibili al pubblico appartenenti a questi servizi. I nudi generati al loro interno erano disponibili non solo all’utente che li aveva creati, ma a chiunque su Internet.
Come è stata scoperta la fuga di dati dal database di immagini IA
Nel mese di ottobre 2025 il ricercatore di sicurezza informatica Jeremiah Fowler ha scoperto un database pubblico contenente oltre un milione di immagini e video generati dall’IA. Secondo il ricercatore, la stragrande maggioranza di questi contenuti era di natura pornografica. Il database non era criptato, né protetto da password, il che significa che qualsiasi utente Internet poteva accedervi.
Il nome del database e le filigrane su alcune immagini hanno indotto Fowler a credere che alla fonte vi fosse l’azienda statunitense SocialBook, che offre servizi per influencer e servizi di marketing digitale. Dal sito Web dell’azienda è inoltre possibile accedere a strumenti per la generazione di immagini e contenuti tramite IA.
Tuttavia, ulteriori analisi hanno rivelato che non era SocialBook a generare direttamente questi contenuti. I collegamenti all’interno dell’interfaccia del servizio conducevano a prodotti di terze parti, ovvero i servizi di intelligenza artificiale MagicEdit e DreamPal, gli strumenti utilizzati per creare le immagini. Questi strumenti consentivano agli utenti di generare immagini da descrizioni testuali, modificare le foto caricate ed eseguire varie manipolazioni grafiche, tra cui la creazione di contenuti espliciti e lo scambio di volti.
La fuga di dati era collegata a questi strumenti e il database includeva il prodotto del loro lavoro, comprese le immagini generate e modificate dall’IA. Una parte delle immagini ha indotto il ricercatore a sospettare che fossero state caricate nell’IA come riferimento per la creazione di immagini provocatorie.
Fowler afferma che ogni giorno venivano aggiunte al database circa 10.000 foto. SocialBook nega qualsiasi relazione con il database. Dopo che il ricercatore ha informato l’azienda della fuga di dati, diverse pagine del sito Web SocialBook che in precedenza menzionavano MagicEdit e DreamPal sono diventate inaccessibili e hanno iniziato a restituire errori.
Quali servizi sono stati la fonte della fuga di dati?
Entrambi i servizi, MagicEdit e DreamPal, sono stati inizialmente commercializzati come strumenti per la sperimentazione visiva interattiva guidata dall’utente con immagini e personaggi grafici. Sfortunatamente, una parte significativa di queste funzioni era direttamente collegata alla creazione di contenuti a sfondo sessuale.
Ad esempio, MagicEdit offriva uno strumento per i cambi di abbigliamento virtuali basato sull’intelligenza artificiale, nonché una serie di stili che ritraevano donne con meno vestiti dopo l’elaborazione, ad esempio sostituendo normali abiti con costumi da bagno o lingerie. Il materiale promozionale prometteva di trasformare in pochi secondi un look normale in qualcosa di sexy.
DreamPal, da parte sua, era inizialmente posizionato come una chat per giochi di ruolo basata sull’intelligenza artificiale, ed era ancora più esplicito riguardo al suo posizionamento per adulti. Il sito si offriva di creare una fidanzata IA ideale, con alcune pagine che facevano riferimento direttamente a contenuti erotici. Le FAQ rilevavano inoltre che i filtri per i contenuti espliciti nelle chat erano disabilitati in modo da non limitare le fantasie degli utenti.
Entrambi i servizi hanno sospeso le operazioni. Nel momento in cui scriviamo, il sito Web di DreamPal restituisce un errore, mentre MagicEdit sembra di nuovo disponibile. Le relative app sono state rimosse sia dall’App Store che da Google Play.
Jeremiah Fowler afferma di avere scoperto all’inizio del 2025 altri due database pubblici contenenti immagini generate dall’IA. Uno apparteneva al sito sudcoreano GenNomis e conteneva 95.000 voci, una parte sostanziale delle quali erano immagini di persone “spogliate”. Tra le altre cose, il database includeva immagini con versioni per bambini di celebrità: le cantanti americane Ariana Grande e Beyoncé e la star dei reality TV Kim Kardashian.
Per evitare di cadere vittima:
Alla luce di incidenti come questi, è chiaro che i rischi associati alla sextortion non sono più limitati alla messaggistica privata o allo scambio di contenuti intimi. Nell’era dell’IA generativa, anche le normali foto, se pubbliche, possono essere utilizzate per creare contenuti compromettenti.
Questo problema è particolarmente rilevante per le donne, ma non significa che gli uomini debbano sentirsi al sicuro: il frequente schema di ricatto “ho hackerato il tuo computer e ho usato la webcam per riprenderti mentre navighi su siti per adulti” potrebbe raggiungere un livello di persuasione completamente nuovo, grazie agli strumenti IA per la generazione di foto e video.
Pertanto, proteggere la privacy sui social media e controllare quali dati sono disponibili al pubblico diventano misure chiave per salvaguardare la reputazione e la tranquillità. Per evitare che le foto vengano utilizzate per creare contenuti discutibili generati dall’IA, è consigliabile rendere tutti i profili dei social media il più privati possibile, poiché potrebbero diventare fonti di immagini per i nudi generati dall’IA.
Abbiamo già pubblicato diverse guide dettagliate su come ridurre la propria digital footprint online o addirittura rimuovere i dati da Internet, non finire nei dossier compilati dai broker di dati e proteggersi dagli abusi di immagini intime.
Inoltre, abbiamo un servizio dedicato, Privacy Checker, perfetto per chiunque desideri un approccio rapido ma sistematico alle impostazioni sulla privacy ovunque possibile, che compila guide dettagliate per la protezione degli account di social media e di servizi online su tutte le principali piattaforme.
E per garantire la sicurezza e la privacy dei dati dei figli, Kaspersky Safe Kids può essere di aiuto: consente ai genitori di monitorare i social media su cui i minori trascorrono il tempo. Da lì, possono aiutare a regolare le impostazioni sulla privacy nei propri account in modo che le foto pubblicate non siano sfruttate per creare contenuti inappropriati. Insieme, genitori e figli possono esplorare la nostra guida alla sicurezza online dei bambini e la guida dettagliata alla sicurezza informatica per aspiranti blogger, se mai i ragazzi aspirino ad avere successo scrivendo online.
sextorsion
Consigli