
Un'allucinazione basata sull'IA è una situazione in cui uno strumento artificiale intelligente fornisce un output impreciso, fuorviante o incoerente, a causa dei suoi algoritmi che trovano schemi nei dati che non esistono o li interpretano in modo errato.
Con l'aumento delle capacità e della popolarità dell'intelligenza artificiale negli ultimi due anni, alcuni dei suoi difetti e vulnerabilità sono stati scoperti.
Una delle domande più grandi che le persone hanno è se l'IA è accurata. In molti casi si è rivelato uno strumento incredibilmente utile per il controllo dei fatti e la ricerca di informazioni, ma in alcuni altri i risultati ottenuti sono stati errati o fuorvianti.
Data la gamma di casi d'uso a cui viene applicata l'IA nel mondo moderno, le conseguenze di queste imprecisioni possono essere estremamente gravi. In questo articolo esamineremo il motivo per cui può verificarsi un'allucinazione da IA, le ramificazioni dal punto di vista tecnologico e sociale e cosa è possibile fare per ridurre al minimo il rischio di allucinazioni da IA quando viene utilizzato.
Come si verifica un'allucinazione da IA?
Esistono diversi motivi per cui si verifica un'allucinazione da IA e, in molti casi, si tratta di una combinazione di diversi contemporaneamente. Questi possono includere (e non sono necessariamente limitati a):
- Non avere dati di addestramento sufficienti per ottenere risultati completi e accurati dal modello di IA.
- Avere troppi dati di addestramento, il che porta a confondere troppo "rumore dei dati" irrilevante con le informazioni pertinenti e importanti.
- Differenze all'interno dei dati che si riflettono nei risultati generati.
- Il modello di IA trae semplicemente le ipotesi e le conclusioni sbagliate dalle informazioni che gli sono state fornite.
- Mancanza di contesto reale all'interno del modello di IA, ad esempio proprietà fisiche degli oggetti o informazioni più ampie rilevanti per i risultati generati.
Che aspetto ha un'allucinazione da IA?
Non esiste un singolo set di sintomi per le allucinazioni da IA perché dipende dai difetti del modello e dal processo coinvolto. In genere, tuttavia, un'allucinazione da IA può manifestarsi in uno di questi cinque modi:
- Previsioni imprecise : i modelli di IA possono finire per prevedere qualcosa che accadrà in futuro, con poche possibilità realistiche che si verifichi, o probabilmente nessuna possibilità.
- Riepiloghi con informazioni mancanti : a volte i modelli di IA potrebbero perdersi un contesto vitale o le informazioni di cui avrebbero bisogno per creare risultati accurati e completi. Questo può essere dovuto alla mancanza di dati inseriti nel modello o all'incapacità del modello di cercare il contesto corretto in altre fonti.
- Riepiloghi con informazioni fabbricate : analogamente al punto precedente, alcuni modelli di IA potrebbero finire per compensare la mancanza di informazioni accurate inventandosi completamente. Questo può spesso accadere quando i dati e il contesto su cui si basa il modello non sono accurati.
- Falsi aspetti positivi e negativi : l'IA viene spesso utilizzata per individuare potenziali rischi e minacce, che si tratti di sintomi di malattia in ambito sanitario o di casi di attività fraudolenta nel settore bancario e finanziario. I modelli di IA a volte possono identificare una minaccia che non esiste o, all'altro capo della scala, non riuscire a identificare una minaccia che esiste.
- Risultati incoerenti : se hai visto immagini generate dall'IA di persone con un numero errato di braccia e gambe o auto con troppe ruote, saprai che l'IA può comunque generare risultati che non hanno alcun senso per l'uomo.
Perché è importante evitare le allucinazioni da IA?
Si potrebbe pensare che un'allucinazione da IA non sia un grosso problema e che la semplice esecuzione dei dati nuovamente attraverso il modello possa risolvere il problema generando i risultati corretti.
Ma le cose non sono così semplici e qualsiasi allucinazione dell'IA applicata a casi d'uso pratici o rilasciata nel pubblico dominio può avere alcune gravi conseguenze per un gran numero di persone:
Uso non etico dell'IA
L'uso dell'IA, in generale, è sotto i riflettori in questo momento e ci si aspetta sempre più dalle organizzazioni che utilizzano la tecnologia di utilizzare l'IA in modo responsabile ed etico , che non danneggi le persone o le metta a rischio. Consentire a un'allucinazione di IA di passare incontrollata, consapevolmente o inconsapevolmente, non soddisferebbe tali aspettative etiche.
Fiducia del pubblico e dei consumatori
In relazione al punto precedente, molte persone sono ancora preoccupate per l'utilizzo dell'IA, da come vengono utilizzati i dati personali al fatto che le crescenti capacità dell'IA possano rendere obsoleto il proprio lavoro. I casi continui di esempi di allucinazioni IA nel pubblico dominio possono erodere la fiducia che si sta lentamente creando tra il pubblico e portare a un successo limitato per i casi d'uso dell'IA e le aziende a lungo termine.
Processo decisionale disinformato
Le aziende e le persone devono essere in grado di prendere le decisioni migliori e più informate possibile e si affidano sempre più a dati, analisi e modelli di intelligenza artificiale per rimuovere congetture e incertezze da tali decisioni. Se vengono fuorviati da risultati imprecisi dei modelli di IA, le decisioni sbagliate che prendono potrebbero avere risultati catastrofici, dalla minaccia alla redditività di un'azienda alla diagnosi errata di un paziente medico.
Rischi legali e finanziari legati alla disinformazione dell'IA
Come dimostra abilmente il caso giudiziario sopra menzionato, informazioni generate dall'IA inesatte possono causare gravi danni dal punto di vista legale e finanziario. Ad esempio, i contenuti creati utilizzando l'IA potrebbero essere diffamatori nei confronti di determinate persone o aziende, potrebbero violare determinate normative legali o, in alcuni casi estremi, addirittura suggerire o incitare le persone a condurre attività illegali.
Evitare i pregiudizi
Viviamo in un mondo in cui le persone lavorano instancabilmente per garantire che tutti siano trattati allo stesso modo e senza pregiudizi nei confronti di un tipo di persona rispetto a un altro. Tuttavia, dati di IA distorti possono portare a rafforzare molti di questi pregiudizi, spesso involontariamente. Un buon esempio di ciò è l'utilizzo dell'IA nelle assunzioni e nel reclutamento: le allucinazioni con l'IA possono portare a risultati distorti che possono influire sugli sforzi per la diversità, l'uguaglianza e l'inclusione dell'organizzazione.
Quali sono alcuni tipici esempi di allucinazioni IA?
Evitare le allucinazioni dell'IA si sta rivelando un compito impegnativo per tutti nel settore. E non succede solo con le operazioni più piccole che non dispongono dell'esperienza e delle risorse. Questi tre esempi di allucinazioni basate sull'IA dimostrano che stanno accadendo ad alcuni dei più grandi attori tecnologici del mondo:
Meta AI e il tentativo di omicidio di Donald Trump
All'indomani del tentativo di omicidio contro l'allora candidato alla presidenza Donald Trump nel luglio 2024, l'IA di Meta chatbot inizialmente si è rifiutato di rispondere a qualsiasi domanda sull'incidente e successivamente ha affermato che l'incidente non è mai avvenuto. Il problema ha portato Meta ad adeguare gli algoritmi del suo strumento di intelligenza artificiale, ma ha portato a pubbliche affermazioni di pregiudizi e alla censura dei punti di vista conservatori.
L'allucinazione ChatGPT e la falsa ricerca legale
Nel 2023 un uomo in Colombia ha presentato una denuncia per lesioni personali contro una compagnia aerea. I suoi avvocati hanno utilizzato per la prima volta il principale strumento di intelligenza artificiale ChatGPT per compilare il caso e preparare le osservazioni legali. Tuttavia, nonostante le rassicurazioni di ChatGPT sul fatto che i sei casi di precedenti legali rilevati fossero reali, nessuno di essi esisteva.
La Sydney di Microsoft che si innamora degli utenti
Sydney, il chatbot basato sull'intelligenza artificiale di Microsoft, avrebbe detto a un editorialista di tecnologia del New York Times che lo amava e che avrebbe dovuto lasciare la moglie per stare con lui. Nel corso di due ore, Kevin Roose ha affermato che Sydney ha condiviso con lui alcune "oscure fantasie" sulla diffusione della disinformazione sull'IA e sul diventare umani.
Cosa si può fare per ridurre al minimo il rischio di allucinazioni con IA?
Data l'importanza di evitare il rischio di un'allucinazione da IA, spetta alle persone che utilizzano modelli di IA adottare tutte le misure pratiche possibili per mitigare le circostanze che possono causare problemi. È consigliabile procedere come segue:
Verificare che il modello di IA abbia uno scopo chiaro
Con l'espansione dell'utilizzo dell'IA negli ultimi anni, un errore comune è che le organizzazioni utilizzino i modelli di IA per il gusto di utilizzarli, senza considerare l'output cercando. La definizione chiara dell'obiettivo generale dell'utilizzo di un modello di IA può garantire che i risultati siano focalizzati ed eviti il rischio di allucinazioni da parte dell'IA attraverso un approccio e dati troppo generici.
Migliorare la qualità dei dati di addestramento
Migliore è la qualità dei dati inseriti in un modello di IA, migliore sarà la qualità dei risultati che ne verranno fuori. Un buon modello di IA si baserà su dati pertinenti, privi di pregiudizi, ben strutturati e con qualsiasi "rumore dei dati" estraneo filtrato. Questo è essenziale per assicurarsi che i risultati generati siano accurati, nel giusto contesto e non introducano ulteriori problemi.
Creare e utilizzare modelli di dati
Un buon modo per garantire che i risultati di un modello di IA siano strettamente allineati con lo scopo previsto è utilizzare modelli per i dati inseriti. Questo garantisce che ogni volta che viene utilizzato un modello di IA, questo si abitui a dati forniti nello stesso modo coerente e in grado di fornire risultati coerenti e accurati nel giusto contesto.
Limitare la gamma di reazioni e risultati
Imporre più vincoli a un modello di IA può aiutare a restringere i potenziali esiti a quelli necessari. È qui che entrano in gioco strumenti di filtro e soglie, fornendo ai modelli di IA alcuni limiti tanto necessari per mantenere l'analisi e la generazione costantemente sulla strada giusta.
Testare e migliorare continuamente il modello
Proprio come il miglioramento continuo è fondamentale per lo sviluppo di un buon software in un mondo in continua evoluzione, lo stesso vale per un buon modello di IA. Pertanto, tutti i modelli di IA dovrebbero essere testati e perfezionati periodicamente, in modo da poterli ricalibrare in base all'evoluzione dei dati, dei requisiti e delle informazioni contestuali disponibili.
Mettere in atto controlli e contrappesi umani
L'IA non è ancora infallibile al punto da poter essere attendibile per operare in modo completamente autonomo, quindi è essenziale garantire che vi sia almeno una supervisione umana in atto. Chiedere a una persona di controllare l'output dell'IA può identificare eventuali allucinazioni dell'IA che si sono verificate e garantire che l'output sia accurato e adatto ai requisiti dichiarati.
Rafforzare la fornitura di sicurezza informatica
Se un'allucinazione basata sull'IA rischia di introdurre vulnerabilità nella sicurezza informatica, questo è un buon motivo per garantire che sia predisposta la migliore soluzione di sicurezza informatica possibile. Kaspersky Plus Internet Security include la scansione anti-virus in tempo reale come standard, in modo che qualsiasi minaccia alla sicurezza introdotta a causa delle allucinazioni dell'IA venga affrontata ed eliminata prima che possa avere effetti negativi.
Articoli correlati:
