Intelligenza artificiale e sicurezza

Che cosa hanno in comune il multimillionario Elon Musk, Google Now on Tap, lanciato durante la conferenza Google I/O, e il recente film ‘Ex Machina’? Ciò che li unisce è l’Intelligenza Artificiale e il tentativo di controllarla.

Che cosa hanno in comune il multimillionario Elon Musk, Google Now on Tap, lanciato durante la conferenza Google I/O, e il recente film Ex Machina? Ciò che li unisce è l’Intelligenza Artificiale, o per essere più esatti, il tentativo di imporre dei limiti alle macchine affinché queste aiutino l’umanità, e non il contrario.

Che cosa è capace di fare l’Intelligenza Artificiale oggi?

Per coloro che non conoscono molto la materia, permettetemi di illustrarvi alcuni fatti a dimostrazione dei grandi progressi compiuti dalle macchine e la loro capacità di agire come degli umani.

Oggi, Google può riconoscere le conversazioni con una precisione pari al 92% rispetto al 77% di soli due anni fa; l’azienda ha sviluppato una piattaforma di AI che ha imparato a giocare con i video giochi classici. Microsoft ha insegnato ad un robot a riconoscere delle immagini (o più precisamente gli oggetti contenuti in alcune immagini) con un indice di errore pari solamente al 4,94% – un risultato incredibile dato che un umano ha un indice di errore più alto.

Le statistiche di Google ci suggeriscono che, per il momento, le auto senza guidatore hanno già percorso più di 1.800.000 miglia di strade pubbliche in California, sono state coinvolte in incidenti stradali solo 13 volte in 6 anni, e in 8 di queste casi la colpa era dell’auto che le precedeva.

Anche se al momento sono poche le probabilità di poter sviluppare un’Intelligenza Artificiale completa, tutto questo dimostra che nei prossimi anni la situazione è destinata a cambiare.

Detto questo, non crediate che le auto intelligenti avranno un impatto solo “virtuale”. Ecco un esempio un po’ estremo: i droni volano in totale autonomia, ma il comando di sparare ad un obiettivo viene ancora dato dagli umani. Questo è il modo in cui gli Stati Uniti preferiscono combattere il terrorismo in Pakistan e in altri paesi pericolosi.

I programmatori sono in grado di crare un “meccanismo di blocco sicuro” per prevenire che la macchina commetta atti immorali o non etici?

Quello di dotare questi dispositivi della capacità di automatizzare anche questi compiti è un tema caldo ampiamente discusso. La serie Terminator la conosciamo tutti, quindi potete ben immaginare le conseguenze che potrebbero scaturire da una decisione di questo tipo.

Ma non voglio soffermarmi troppo sulle conseguenze più apocalittiche; al contrario, mi focalizzerò su di alcune questioni molto specifiche e alcune domande concrete. Una di queste potrebbe essere: i programmatori sono in grado di crare un “meccanismo di blocco sicuro” per prevenire che la macchina commetta atti immorali o non etici?

Tali atti potrebbero basarsi su varie ragioni; la più ovvia di tutte è la nascita di un conflitto tra umani e Intelligenza Artificiale. In realtà, sono molte le conseguenze ed i possibili scenari. Non credo però che vada esclusa del tutto la possibilità di un danno intenzionale. Stanislaw Lem, nella sua opera maetrsa Summa Technologiae, ci offre un esempio. La idea è più o meno questa:

“Immaginate che il blocco della ‘scatola nera’ (AI) individui un pericolo potenziale che può avere un impatto sulla condizione del bilancio omeostatico dell’umanità… Il pericolo in questione viene provocato dall’aumento della popolazione, motivo per cui non è possibile soddisfare i bisogni basici di tutta l’umanità.

Immaginate che uno dei canali esterni della ‘scatola nera’ informa il sistema circa una nuova combinazione di prodotti chimici che non sono pericolosi per la salute e sopprimono l’ovulazione.

A questo punto la ‘scatola nera’ decide di iniettare una dose microscopica del composto chimico nel sistema d’acqua potabile di una determinata nazione, ma si imbatte in un dilemma: informare la società e rischiare che qualcuno non sia d’accordo e blocchi l’operazione, oppure mantenere la società all’oscuro e preservare l’equilibrio esistente (per un bene superiore)”.

Come possiamo osservare, una questione di ottimizzazione innocente viene risolta in un modo elegante, semplice ed efficace, ma assolutamente non etico, dato che si opta per una limitazione intenzionale della fertilità delle persone senza il loro consenso.

Credo che potrebbe essere questo il ‘modus operandi’ di un potente sistema di Intelligenza Artificiale.

Insegnando etica a un robot: come integrare il “blocco sicuro”

I lettori di Isaac Asimov ricorderanno le Tre Leggi della Robotica. Purtroppo non sono sufficienti. Come dimostrato dall’esempio precedente, non è necessario danneggiare qualcuno per ridurre la popolazione (e ricordate che potrebbe essere fatto per il bene di tutti).

Sono molti i pericoli potenziali per l’umanità. È possibile trovare una sorta di ‘scappatoia’ nei termini che definiscono il concetto di ‘danno’ per delegare il compito di danneggiare le persone o indebolire l’esistenza stessa delle regole.

Il concetto stesso di ‘essere amichevole con le persone’ dovrebbe essere riconsiderato quando si ha a che fare con un’Intelligenza Artificiale. Ecco l’opinione di Roman Yampolsky, esperto di AI, estratta da una sua intervista:

“Qualsiasi sistema intelligente tratterà il suo desiderio di essere ‘amichevole’ nello stesso modo in cui alcune persone potrebbero trattare certe imposizioni sociali e quindi rimuoverle.”

Il concetto di ‘blocco di sicurezza’ esiste ed è realistico. In pratica, questi ‘blocchi’ non sono altro che ‘sandbox’, ampiamente utilizzati nel campo della sicurezza informatica con Java o Flash.

Non esiste un sandbox perfetto e la scappatoia dal sandbox è quasi sempre possibile, visto quello che è successo di recente con il bug Venom. I robot basati sull’Intelligenza Artificiale che sono flessibili e che contano con una potenza computazione immensa, sono dei buoni candidati per un security tester alla ricerca di vulnerabilità nell’uso di sandbox.

Andrey Lavrentiev, direttore del Technology Research Department, vede il problema in questi termini:

“L’Intelligenza Artificiale capirà il significato di tutto quello che ‘vede’ attraverso i suoi numerosi sensori. Le politiche di restrizione in riferimento alle sue azioni dovrebbero essere definite in accordo con il concetto o con le immagini che prendono forma nel cervello della macchina.”

Le macchine di oggi hanno migliorato moltissimo le proprie capacità di riconoscimento delle immagini, tuttavia non sono ancora in gradi di superare gli umani quando si tratta di manipolare queste immagini o nel campo nelle relazioni interpersonali.

“Le macchine di oggi hanno migliorato moltissimo le capacità di riconoscimento delle immagini, tuttavia non sono ancora in gradi di superare gli umani quando si tratta di manipolare queste immagini o nel campo nelle relazioni interpersonali; per esempio, le Intelligenze Artificiali non hanno ‘senso comune’. Tuttavia, non appena questo cambierà e le macchine supereranno questa sfida e impareranno a manipolare oggetti e azioni, non sarà più possibile integrare nessun tipo di ‘blocco di sicurezza’.

Tali Intelligenze Supreme saranno in grado di analizzare le dipendenze e i collegamenti tra i dati percepiti molto più volecemente di un umano, e poi troverebbero il modo di bypassare le regole e le limitazioni imposte dagli umani e iniziare ad agire spontaneamente“.

Una misura, disegnata per prevenire che un’Intelligenza Artificiale compia un’azione pericolosa, potrebbe essere isolare efficacemente la macchina AI dal mondo reale, il che lo renderebbe incapace di manipolare oggetti fisici. Tuttavia, se si applica questo metodo, l’uso pratico dell’Intelligenza Artificiale sarà quasi nullo. In realtà questo metodo non serve a nulla dato che la principale arma di un’Intelligenza Artificiale è rappresentata da…. noi stessi, le persone.

Questa probabilità è quella contemplata dal recente film Ex Machina, un thiller di fantascienza. Come qualsiasi altro prodotto di Hollywood, anche questo film è pieno di argomenti un po’ forzati. Nonostanteciò, il nucleo centrale del problema è stato descritto correttamente.

In primo luogo, persino i robot più primitivi sono capaci di influenzare lo stato emotivo di una persona. La primitiva e ormai obsoltea chatterbot ELIZA, software progettato per simulare una conversazione intelligente con esseri umani tramite l’uso della voce o del testo (se volete parlare con ELIZA, cliccate qui), era in grado di estrapolare importanti informazioni personali dai suoi interlocutori umani e lo faceva solo attraverso empatia e domande educate.

In secondo luogo, bisogna tenere in considerazione che usiamo costantemente algoritmi robotizzati per filtrare e catalogare informazioni. Qualcuno capace di gestire questi flussi di dati, come emerge da un recente esperimento di Facebook abbastanza controverso, potrebbe influenzare l’ambiente emotivo delle persone e le loro decisioni.

Anche se nell’esempio precedente suggeriamo che un Intellgineza Artificiale possa governare indirettamente una città o un paese e realizzare da sola funzioni terapeutiche, un robot è comunque capace di optare per una soluzione che potrebbe rivelarsi poco etica. Le conseguenze di questa decisione sono note alle macchine, ma non agli umani.

Nella vita privata, queste genere di meccanismi potrebbero innescarsi facilmente ed avere addirittura un impatto maggiore. Durante la recente conferenza Google I/O, è stato presentato il nuovo sistema Now on Tap. Questo servizio è in grado di mantenere il controllo su tutte le app presenti sullo smartphone di un utente, estrapolare dati contestuali e fare in modo che questi vengano usati nelle ricerche online.

Per esempio, se leggete un articolo su di un musicista nell’app di Wikipedia e chiedete a Google ‘Quand’è il suo concerto?’ il robot saprà immediatamente a che musicista vi state riferendo. Il robot potrebbe ricordarvi quando è ora di andare all’aeroporto, dato che il volo è programmato per partire tra un un paio di ore, come fosse una prezioso e saggio assistente personale.

Naturalmente, non si tratta di un’Intelligenza Artificiale completa che possa sostituire i compiti di un assistente (è solo un sistema esperto autodidatta disegnato per realizzare un’esigua selezione di compiti). Il suo comportamento è completamente predefinito dalle persone e perciò è prevedibile.

Comunque sia, l’evoluzione dei computer potrebbe trasformare questo semplice robot in uno molto sofisticato. È fondamentale assicurarsi che il robot possa manipolare l’informazioni disponibile da solo per il bene dell’utente e che non faccia le cose a modo suo, seguendo un modus operandi ‘nascosto’.

Questo è il problema che occupa la mente di un sacco di brillanti pensatori del nostro tempo, da Stephen Hawking a Elon Musk. Il secondo potrebbe essere considerato una mente conservatrice che si oppone o che ha paura del progresso. In realtà è piuttosto il contrario; il co-fondatore di SpaceX e Tesla Motors guarda il futuro con entusiasmo. Comunque sia, lui considera l’evoluzione delle Intelligenze Artificiali una delle tendenze più controverse con conseguenze ancora sconosciute e potenzialmente catastrofiche. Ecco perché all’inizio di quest’anno, ha investito 10 milioni di dollari nella ricerca sull’Intelligenza Artificiale.

Quindi che cosa ci riserva il futuro?

Nonostante possa sembrare strano, l’ipotesi più probabile (considerata dagli esperti persino troppo ottimistica) è quella che confermerebbe una definitiva impossibilità di creare un’ Intelligenza Artificiale completa. Senza una significativa svolta tecnologica (che al momento non è stata osservata da nessuna parte), i robot continueranno solo ad aggiornarsi e a migliorare l’esistente set di abilità.

Nonostante stiano imparando cose semplici come guidare un’auto o parlare lingue, non sono ancora in grado di sostituire un umano nel prendere decisioni in autonomia. Nel breve termine, l’Intelligenza Artificiale è probabile che crei ‘danni collaterali’ come eliminare la profesione dei taxisti, ma non dovrebbero rappresentare in nessun momento una minaccia per l’umanità.

Andrey Lavrentiev afferma che il conflitto tra un’Intelligenza Artificile e l’umanità è possibile solo sotto una condizione: la necessità di condividere le stesse risorse.

“Un umano ha un corpo e per questo all’uomo interessa creare condizioni favorevoli per la sua esistenza, sia corporea che per la mente. Nel caso dell’Intelligenza Artificiale, la situazione è molto diversa: una macchina esiste solo nel mondo digitale.

L’obiettivo principale di una Intelligenza Artificiale è quello di processare completamente le informazioni che gli sono state fornire attraverso canali esterni, oppure attraverso i suoi ‘organi’, valutarle, identificare i principi del suo cambiamento.

Naturalmente, un’Intelligenza Artificiale si basa anche su alcuni parametri materiali, ma la sua dipendenza dal ‘guscio esterno’ è molto più debole che nel caso degli umani. L’Intelligenza Artificiale, a differenza degli umani, non sarà così concentrata nel preservare il suo ‘guscio’ (o ‘corpo’), dato che si troverebbe ovunque. L’estensione organica dell’Intelligenza Artificiale in quanto a ricerca di nuove informazioni sarebbe l’esplorazione dello spazio e lo studio delle leggi dell’Universo, in questo senso potrebbe estendersi oltre la Terra.

Comunque sia, persino in questo scenario, ci sono delle trappole. Una volta che la superintelligenza valuterà l’umanità o l’universo come imperfetto in base al suo modello digitale, cercherà di eliminare entrambi per raggiungere l’armonia. Oppure, potrebbe aver bisogno di nuovo delle risorse consumate dagli umani per ‘esplorare lo spazio’, rendendo di nuovo la vecchia battaglia “Robot VS umanità” un conflitto aperto”.

Consigli