Le nove sfide dell’apprendimento automatico

Quali sorprese ha in serbo l’apprendimento automatico per noi? Quanto è difficile ingannare una macchina? Ci aspetta un futuro alla Skynet e di ribellione delle macchine? Questo e altro nel nostro articolo.

Speriamo di vivere un futuro brillante ma, al giorno d’oggi, l’intelligenza artificiale (acronimo IA) ci fa porre molte domande, alcune delle quali riguardano la morale e l’etica. In cosa ci ha già sorpreso l’apprendimento automatico? Si può ingannare una macchina e, in tal caso, è molto difficile riuscirci? Ci aspetta un futuro alla Skynet e di ribellione delle macchine? Vediamo un po’.

Intelligenza artificiale forte e debole

Innanzitutto, dobbiamo fare una differenza tra due concetti: esiste una intelligenza artificiale forte e una debole. L’IA forte sarebbe un’ipotetica macchina in grado di pensare, cosciente di esistere in quanto tale. Non solo può portare a termini i compiti assegnati ma sarebbe in grado di imparare.

L’IA debole esiste già; si trova in applicazioni create per risolvere problemi specifici, ad esempio riconoscere un’immagine, guidare un’auto, giocare a Go etc. L’IA debole viene chiamata anche “apprendimento automatico”.

Non sappiamo ancora se sarà mai inventata l’IA forte. Secondo alcuni sondaggi degli esperti, dovremo aspettare almeno altri 45 anni. “Un giorno” si farà, diciamo così. Gli esperti dicono anche che l’energia per fusione sarà in commercio tra 40 anni, ed è ciò che hanno detto circa 50 anni fa.

Cosa può andare storto?

Insomma, anche se son sappiamo se l’IA forte sarà fattibile, quella debole è già tra noi, lavora sodo in molti settori e le aree in cui viene impiegata aumentano progressivamente ogni anno. L’apprendimento automatico ci consente di gestire compiti pratici senza una programmazione definita proprio perché, come dice il termine stesso, questa tecnologia apprende da esempi. Per maggiori informazioni sull’argomento, vi consigliamo di dare una lettura al nostro articolo del blog “Come funziona l’apprendimento automatico, in parole semplici”.

Insegniamo alle macchine a risolvere problemi concreti, e il modello matematico risultante (che chiamiamo algoritmo “di apprendimento”) non può portare a una macchina con un desiderio irrefrenabile di opprimere o salvare l’umanità. In altre parole, non dobbiamo preoccuparci che lA debole sfoci in un futuro scenario alla Skynet. In ogni caso, non tutto potrebbe andare per il verso giusto. Vediamo qualche caso.

1 .Cattive intenzioni

Se mediante l’apprendimento automatico insegniamo a un esercito di droni a uccidere, il risultato può essere considerato etico?

L’anno scorso c’è stato un piccolo scandalo in merito. Google sta sviluppando un software impiegato in un progetto militare chiamato Project Maven che coinvolge droni. Nel futuro, ciò potrebbe portare a creare armi completamente autonome.

Dodici dipendenti di Google hanno rassegnato le dimissioni per protesta e altri 4 mila dipendenti hanno firmato una petizione dove si chiede alla compagnia di rinunciare a questo appalto militare. Oltre mille scienziati rinomati nel campo dell’intelligenza artificiale, dell’etica e della tecnologia informatica hanno scritto una lettera aperta a Google per chiedere all’azienda di abbandonare il progetto e di sostenere un accordo a livello internazionale per bandire le armi autonome.

2. Intenzioni degli sviluppatori

Anche se gli sviluppatori degli algoritmi per l’apprendimento automatico non hanno intenzioni di fare del male, molti di loro vorranno comunque guadagnarci. In sostanza, gli algoritmi vengono creati per generare benefici agli sviluppatori e non sempre per il bene della società. Ad esempio, alcuni algoritmi nel campo medico potrebbero consigliare cure costose invece di pensare a ciò che è meglio per il paziente.

A volte è la società stessa a non avere interesse per un algoritmo che potrebbe diventare un termine di paragone a livello morale. Ad esempio, esiste un compromesso tra la velocità di guida e il tasso di mortalità di un incidente automobilistico. Potremmo programmare i veicoli autonomi che si muovano a una velocità massima di 30 km/h, il che ridurrebbe quasi a zero il tasso di mortalità ma comprometterebbe il senso stesso di utilizzare un’automobile.

3. I parametri di sistema non sempre includono l’etica

Di default i computer ovviamente non sanno nulla di etica. Un algoritmo può organizzare un budget a livello nazionale con lo scopo di “massimizzare il rapporto tra PIL/produttività lavorativa/aspettativa di vita”; tuttavia, se nel modello non vengono inclusi dei limiti etici, verrebbero eliminati i budget dedicati alle scuole, agli ospedali e all’ambiente, in quanto non generano entrate dirette per il PIL di un paese.

E se andiamo oltre, si potrebbe decidere di aumentare la produttività al massimo sbarazzandosi di chiunque non possa lavorare.

Insomma, le questioni etiche devono essere considerate sempre e fin dal primo momento.

4. Relatività etica

L’etica subisce dei cambiamenti nel tempo, e a volte anche velocemente. Per esempio, l’opinione pubblica può cambiare opinione su temi importanti come i diritti LGTB, i matrimoni interculturali e tra caste nel corso di una sola generazione.

L’etica può variare anche da un gruppo all’altro in uno stesso paese, per non parlare da un paese all’altro. In Cina, ad esempio, l’uso del riconoscimento facciale per la sorveglianza di massa è ormai la norma, mentre in altri paesi c’è un punto di vista completamente diverso sull’argomento e la decisione può dipendere dalla situazione.

Anche il clima politico può influire: ad esempio, in alcuni paesi la guerra al terrorismo ha cambiato in modo molto veloce e significativo norme e ideali etici.

5. L’apprendimento automatico cambia anche l’uomo

I sistemi di apprendimento automatico (solo per proporre un esempio di come l’IA influisce direttamente sulle nostre vite) ci consigliamo quali film vedere in base alle opinioni che abbiamo dato su altri film e dopo aver confrontato le nostre preferenze con quelle di altri utenti. E i risultati possono essere alquanto azzeccati.

Un sistema che consiglia un film si adatta alle nostre preferenze nel tempo, con lo scopo di avvicinarsi il più possibile ai nostri desideri. Se non fosse così, ogni tanto potremmo imbatterci in film che non ci piacciono affatto o in genere a cui non siamo affini. Grazie all’IA, ogni film che ci viene proposto raggiunge l’obiettivo e, alla fine, non ci mettiamo più a cercare ciò che ci piace e ci limitiamo a consumare il prodotto che ci viene proposto.

E la cosa più interessante è che nemmeno ci accorgiamo di essere stati manipolati dagli algoritmi. L’esempio della scelta di un film non è preoccupante, ma pensiamo quando si fa lo stesso con le notizie e la propaganda.

6. False correlazioni

Una falsa correlazione si verifica quando elementi completamente indipendenti tra loro hanno un comportamento molto simile, il che può creare l’illusione che siano in qualche modo interconnessei Ad esempio, sapevate che il consumo di margarina negli Stati Uniti ha una forte correlazione con il tasso di divorzio dello stato del Maine?

Ovviamente le persone in carne e ossa, affidandosi alla propria esperienza e intelligenza, capiscono subito che una qualsiasi correlazione diretta tra questi due dati è altamente improbabile. Tuttavia, un modello matematico non possiede tale conoscenza, si occupa solo di apprendere dei dati e di creare modelli generici.

Un esempio noto riguarda un programma che selezionava i pazienti che richiedevano con maggiore urgenza l’intervento di un medico. Tale programma era arrivato alla conclusione che i pazienti di asma con polmonite non avevano bisogno di intervento medico quanto i pazienti senza asma. Il programma aveva analizzato i dati e aveva deciso che i pazienti con asma erano in minor pericolo di vita e non erano quindi una priorità. In realtà, il tasso di mortalità era basso proprio perché avevano sempre ricevuto aiuto tempestivamente per via dell’alto rischio dovuto alle loro condizioni di salute.

7. Loop dei feedback

Tale fenomeno è ancora più grave delle false correlazioni; avviene quando le decisioni prese da un algoritmo hanno conseguenze sulla realtà, e nel mondo reale ci si autoconvince che le conclusioni dell’algoritmo siano corrette.

Ad esempio, in California un programma di prevenzione del crimine, analizzando il tasso dei reati registrati, ha suggerito alla polizia di inviare un maggior numeri di agenti nei quartieri con maggiore presenza di afroamericani. Tuttavia, la maggiore presenza di polizia ha portato i residenti a denunciare i crimini con maggiore frequenza (per via della maggiore disponibilità delle forze dell’ordine) e, di conseguenza, la polizia ha redatto più report e denunce, che ha alimentato il tasso dei reati registrati e quindi un ulteriore invio di forze dell’ordine in zona etc etc.

8. Dati di riferimento “contaminai” o “avvelenati”

I risultati dell’apprendimento degli algoritmi dipendono in gran parte dai dati di riferimento, che sono la base del processo. I dati possono essere non corretti o sono stati distorti in modo accidentale o per uno scopo non trasparente (in quest’ultimo caso si parla di “avvelenamento” dei dati).

Vi proponiamo un esempio di problemi non intenzionali derivanti dai dati di riferimento. Se i dati impiegati come campione per un algoritmo di assunzione di personale sono stati ottenuti da un’azienda che ha un atteggiamento razzista nelle sue assunzioni, l’algoritmo avrà a sua volta una componente razzista.

Una volta Microsoft ha insegnato una chatbot a comunicare con gli utenti su Twitter. Il progetto è stato chiuso in meno di 24 ore perché i gentilissimi utenti di Twitter in quattro e quattr’otto hanno insegnato al bot a dire parolacce e a citare il Mein Kampf.

Qui invece un esempio di come sono stati “avvelenati” i dati per l’apprendimento automatico. Un modello matematico di un laboratorio di analisi di virus informatici processa una media di un milione di file al giorno, tra legittimi e dannosi. Il panorama delle minacce è in costante evoluzione, e le modifiche al modello vengono inviate ai prodotti installati sui dispositivi degli utenti sotto forma di aggiornamenti del database.

Un hacker può continuare a generare file dannosi molto simili a quelli legittimi e inviarli al laboratorio antivirus. Tale operazione cancella gradualmente la linea che differenzia un file legittimo da uno dannoso, inficiando il modello e generando falsi positivi in potenza.

Ecco perché Kaspersky Lab impiega un modello di sicurezza multilivello e non si affida esclusivamente all’apprendimento automatico. Le persone in carne ossa, ovvero gli esperti antivirus, si occupano di monitorare continuamente ciò che fanno le macchine.

9. Inganno

Persino un modello matematico perfettamente funzionante (che si affida a dei dati di qualità) può comunque essere raggirato, se si sa come funziona. Per esempio, un gruppo di ricercatori è riuscito a capire come bypassare un algoritmo di riconoscimento facciale utilizzando degli occhiali speciali che applicavano delle distorsioni minime all’immagine, alterando completamente il risultato finale.

Indossare degli occhiali con una montatura colorata in modo speciale ha permesso ai ricercatori di ingannare l’algoritmo di riconoscimento facciale.

Anche in situazioni che non sembrano coinvolgere variabili complicate, si può ingannare facilmente una macchina impiegando tecniche sconosciute ai più.

I primi tre segnali sono identificati come limite di velocità di 45 km/h e l’ultimo come segnale di STOP.

Inoltre, per mettere KO un modello matematico di apprendimento automatico, non è necessario che si apportino cambiamenti importanti, delle piccole modifiche impercettibili all’occhio umano possono essere sufficienti.

Aggiungendo un rumore minore al panda della sinistra, si ottiene un gibbone.

 

Fino a quando l’uomo sarà più sveglio della maggior parte degli algoritmi, saremo in grado di raggirarli. Immaginiamo un prossimo futuro in cui l’apprendimento automatico sarà applicato al controllo dei bagagli ai raggi X in aeroporto alla ricerca di armi. Un terrorista intelligente potrebbe collocare un oggetto di una certa forma accanto alla pistola per rendere invisibile l’arma al controllo.

Di chi è la colpa e cosa si può fare

Nel 2016, il Big Data Working Grupo della presidenza di Obama ha pubblicato un report dove si metteva in guardia dai “potenziali rischi di discriminazione nelle decisioni prese con metodi automatizzati”. Nel report si esortava anche a creare algoritmi che mirassero all’uguaglianza durante la loro progettazione.

Più facile a dirsi che a farsi.

Innanzitutto, i modelli matematici alla base dell’apprendimento automatico sono difficili da testare e da modificare. Valutiamo regolarmente i nostri programmi passo per passo e sappiamo come testarli, ma con l’apprendimento automatico tutto dipende dall’estensione del campione che non può essere infinito.

Ad esempio, l’app Google Photo riconosceva le persone di colore e le taggava come gorilla. Davvero! Come potete ben immaginare, ciò ha generato un vero e proprio scandalo e Google ha promesso di risolvere il problema nel suo algoritmo. Dopo tre anni, Google non è riuscita a fare di meglio se non proibire di taggare persone e oggetti come gorilla, scimpanzé o scimmie.

In secondo luogo, è complicato comprendere e spiegare le decisioni prese dagli algoritmi di apprendimento automatico. Una rete neurale organizza e soppesa i coefficienti per arrivare a una decisione corretta, ma in che modo? E cosa si può fare per correggere la risposta?

Nel 2015, alcuni ricercatori hanno dimostrato che le donne visualizzavano con minore frequenza gli annunci di lavori altamente remunerati di Google AdSense rispetto agli uomini. Il servizio di invio giornaliero di Amazon spesso non è disponibile in quartieri a maggioranza afroamericana. In entrambi i casi, i rappresentati dell’azienda non sono stati in grado di spiegare certe decisioni prese dai loro algoritmi.

Se nessuno ha la colpa, allorai dobbiamo adottare delle nuove leggi e creare delle linee guida etiche specifiche per la robotica. A maggio scorso, la Germania ha fatto un primo passo e ha pubblicato alcune regole etiche per la auto senza conducente. Tra le altre cose, viene stabilito che:

  • La sicurezza dell’uomo è la priorità, anche su animali o beni di proprietà;
  • Nel caso l’incidente non possa essere evitato, non devono essere applicati discriminazioni o fattori di distinzione;

E ciò che è più importante per noi:

  • I sistemi di guida automatica diventeranno un imperativo etico se viene dimostrato che provocano minori incidenti rispetto alla guida di un essere umano.

È chiaro che nel tempo ci affideremo sempre di più all’apprendimento automatico, soprattutto perché consente di gestire un maggior numero di compiti rispetto alle persone. Bisogna tenere in considerazioni i problemi e gli errori che possono sorgere, provare a anticipare le possibili conseguenze in fase di sviluppo di una tecnologia e ricordarsi di monitorare costantemente le prestazioni degli algoritmi nel caso qualcosa vada storto.

Consigli