Perché l’apprendimento automatico da solo non basta

Progetti Speciali Tecnologia

Le tecnologie con connessione a Internet invadono le nostre vite ogni giorno di più. Ormai non ci sembra più strano chiedere aiuto a Siri o ad Alexa o a Google per interpretare la nostra realtà e ci aspettiamo che le nostre automobili seguano il codice della strada e reagiscano in tempo per salvarci la pelle. Alcuni di noi sono preoccupati per l’utilizzo eccessivo di alcune tecnologie quali le telecamere pubbliche che captano immagini utilizzate dai software di riconoscimento facciale, mentre molte altre persone non se ne preoccupano affatto.

Hoy por hoy, es fácil reírse de los fallos de la IA (Inteligencia Artificial) porque, a fin de cuentas, tienen gracia (solo hay que olvidarse de las posibles consecuencias fatales). Pero creemos que a medida que los dispositivos sigan adelante y el malware continúe evolucionando, eso cambiará. Veamos algunos incidentes causados por fallos de la IA.

Al momento, gli errori commessi dall’Intelligenza Artificiale ci fanno sorridere la maggior parte delle volte (mettendo per un attimo da parte le possibili fatali conseguenze). Tuttavia, visto che le macchine continuano a evolversi e di pari passo anche i malware, in un prossimo futuro potremmo non sorridere più così tanto. Nel frattempo, continuiamo a divertirci e diamo un’occhiata ad alcuni inconvenienti dovuti all’Intelligenza Artificiale.

La débâcle della casa delle bambole

Ecco un esempio classico: all’inizio di quest’anno, un programma di notizie trasmesso in California ha scatenato una sorta di reazione a catena. Si parlava di un incidente che coinvolgeva l’intelligenza artificiale che ha causato un altro incidente dello stesso tipo. La notizia  di un altoparlante Amazon Echo che ha ordinato per errore una casa delle bambole ha provocato che altri Amazon Echo attivi (che sono sempre molto ricettivi, “ascoltano” qualsiasi cosa e non fanno distinzione tra la voce del proprietario e le altre voci) a loro volta ordinassero altre case delle bambole. Meglio non giocare con questi aggeggi a casa.

Il flop del fast food

Burger King ha cercato di sfruttare il bug di cui abbiamo appena parlato per catturare l’attenzione degli assistenti vocali dei telespettatori. E, in un certo qual modo, ci sono riusciti. Il vero problema è sorto nel non riuscire ad anticipare il comportamento umano: attivando la ricerca per il famoso Whopper mediante Google Home si veniva reindirizzati a Wikipedia, dove gli utenti hanno potuto scrivere di tutto sul famoso hamburger del gigante del fast food. Ecco come è andata.

La confusione di Cortana

Non possiamo puntare il dito solo sull’assistente vocale di Microsoft, anche Siri di Apple ha avuto i suoi momenti di confusione per non parlare dell’assistente di Google che ha causato momenti esilaranti. Ma il tutto è ancora più comico se al fraintendimento assistono centinaia di persone. Ecco quello che succede quando Cortana non capisce un accento non americano o quando va in loop per colpa di un linguaggio veloce e naturale:

Come ingannare il riconoscimento facciale

I vostri amici non si lascerebbero ingannare da un buffo o strano paio di occhiali, tuttavia i ricercatori della Carnegie Mellon University hanno dimostrato che cambiare questo dettaglio del vostro look è sufficiente per rendervi completamenti differenti agli occhi di una macchina. La parte migliore è che i ricercatori non solo sono riusciti a ingannare il riconoscimento facciale ma anche a impersonificare altre persone stampando alcune caratteristiche peculiari sulle montature.

I ricercatori sono riusciti a diventare altre persone, anche celebrity o scambiarsi vicendevolmente l’identità

Imprevisti con la segnaletica

E cosa dire del riconoscimento della segnaletica stradale da parte delle auto senza conducente? Meglio del riconoscimento facciale? Mica tanto. Un altro gruppo di ricercatori ha dimostrato che il riconoscimento della segnaletica è perfettibile. Alcuni minimi cambiamenti che qualsiasi essere umano bypasserebbe fanno sì che il sistema di apprendimento automatico scambi il segnale di STOP con quello di limite di velocità a 45 miglia. E non si trattava di un errore puntuale, è accaduto il 100% delle volte durante il test.

Il sistema automatizzato ha scambiato 3 di queste immagini ritoccate come “Limite di velocità 45 miglia”, invece si trattava di un segnale di “Stop”

Il panda invisibile

Quanto bisogna alterare l’informazione iniziale per ingannare il sistema di apprendimento automatico? Sareste sorpresi dal fatto che i cambiamenti necessari sono minimi. L’occhio umano non percepisce differenze tra queste due immagini, mentre la macchina è abbastanza sicura che si tratti di due “oggetti” completamente diversi, un panda e un gibbone rispettivamente (è curioso, aggiungendo del rumore all’immagine originale la macchina riconosceva un nematode).

La terribile Tay

L’esperimento di chatbot di Microsoft, chiamato Tay, doveva assomigliare a una teenager capace di apprendere dalla interazioni su social media. In realtà noi essere umani siamo dei mostri e Tay ha seguito il nostro esempio diventando, tra le altre cose, una nazista. L’Intelligenza Artificiale può crescere ma la qualità e le caratteristiche dipendono sempre dall’input umano.

Qui potrete leggere di Tay e delle sue disavventure.

L’errore più grave fino a ora appartiene a Tesla , tuttavia in questo caso non possiamo incolpare l’Intelligenza Artificiale: nonostane il nome Autopilot lo evochi, in realtà il sistema non avrebbe dovuto prendere completamente il controllo della guida. Alcune ricerche hanno dimostrato che la persona seduta al posto di guida non ha agito da conducente responsabile, ha ignorato gli avvertimenti quando le mani non erano sul volante, ha stabilito la velocità di crociera oltre i limiti e non ha agito durante i 7 secondi e oltre in cui è apparso il camion che lo ha poi ucciso.

Forse l’Autopilot avrebbe potuto evitare l’incidente ma a questo punto sappiamo che non sono stati superati i parametri ed è questo il lavoro di un software.

Al momento anche se esiste l’apprendimento automatico, grazie al quale un software diventa più “intelligente” con l’esperienza, l’Intelligenza Artificiale non si avvicina ancora a quella umana. Le macchine sono veloci, costanti e instancabili, caratteristiche che s’integrano bene che l’ingegno e l’intuizione umani.

Il nostro approccio, che abbiamo chiamato HuMachine, è proprio quello di prendere il meglio dai due “mondi”, usando la velocità e la meticolosità dell’Intelligenza Artificiale e potenziandola con l’esperienza tutta umana dei professionisti della cybersicurezza. I loro occhi e le loro menti sono allenati a combattere i malware e a fare in modo che utenti, aziende e infrastrutture lavorino e funzionino in totale sicurezza.