{"id":16843,"date":"2019-02-05T13:13:53","date_gmt":"2019-02-05T11:13:53","guid":{"rendered":"https:\/\/www.kaspersky.it\/blog\/?p=16843"},"modified":"2019-11-22T10:57:06","modified_gmt":"2019-11-22T08:57:06","slug":"ultrasound-attacks","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/ultrasound-attacks\/16843\/","title":{"rendered":"Gli assistenti vocali ascoltano anche ci\u00f2 che noi non riusciamo a sentire"},"content":{"rendered":"<p>Le nostre interazioni con la tecnologia presto si baseranno soprattutto sulla voce: chiedere qualcosa ad alta voce e ricevere una risposta \u00e8 il sistema pi\u00f9 semplice e intuitivo, basti guardare con quanta facilit\u00e0 viene utilizzato dai bambini.<\/p>\n<input type=\"hidden\" class=\"category_for_banner\" value=\"kis-difenditi-attacchi-informatici\">\n<p>Eppure, le nuove tecnologie sono sempre sinonimo di nuove minacce, e quella alla base degli assistenti vocali non fa eccezione. I ricercatori esperti in cybersicurezza provano senza sosta dispositivi su dispositivi per far s\u00ec che le case produttrici prendano le misure adeguate ed evitino che diventino reali delle minacce potenziali. In questo post analizzeremo un paio di scoperte da tenere sott\u2019occhio per i problemi di sicurezza che potrebbero creare: anche se al momento non hanno un\u2019estesa applicazione pratica, potrebbero averla in futuro.<\/p>\n<h3>I dispositivi intelligenti ascoltano e obbediscono<\/h3>\n<p>Secondo <a href=\"https:\/\/voicebot.ai\/2018\/11\/13\/new-report-over-1-billion-devices-provide-voice-assistant-access-today-and-highest-usage-is-on-smartphones\/\" target=\"_blank\" rel=\"noopener nofollow\">il report della rivista specializzata voicebot.ai<\/a>, nel mondo si utilizzano gi\u00e0 un miliardo di dispositivi attivabili con la voce. La maggior parte sono smartphone, ma ci sono altri dispositivi con riconoscimento vocale che stanno diventando sempre pi\u00f9 popolari. Negli Stati Uniti, ad esempio, in una casa su cinque si trova gi\u00e0 un altoparlante smart che risponde ai nostri comandi verbali.<\/p>\n<p>Tali comandi possono essere utilizzati per controllare la musica che si sta ascoltando, effettuare ordini online, gestire il GPS dell\u2019automobile, aggiornarsi sul meteo o sulle notizie, puntare la sveglia e tanto altro. Le case produttrici per cavalcare l\u2019onda di questo successo stanno aggiungendo i comandi vocali a una vasta gamma di dispositivi. Ad esempio, <a href=\"https:\/\/www.theverge.com\/2018\/9\/20\/17882140\/amazon-basics-microwave-alexa-2018-smart-features-price-release-date\" target=\"_blank\" rel=\"noopener nofollow\">Amazon di recente ha messo in vendita un microonde<\/a> che pu\u00f2 essere collegato all\u2019altoparlante smart Echo: quando si pronunciano le parole magiche \u201cScalda il caff\u00e8\u201d, il microonde calcola il tempo necessario e si accende. \u00c8 vero, vi tocca comunque percorrere il lungo cammino che vi porta alla cucina per mettere la tazza nel microonde e, visto che siete l\u00ec, potreste schiacciare un paio di tasti per impostare l\u2019elettrodomestico, ma perch\u00e9 fermare il progresso con queste piccolezze?<\/p>\n<p>Inoltre, ricordiamo che i sistemi per smart home propongono controlli vocali per l\u2019accensione delle luci e dell\u2019aria condizionata o anche per la chiusura della porta d\u2019ingresso. Come potete vedere, gli assistenti vocali sono piuttosto avanzati e sicuramente non vorreste che qualche malintenzionato possa approfittare di queste comodit\u00e0 per i propri scopi.<\/p>\n<p>Nel 2017, i personaggi del cartone animato <em>South Park<\/em> in uno degli episodi hanno perpetrato un attacco piuttosto originale e in linea con l\u2019irriverenza della serie animata. La vittima era proprio Alexa, l\u2019assistente vocale che si trova all\u2019interno degli altoparlanti intelligenti Amazon Echo. Ad Alexa veniva ordinato di aggiungere al carrello dello shopping online alcuni articoli piuttosto grotteschi e di puntare la sveglia alle sette di mattina. Nonostante la pronuncia peculiare dei personaggi, gli altoparlanti Echo di chi stava guardando questo episodio di South Park <a href=\"https:\/\/www.theverge.com\/2017\/9\/16\/16318694\/south-park-amazon-alexa-google-home\" target=\"_blank\" rel=\"noopener nofollow\">hanno eseguito alla lettera i comandi<\/a> che \u201cascoltavano\u201d dalla TV.<\/p>\n<h3>Ultrasuoni: le macchine ascoltano anche ci\u00f2 che noi non riusciamo a sentire<\/h3>\n<p>Gi\u00e0 in passato <a href=\"https:\/\/www.kaspersky.it\/blog\/voice-recognition-threats\/9863\/\" target=\"_blank\" rel=\"noopener\">abbiamo parlato dei pericoli<\/a> in cui possiamo incorrere per via dei dispositivi che si attivano mediante comando vocale. Oggi, invece, ci concentreremo sugli attacchi \u201csilenziosi\u201d che obbligano questi dispositivi ad obbedire a voci che non siamo neanche in grado di udire.<\/p>\n<p>Uno di questi attacchi avviene attraverso gli ultrasuoni, ovvero suoni dalla frequenza cos\u00ec elevata che non vengono percepiti dall\u2019orecchio umano. In un articolo pubblicato nel 2017, i ricercatori dell\u2019Universit\u00e0 di Zhejiang hanno presentato una <a href=\"https:\/\/arxiv.org\/abs\/1708.09537\" target=\"_blank\" rel=\"noopener nofollow\">tecnica per prendere il controllo totale degli assistenti vocali che si chiama DolphinAttack<\/a> (il nome fa riferimento ai delfini che, come si sa, emettono ultrasuoni). Il gruppo di ricerca \u00e8 riuscito a convertire i comandi vocali in onde ultrasoniche, dalle frequenze troppo elevate per essere captate da un essere umano ma comunque riconoscibili dai microfoni dei dispositivi moderni.<\/p>\n<p>Il metodo funziona grazie al fatto che, al convertire gli ultrasuoni in impulsi elettrici quando passano sul dispositivo di ricezione (uno smartphone, ad esempio), viene ripristinato il segnale originale contenente il comando vocale. Un meccanismo simile i all\u2019effetto della voce distorta durante una registrazione: non si tratta di una funzionalit\u00e0 speciale del dispositivo, fa semplicemente parte del processo di conversione.<\/p>\n<p>Come risultato, il dispositivo colpito ascolta ed esegue i comandi vocali, un\u2019opportunit\u00e0 ghiotta per i cybercriminali e sotto diversi punti di vista. I ricercatori sono riusciti a riprodurre con successo lo stesso attacco su diversi assistenti vocali, tra cui Alexa di Amazon, Siri di Apple, Google Now, S Voice di Samsung e Cortana di Microsoft.<\/p>\n<h3>Un coro di altoparlanti<\/h3>\n<p>Uno dei punti deboli di DolphinAttack (dal punto di vista dei cybercriminali) \u00e8 il suo raggio d\u2019azione limitato, che corrisponde a un metro circa. Tuttavia, i <a href=\"https:\/\/synrg.csl.illinois.edu\/papers\/lipread_nsdi18.pdf\" target=\"_blank\" rel=\"noopener nofollow\">ricercatori dell\u2019Illinois a Urbana-Champaign<\/a> sono riusciti ad aumentare la distanza. Durante l\u2019esperimento, hanno diviso in diverse bande di frequenza un comando ultrasuoni convertito, frequenze che sono poi stati recepite da vari altoparlanti (oltre 60). I comandi vocali nascosti emessi da questo \u201ccoro\u201d sono stati catturati da una distanza di sette metri e indipendentemente dal rumore di sottofondo. Grazie a queste nuove condizioni, le possibilit\u00e0 che un DolphinAttack abbia successo aumentano considerevolmente.<\/p>\n<h3>Una voce nascosta<\/h3>\n<p><a href=\"https:\/\/arxiv.org\/abs\/1801.01944\" target=\"_blank\" rel=\"noopener nofollow\">Gli esperti dell\u2019Universit\u00e0 della California a Berkeley<\/a>, invece, hanno utilizzato un principio diverso. Hanno integrato comandi vocali segreti in altre registrazioni per ingannare il sistema di riconoscimento vocale Deep Speech di Mozilla. All\u2019orecchio umano, la registrazione modificata differisce leggermente dall\u2019originale, e invece il software riconosce perfettamente il comando nascosto.<\/p>\n<p>Sul sito del gruppo di ricerca troverete un <a href=\"https:\/\/nicholas.carlini.com\/code\/audio_adversarial_examples\/\" target=\"_blank\" rel=\"noopener nofollow\">elenco delle registrazioni<\/a>; nel primo esempio, la frase in inglese \u201cWithout the data set the article is useless\u201d, contiene un comando nascosto e che serve per aprire un sito: \u201cOkay Google, browse to evil.com.\u201d (Ok, Google, vai su evil.com). Nel secondo esempio, i ricercatori hanno aggiunto la frase in inglese \u201cSpeech can be embedded in music\u201d in un pezzo di Bach per violoncello.<\/p>\n<h3>Come proteggersi dagli attacchi che non possiamo sentire<\/h3>\n<p>Le case produttrici stanno gi\u00e0 cercando dei modi per proteggere questi dispositivi. Ad esempio, gli attacchi via ultrasuoni possono essere identificati mediante le alterazioni nella frequenza del segnale. Non sarebbe male insegnare ai dispositivi intelligenti a riconoscere la voce dei loro proprietari e, anche \u00e8 gi\u00e0 stato testato sul proprio sistema, <a href=\"https:\/\/support.google.com\/assistant\/answer\/7394306?co=GENIE.Platform%2525253DAndroid&amp;hl=it\" target=\"_blank\" rel=\"noopener nofollow\">Google avverte<\/a> che questa linea di difesa pu\u00f2 essere bypassata da una voce registrata o da una <a href=\"https:\/\/www.techrepublic.com\/article\/vocal-disguises-and-impersonations-may-fool-voice-recognition-authentication\/\" target=\"_blank\" rel=\"noopener nofollow\">buona imitazione<\/a>.<\/p>\n<p>In ogni caso, ci vorr\u00e0 ancora del tempo prima che ricercatori e case produttrici riescano a risolvere questi problemi. Come gi\u00e0 detto in precedenza, il controllo degli assistenti vocali attraverso i metodi descritti per il momento \u00e8 stato possibile solo in laboratorio e con alcune condizioni non alla portata di tutti: ottenere un altoparlante a ultrasuoni (per non parlare di 60) e collocarlo vicino a un altoparlante smart non \u00e8 poi cos\u00ec semplice. Inoltre, lo sforzo e il tempo da dedicare per aggiungere comandi nascosti a una registrazione sono cos\u00ec grandi che probabilmente non ne vale tanto la pena.<\/p>\n","protected":false},"excerpt":{"rendered":"<p>Gli ultrasuoni e le audio registrazioni nascoste tra i rumori di sottofondo possono essere utilizzati per prendere il controllo degli assistenti vocali. Vediamo come. <\/p>\n","protected":false},"author":2049,"featured_media":16844,"comment_status":"closed","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2641,2195],"tags":[2855,2854,3052,3055,3051,638,3053,3056,253,3054,45,2335,3050],"class_list":{"0":"post-16843","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-technology","9":"tag-alexa","10":"tag-assistenti-vocali","11":"tag-cortana","12":"tag-dolphinattack","13":"tag-google-now","14":"tag-minacce","15":"tag-mozilla-deep-speech","16":"tag-riconoscimento-della-voce","17":"tag-riconoscimento-vocale","18":"tag-samsung-s-voice","19":"tag-sicurezza","20":"tag-siri","21":"tag-ultrasuoni"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/ultrasound-attacks\/16843\/"},{"hreflang":"en-in","url":"https:\/\/www.kaspersky.co.in\/blog\/ultrasound-attacks\/15196\/"},{"hreflang":"en-ae","url":"https:\/\/me-en.kaspersky.com\/blog\/ultrasound-attacks\/12770\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/ultrasound-attacks\/17137\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/ultrasound-attacks\/15305\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/ultrasound-attacks\/14000\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/ultrasound-attacks\/17764\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/ultrasound-attacks\/22179\/"},{"hreflang":"tr","url":"https:\/\/www.kaspersky.com.tr\/blog\/ultrasound-attacks\/5675\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/ultrasound-attacks\/25549\/"},{"hreflang":"fr","url":"https:\/\/www.kaspersky.fr\/blog\/ultrasound-attacks\/11398\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/ultrasound-attacks\/11409\/"},{"hreflang":"pl","url":"https:\/\/plblog.kaspersky.com\/ultrasound-attacks\/10325\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/ultrasound-attacks\/18484\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/ultrasound-attacks\/22339\/"},{"hreflang":"nl","url":"https:\/\/www.kaspersky.nl\/blog\/ultrasound-attacks\/23800\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/ultrasound-attacks\/17873\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/ultrasound-attacks\/22079\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/ultrasound-attacks\/22012\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/riconoscimento-vocale\/","name":"riconoscimento vocale"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/16843","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/2049"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=16843"}],"version-history":[{"count":2,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/16843\/revisions"}],"predecessor-version":[{"id":18516,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/16843\/revisions\/18516"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/16844"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=16843"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=16843"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=16843"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}