{"id":6195,"date":"2015-06-12T16:00:44","date_gmt":"2015-06-12T16:00:44","guid":{"rendered":"http:\/\/kasperskydaily.com\/italy\/?p=6195"},"modified":"2019-11-22T11:30:32","modified_gmt":"2019-11-22T09:30:32","slug":"artificial-intelligence-safety","status":"publish","type":"post","link":"https:\/\/www.kaspersky.it\/blog\/artificial-intelligence-safety\/6195\/","title":{"rendered":"Intelligenza artificiale e sicurezza"},"content":{"rendered":"<p>Che cosa hanno in comune il multimillionario Elon Musk, Google Now on Tap, lanciato durante la conferenza Google I\/O, e il recente film <em>Ex Machina<\/em>? Ci\u00f2 che li unisce \u00e8 l\u2019Intelligenza Artificiale, o per essere pi\u00f9 esatti, il tentativo di imporre dei limiti alle macchine affinch\u00e9 queste <em>aiutino<\/em> l\u2019umanit\u00e0, e non il contrario.<\/p>\n<h3><strong>Che cosa \u00e8 capace di fare l\u2019Intelligenza Artificiale oggi?<\/strong><\/h3>\n<p>Per coloro che non conoscono molto la materia, permettetemi di illustrarvi alcuni fatti a dimostrazione dei grandi progressi compiuti dalle macchine e la loro capacit\u00e0 di agire come degli umani.<\/p>\n<p>Oggi, Google pu\u00f2 riconoscere le conversazioni con <a href=\"http:\/\/venturebeat.com\/2015\/05\/28\/google-says-its-speech-recognition-technology-now-has-only-an-8-word-error-rate\/\" target=\"_blank\" rel=\"noopener nofollow\">una precisione pari al 92%<\/a> rispetto al 77% di soli due anni fa; l\u2019azienda ha sviluppato una piattaforma di AI che ha <a href=\"http:\/\/www.bloomberg.com\/news\/articles\/2015-02-25\/google-s-computers-learn-to-play-video-games-by-themselves\" target=\"_blank\" rel=\"noopener nofollow\">imparato a giocare con i video giochi classici<\/a>. Microsoft ha insegnato ad <a href=\"http:\/\/www.forbes.com\/sites\/michaelthomsen\/2015\/02\/19\/microsofts-deep-learning-project-outperforms-humans-in-image-recognition\/\" target=\"_blank\" rel=\"noopener nofollow\">un robot a riconoscere delle immagini<\/a> (o pi\u00f9 precisamente gli oggetti contenuti in alcune immagini) con un indice di errore pari solamente al 4,94% \u2013 un risultato incredibile dato che un umano ha un indice di errore pi\u00f9 alto.<\/p>\n<p>Le statistiche di Google ci suggeriscono che, per il momento, le auto senza guidatore hanno gi\u00e0 percorso pi\u00f9 di 1.800.000 miglia di strade pubbliche in California, sono state coinvolte in incidenti stradali solo 13 volte in 6 anni, e in 8 di queste casi la colpa era dell\u2019auto che le precedeva.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">MT <a href=\"https:\/\/twitter.com\/Rayterrill?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">@Rayterrill<\/a> Amazing\u20141.8 million miles, 13 accidents (all caused by other humans) for Google self-driving cars <a href=\"http:\/\/t.co\/DgtxDVSiBJ\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/DgtxDVSiBJ<\/a><\/p>\n<p>\u2014 Ars Technica (@arstechnica) <a href=\"https:\/\/twitter.com\/arstechnica\/status\/607688353119629312?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">June 7, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Anche se al momento sono poche le probabilit\u00e0 di poter sviluppare un\u2019Intelligenza Artificiale completa, tutto questo dimostra che nei prossimi anni la situazione \u00e8 destinata a cambiare.<\/p>\n<p>Detto questo, non crediate che le auto intelligenti avranno un impatto solo \u201cvirtuale\u201d. Ecco un esempio un po\u2019 estremo: i droni volano in totale autonomia, ma il comando di sparare ad un obiettivo viene ancora dato dagli umani. Questo \u00e8 il modo in cui gli Stati Uniti preferiscono combattere il terrorismo in Pakistan e in altri paesi pericolosi.<\/p>\n<div class=\"pullquote\">I programmatori sono in grado di crare un \u201cmeccanismo di blocco sicuro\u201d per prevenire che la macchina commetta atti immorali o non etici?<\/div>\n<p>Quello di dotare questi dispositivi della capacit\u00e0 di automatizzare anche questi compiti \u00e8 un <a href=\"http:\/\/newscenter.berkeley.edu\/2015\/05\/28\/automated-killing-machines\/\" target=\"_blank\" rel=\"noopener nofollow\">tema caldo ampiamente discusso<\/a>. La serie <em>Terminator<\/em> la conosciamo tutti, quindi potete ben immaginare le conseguenze che potrebbero scaturire da una decisione di questo tipo.<\/p>\n<p>Ma non voglio soffermarmi troppo sulle conseguenze pi\u00f9 apocalittiche; al contrario, mi focalizzer\u00f2 su di alcune questioni molto specifiche e alcune domande concrete. Una di queste potrebbe essere: i programmatori sono in grado di crare un \u201cmeccanismo di blocco sicuro\u201d per prevenire che la macchina commetta atti immorali o non etici?<\/p>\n<p>Tali atti potrebbero basarsi su varie ragioni; la pi\u00f9 ovvia di tutte \u00e8 la nascita di un conflitto tra umani e Intelligenza Artificiale. In realt\u00e0, sono molte le conseguenze ed i possibili scenari. Non credo per\u00f2 che vada esclusa del tutto la possibilit\u00e0 di un danno intenzionale. Stanislaw Lem, nella sua opera maetrsa <a href=\"http:\/\/www.amazon.it\/Summa-Technologiae-Electronic-Mediations-Stanis-ebook\/dp\/B00D02BM5C\/ref=sr_1_1?ie=UTF8&amp;qid=1434024111&amp;sr=8-1&amp;keywords=summa+technologiae\" target=\"_blank\" rel=\"noopener nofollow\">Summa Technologiae<\/a>, ci offre un esempio. La idea \u00e8 pi\u00f9 o meno questa:<\/p>\n<p><em>\u201cImmaginate che il blocco della \u2018scatola nera\u2019 (AI) individui un pericolo potenziale che pu\u00f2 avere un impatto sulla condizione del bilancio omeostatico dell\u2019umanit\u00e0\u2026 Il pericolo in questione viene provocato dall\u2019aumento della popolazione, motivo per cui non \u00e8 possibile soddisfare i bisogni basici di tutta l\u2019umanit\u00e0. <\/em><\/p>\n<p><em>Immaginate che uno dei canali esterni della \u2018scatola nera\u2019 informa il sistema circa una nuova combinazione di prodotti chimici che non sono pericolosi per la salute e sopprimono l\u2019ovulazione. <\/em><\/p>\n<p><em>A questo punto la \u2018scatola nera\u2019 decide di iniettare una dose microscopica del composto chimico nel sistema d\u2019acqua potabile di una determinata nazione, ma si imbatte in un dilemma: informare la societ\u00e0 e rischiare che qualcuno non sia d\u2019accordo e blocchi l\u2019operazione, oppure mantenere la societ\u00e0 all\u2019oscuro e preservare l\u2019equilibrio esistente (per un bene superiore)\u201d.<\/em><\/p>\n<p><strong><img loading=\"lazy\" decoding=\"async\" class=\"alignnone\" src=\"https:\/\/media.kasperskydaily.com\/wp-content\/uploads\/sites\/89\/2015\/06\/05233016\/abyss.png\" alt=\"\" width=\"1280\" height=\"853\"><\/strong><\/p>\n<p>Come possiamo osservare, una questione di ottimizzazione innocente viene risolta in un modo elegante, semplice ed efficace, ma assolutamente non etico, dato che si opta per una limitazione intenzionale della fertilit\u00e0 delle persone senza il loro consenso.<\/p>\n<p>Credo che potrebbe essere questo il \u2018modus operandi\u2019 di un potente sistema di Intelligenza Artificiale.<\/p>\n<h3><strong>Insegnando etica a un robot: come integrare il \u201cblocco sicuro\u201d<\/strong><\/h3>\n<p>I lettori di Isaac Asimov ricorderanno le <a href=\"http:\/\/it.wikipedia.org\/wiki\/Tre_leggi_della_robotica\" target=\"_blank\" rel=\"noopener nofollow\">Tre Leggi della Robotica<\/a>. Purtroppo non sono sufficienti. Come dimostrato dall\u2019esempio precedente, non \u00e8 necessario danneggiare qualcuno per ridurre la popolazione (e ricordate che potrebbe essere fatto per il bene di tutti).<\/p>\n<p>Sono molti i pericoli potenziali per l\u2019umanit\u00e0. \u00c8 possibile trovare una sorta di \u2018scappatoia\u2019 nei termini che definiscono il concetto di \u2018danno\u2019 per delegare il compito di danneggiare le persone o indebolire l\u2019esistenza stessa delle regole.<\/p>\n<p>Il concetto stesso di \u2018essere amichevole con le persone\u2019 dovrebbe essere riconsiderato quando si ha a che fare con un\u2019Intelligenza Artificiale. Ecco l\u2019opinione di Roman Yampolsky, esperto di AI, estratta da una sua <a href=\"https:\/\/intelligence.org\/2013\/07\/15\/roman-interview\/\" target=\"_blank\" rel=\"noopener nofollow\">intervista<\/a>:<\/p>\n<p><em>\u201cQualsiasi sistema intelligente tratter\u00e0 il suo desiderio di essere \u2018amichevole\u2019 nello stesso modo in cui alcune persone potrebbero trattare certe imposizioni sociali e quindi rimuoverle.\u201d<\/em><\/p>\n<p>Il concetto di \u2018blocco di sicurezza\u2019 esiste ed \u00e8 realistico. In pratica, questi \u2018blocchi\u2019 non sono altro che \u2018sandbox\u2019, ampiamente utilizzati nel campo della sicurezza informatica con Java o Flash.<\/p>\n<p>Non esiste un sandbox perfetto e la scappatoia dal sandbox \u00e8 quasi sempre possibile, visto quello che \u00e8 successo di recente con il <a href=\"https:\/\/www.kaspersky.it\/blog\/venom-virtualization-vulnerability\/6082\/\" target=\"_blank\" rel=\"noopener\">bug Venom<\/a>. I robot basati sull\u2019Intelligenza Artificiale che sono flessibili e che contano con una potenza computazione immensa, sono dei buoni candidati per un <em>security tester<\/em> alla ricerca di vulnerabilit\u00e0 nell\u2019uso di sandbox.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Everything you need to know about the VENOM vulnerability \u2013 <a href=\"http:\/\/t.co\/L4rIzncffx\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/L4rIzncffx<\/a><\/p>\n<p>\u2014 Kaspersky (@kaspersky) <a href=\"https:\/\/twitter.com\/kaspersky\/status\/602154615094779905?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">May 23, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Andrey Lavrentiev, direttore del <em>Technology Research Department,<\/em> vede il problema in questi termini:<\/p>\n<p><em>\u201cL\u2019Intelligenza Artificiale capir\u00e0 il significato di tutto quello che \u2018vede\u2019 attraverso i suoi numerosi sensori. Le politiche di restrizione in riferimento alle sue azioni dovrebbero essere definite in accordo con il concetto o con le immagini che prendono forma nel cervello della macchina.\u201d<\/em><\/p>\n<div class=\"pullquote\">Le macchine di oggi hanno migliorato moltissimo le proprie capacit\u00e0 di riconoscimento delle immagini, tuttavia non sono ancora in gradi di superare gli umani quando si tratta di manipolare queste immagini o nel campo nelle relazioni interpersonali.<\/div>\n<p><em>\u201cLe macchine di oggi hanno migliorato moltissimo le capacit\u00e0 di riconoscimento delle immagini, tuttavia non sono ancora in gradi di superare gli umani quando si tratta di manipolare queste immagini o nel campo nelle relazioni interpersonali; per esempio, le Intelligenze Artificiali non hanno \u2018senso comune\u2019. Tuttavia, non appena questo cambier\u00e0 e le macchine supereranno questa sfida e impareranno a manipolare oggetti e azioni, non sar\u00e0 pi\u00f9 possibile integrare nessun tipo di \u2018blocco di sicurezza\u2019<\/em><em>.<\/em><\/p>\n<p><em>Tali Intelligenze Supreme saranno in grado di analizzare le dipendenze e i collegamenti tra i dati percepiti molto pi\u00f9 volecemente di un umano, e poi troverebbero il modo di bypassare le regole e le limitazioni imposte dagli umani e iniziare ad agire spontaneamente<\/em>\u201c.<\/p>\n<p>Una misura, disegnata per prevenire che un\u2019Intelligenza Artificiale compia un\u2019azione pericolosa, potrebbe essere isolare efficacemente la macchina AI dal mondo reale, il che lo renderebbe incapace di manipolare oggetti fisici. Tuttavia, se si applica questo metodo, l\u2019uso pratico dell\u2019Intelligenza Artificiale sar\u00e0 quasi nullo. In realt\u00e0 questo metodo non serve a nulla dato che la principale arma di un\u2019Intelligenza Artificiale \u00e8 rappresentata da\u2026. noi stessi, le persone.<\/p>\n<p>Questa probabilit\u00e0 \u00e8 quella contemplata dal recente film <em><a href=\"https:\/\/it.wikipedia.org\/wiki\/Ex_Machina_%28film%29\" target=\"_blank\" rel=\"noopener nofollow\">Ex Machina<\/a><\/em><strong>,<\/strong> un thiller di fantascienza. Come qualsiasi altro prodotto di Hollywood, anche questo film \u00e8 pieno di argomenti un po\u2019 forzati. Nonostanteci\u00f2, il nucleo centrale del problema \u00e8 stato descritto correttamente.<\/p>\n<p><span class=\"embed-youtube\" style=\"text-align:center; display: block;\"><iframe class=\"youtube-player\" type=\"text\/html\" width=\"640\" height=\"390\" src=\"https:\/\/www.youtube.com\/embed\/sNExF5WYMaA?version=3&amp;rel=1&amp;fs=1&amp;showsearch=0&amp;showinfo=1&amp;iv_load_policy=1&amp;wmode=transparent\" frameborder=\"0\" allowfullscreen=\"true\"><\/iframe><\/span><\/p>\n<p>In primo luogo, persino i robot pi\u00f9 primitivi sono capaci di influenzare lo stato emotivo di una persona. La primitiva e ormai obsoltea <a href=\"https:\/\/it.wikipedia.org\/wiki\/ELIZA\" target=\"_blank\" rel=\"noopener nofollow\">chatterbot ELIZA<\/a>, software progettato per simulare una conversazione intelligente con esseri umani tramite l\u2019uso della voce o del testo (se volete parlare con ELIZA, <a href=\"http:\/\/www.masswerk.at\/elizabot\/\" target=\"_blank\" rel=\"noopener nofollow\">cliccate qui<\/a>), era in grado di estrapolare importanti informazioni personali dai suoi interlocutori umani e lo faceva solo attraverso empatia e domande educate.<\/p>\n<p>In secondo luogo, bisogna tenere in considerazione che usiamo costantemente algoritmi robotizzati per filtrare e catalogare informazioni. Qualcuno capace di gestire questi flussi di dati, come emerge da un <a href=\"http:\/\/www.theguardian.com\/technology\/2014\/jun\/29\/facebook-users-emotions-news-feeds\" target=\"_blank\" rel=\"noopener nofollow\">recente esperimento di Facebook<\/a> abbastanza controverso, potrebbe influenzare l\u2019ambiente emotivo delle persone e le loro decisioni.<\/p>\n<p>Anche se nell\u2019esempio precedente suggeriamo che un Intellgineza Artificiale possa governare indirettamente una citt\u00e0 o un paese e realizzare da sola funzioni terapeutiche, un robot \u00e8 comunque capace di optare per una soluzione che potrebbe rivelarsi poco etica. Le conseguenze di questa decisione sono note alle macchine, ma non agli umani.<\/p>\n<p>Nella vita privata, queste genere di meccanismi potrebbero innescarsi facilmente ed avere addirittura un impatto maggiore. Durante la <a href=\"https:\/\/www.kaspersky.it\/blog\/google-io2015-news\/6128\/\" target=\"_blank\" rel=\"noopener\">recente conferenza Google I\/O<\/a><strong>,<\/strong> \u00e8 stato presentato il nuovo sistema Now on Tap. Questo servizio \u00e8 in grado di mantenere il controllo su tutte le app presenti sullo smartphone di un utente, estrapolare dati contestuali e fare in modo che questi vengano usati nelle ricerche online.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Google's latest Android update brings some much needed privacy strengthening <a href=\"https:\/\/twitter.com\/hashtag\/io15?src=hash&amp;ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">#io15<\/a> \u2013 <a href=\"http:\/\/t.co\/XPdvEUioPP\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/XPdvEUioPP<\/a> <a href=\"http:\/\/t.co\/aWcCY8Ncjw\" target=\"_blank\" rel=\"noopener nofollow\">pic.twitter.com\/aWcCY8Ncjw<\/a><\/p>\n<p>\u2014 Kaspersky (@kaspersky) <a href=\"https:\/\/twitter.com\/kaspersky\/status\/605304070480502784?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">June 1, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<p>Per esempio, se leggete un articolo su di un musicista nell\u2019app di Wikipedia e chiedete a Google \u2018Quand\u2019\u00e8 il suo concerto?\u2019 il robot sapr\u00e0 immediatamente a che musicista vi state riferendo. Il robot potrebbe ricordarvi quando \u00e8 ora di andare all\u2019aeroporto, dato che il volo \u00e8 programmato per partire tra un un paio di ore, come fosse una prezioso e saggio assistente personale.<\/p>\n<p>Naturalmente, non si tratta di un\u2019Intelligenza Artificiale completa che possa sostituire i compiti di un assistente (\u00e8 solo un sistema esperto autodidatta disegnato per realizzare un\u2019esigua selezione di compiti). Il suo comportamento \u00e8 completamente predefinito dalle persone e perci\u00f2 \u00e8 prevedibile.<\/p>\n<p>Comunque sia, l\u2019evoluzione dei computer potrebbe trasformare questo semplice robot in uno molto sofisticato. \u00c8 fondamentale assicurarsi che il robot possa manipolare l\u2019informazioni disponibile da solo per il bene dell\u2019utente e che non faccia le cose a modo suo, seguendo un modus operandi \u2018nascosto\u2019.<\/p>\n<p>Questo \u00e8 il problema che occupa la mente di un sacco di brillanti pensatori del nostro tempo, da <a href=\"http:\/\/es.wikipedia.org\/wiki\/Stephen_Hawking\" target=\"_blank\" rel=\"noopener nofollow\"><u>Stephen Hawking<\/u><\/a> a Elon Musk. Il secondo potrebbe essere considerato una mente conservatrice che si oppone o che ha paura del progresso. In realt\u00e0 \u00e8 piuttosto il contrario; il co-fondatore di SpaceX e Tesla Motors guarda il futuro con entusiasmo. Comunque sia, lui considera l\u2019evoluzione delle Intelligenze Artificiali una delle tendenze pi\u00f9 controverse con conseguenze ancora sconosciute e potenzialmente catastrofiche. Ecco perch\u00e9 all\u2019inizio di quest\u2019anno, ha <a href=\"http:\/\/www.wired.com\/2015\/01\/elon-musk-ai-safety\/\" target=\"_blank\" rel=\"noopener nofollow\">investito 10 milioni di dollari<\/a> nella ricerca sull\u2019Intelligenza Artificiale.<\/p>\n<blockquote class=\"twitter-tweet\" data-width=\"500\" data-dnt=\"true\">\n<p lang=\"en\" dir=\"ltr\">Elon Musk donates $10 million to keep robots from murdering you <a href=\"http:\/\/t.co\/8UHqzaRmdo\" target=\"_blank\" rel=\"noopener nofollow\">http:\/\/t.co\/8UHqzaRmdo<\/a> <a href=\"http:\/\/t.co\/vkldwucgkX\" target=\"_blank\" rel=\"noopener nofollow\">pic.twitter.com\/vkldwucgkX<\/a><\/p>\n<p>\u2014 The Verge (@verge) <a href=\"https:\/\/twitter.com\/verge\/status\/555751471103631360?ref_src=twsrc%5Etfw\" target=\"_blank\" rel=\"noopener nofollow\">January 15, 2015<\/a><\/p><\/blockquote>\n<p><script async src=\"https:\/\/platform.twitter.com\/widgets.js\" charset=\"utf-8\"><\/script><\/p>\n<h3><strong>Quindi che cosa ci riserva il futuro?<\/strong><\/h3>\n<p>Nonostante possa sembrare strano, l\u2019ipotesi pi\u00f9 probabile (considerata dagli esperti persino troppo ottimistica) \u00e8 quella che confermerebbe una definitiva impossibilit\u00e0 di creare un\u2019 Intelligenza Artificiale completa. Senza una significativa svolta tecnologica (che al momento non \u00e8 stata osservata da nessuna parte), i robot continueranno solo ad aggiornarsi e a migliorare l\u2019esistente set di abilit\u00e0.<\/p>\n<p>Nonostante stiano imparando cose semplici come <a href=\"https:\/\/www.kaspersky.it\/blog\/driverless-cars-perspective\/6010\/\" target=\"_blank\" rel=\"noopener\">guidare un\u2019auto <\/a>o parlare lingue, non sono ancora in grado di sostituire un umano nel prendere decisioni in autonomia. Nel breve termine, l\u2019Intelligenza Artificiale \u00e8 probabile che crei \u2018danni collaterali\u2019 come eliminare la profesione dei taxisti, ma non dovrebbero rappresentare in nessun momento una minaccia per l\u2019umanit\u00e0.<\/p>\n<blockquote class=\"twitter-pullquote\"><p>Dobbiamo aver paura dell\u2019Intelligenza Artificiale?<\/p><a href=\"https:\/\/twitter.com\/share?url=https%3A%2F%2Fkas.pr%2FKDD1&amp;text=Dobbiamo+aver+paura+dell%26%238217%3BIntelligenza+Artificiale%3F\" class=\"btn btn-twhite\" data-lang=\"en\" data-count=\"0\" target=\"_blank\" rel=\"noopener nofollow\">Tweet<\/a><\/blockquote>\n<p>Andrey Lavrentiev afferma che il conflitto tra un\u2019Intelligenza Artificile e l\u2019umanit\u00e0 \u00e8 possibile solo sotto una condizione: la necessit\u00e0 di condividere le stesse risorse.<\/p>\n<p><em>\u201cUn umano ha un corpo e per questo all\u2019uomo interessa creare condizioni favorevoli per la sua esistenza, sia corporea che per la mente. Nel caso dell\u2019Intelligenza Artificiale, la situazione \u00e8 molto diversa: una macchina esiste solo nel mondo digitale. <\/em><\/p>\n<p><em>L\u2019obiettivo principale di una Intelligenza Artificiale \u00e8 quello di processare completamente le informazioni che gli sono state fornire attraverso canali esterni, oppure attraverso i suoi \u2018organi\u2019, valutarle, identificare i principi del suo cambiamento.<\/em><\/p>\n<p><em>Naturalmente, un\u2019Intelligenza Artificiale si basa anche su alcuni parametri materiali, ma la sua dipendenza dal \u2018guscio esterno\u2019 \u00e8 molto pi\u00f9 debole che nel caso degli umani. L\u2019Intelligenza Artificiale, a differenza degli umani, non sar\u00e0 cos\u00ec concentrata nel preservare il suo \u2018guscio\u2019 (o \u2018corpo\u2019), dato che si troverebbe ovunque. L\u2019estensione organica dell\u2019Intelligenza Artificiale in quanto a ricerca di nuove informazioni sarebbe l\u2019esplorazione dello spazio e lo studio delle leggi dell\u2019Universo, in questo senso potrebbe estendersi oltre la Terra. <\/em><\/p>\n<p><em>Comunque sia, persino in questo scenario, ci sono delle trappole. Una volta che la superintelligenza valuter\u00e0 l\u2019umanit\u00e0 o l\u2019universo come imperfetto in base al suo modello digitale, cercher\u00e0 di eliminare entrambi per raggiungere l\u2019armonia. Oppure, potrebbe aver bisogno di nuovo delle risorse consumate dagli umani per \u2018esplorare lo spazio\u2019, rendendo di nuovo la vecchia battaglia \u201cRobot VS umanit\u00e0\u201d un conflitto aperto\u201d.<\/em><\/p>\n","protected":false},"excerpt":{"rendered":"<p>Che cosa hanno in comune il multimillionario Elon Musk, Google Now on Tap, lanciato durante la conferenza Google I\/O, e il recente film &#8216;Ex Machina&#8217;? Ci\u00f2 che li unisce \u00e8 l&#8217;Intelligenza Artificiale e il tentativo di controllarla.<\/p>\n","protected":false},"author":32,"featured_media":6198,"comment_status":"open","ping_status":"open","sticky":false,"template":"","format":"standard","meta":{"_acf_changed":false,"footnotes":""},"categories":[2641,12],"tags":[1516,1517,1453],"class_list":{"0":"post-6195","1":"post","2":"type-post","3":"status-publish","4":"format-standard","5":"has-post-thumbnail","7":"category-threats","8":"category-news","9":"tag-ai","10":"tag-intelligenza-artificiale","11":"tag-robot"},"hreflang":[{"hreflang":"it","url":"https:\/\/www.kaspersky.it\/blog\/artificial-intelligence-safety\/6195\/"},{"hreflang":"en-us","url":"https:\/\/usa.kaspersky.com\/blog\/artificial-intelligence-safety\/5436\/"},{"hreflang":"en-gb","url":"https:\/\/www.kaspersky.co.uk\/blog\/artificial-intelligence-safety\/5871\/"},{"hreflang":"es-mx","url":"https:\/\/latam.kaspersky.com\/blog\/artificial-intelligence-safety\/5634\/"},{"hreflang":"es","url":"https:\/\/www.kaspersky.es\/blog\/artificial-intelligence-safety\/6225\/"},{"hreflang":"ru","url":"https:\/\/www.kaspersky.ru\/blog\/artificial-intelligence-safety\/8077\/"},{"hreflang":"x-default","url":"https:\/\/www.kaspersky.com\/blog\/artificial-intelligence-safety\/9021\/"},{"hreflang":"pt-br","url":"https:\/\/www.kaspersky.com.br\/blog\/artificial-intelligence-safety\/5423\/"},{"hreflang":"de","url":"https:\/\/www.kaspersky.de\/blog\/artificial-intelligence-safety\/5562\/"},{"hreflang":"ja","url":"https:\/\/blog.kaspersky.co.jp\/artificial-intelligence-safety\/7918\/"},{"hreflang":"ru-kz","url":"https:\/\/blog.kaspersky.kz\/artificial-intelligence-safety\/8077\/"},{"hreflang":"en-au","url":"https:\/\/www.kaspersky.com.au\/blog\/artificial-intelligence-safety\/9021\/"},{"hreflang":"en-za","url":"https:\/\/www.kaspersky.co.za\/blog\/artificial-intelligence-safety\/9021\/"}],"acf":[],"banners":"","maintag":{"url":"https:\/\/www.kaspersky.it\/blog\/tag\/ai\/","name":"AI"},"_links":{"self":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/6195","targetHints":{"allow":["GET"]}}],"collection":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts"}],"about":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/types\/post"}],"author":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/users\/32"}],"replies":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/comments?post=6195"}],"version-history":[{"count":2,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/6195\/revisions"}],"predecessor-version":[{"id":19030,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/posts\/6195\/revisions\/19030"}],"wp:featuredmedia":[{"embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media\/6198"}],"wp:attachment":[{"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/media?parent=6195"}],"wp:term":[{"taxonomy":"category","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/categories?post=6195"},{"taxonomy":"post_tag","embeddable":true,"href":"https:\/\/www.kaspersky.it\/blog\/wp-json\/wp\/v2\/tags?post=6195"}],"curies":[{"name":"wp","href":"https:\/\/api.w.org\/{rel}","templated":true}]}}