Kaspersky esorta ad un uso etico dell’IA nel campo della cybersecurity

Proponiamo sei principi per un uso etico dell’IA nel settore della cybersecurity che saranno presentati all’Internet Governance Forum globale.

Il rapido sviluppo dei sistemi di IA e i tentativi di integrarli in modo capillare sono fonte di ottimismo e di preoccupazione. L’IA può aiutare gli esseri umani in svariati ambiti, come il settore della cybersecurity ha potuto constatare in prima persona. Noi di Kaspersky utilizziamo l’apprendimento automatico o machine learning (ML) da quasi 20 anni e sappiamo bene che senza i sistemi di IA non sarebbe possibile difendersi dall’enorme varietà di minacce informatiche esistenti. In questo periodo abbiamo anche identificato un’ampia gamma di problemi associati all’IA, dall’addestramento su dati errati, agli attacchi dannosi ai sistemi di IA, fino all’utilizzo dell’IA per scopi non etici.

Diverse piattaforme di dialogo e organizzazioni internazionali hanno già sviluppato principi generali per una IA etica (ad esempio, qui trovate le raccomandazioni dell’UNESCO), ma linee guida più specifiche per il settore della cybersecurity non sono ancora state accettate da tutti.

Per utilizzare l’IA nel campo della cybersicurezza evitando conseguenze negative, proponiamo che il settore faccia propri una serie di principi etici sull’uso dell’IA. La prima versione di queste proposte verrà presentata all’Internet Governance Forum delle Nazioni Unite a Kyoto, in Giappone. Naturalmente, i principi devono essere discussi e chiariti in collaborazione con tutta community del settore della sicurezza informatica, ma noi li stiamo già applicando. Quali sono questi principi? Eccoli in breve.

Trasparenza

Gli utenti hanno il diritto di sapere se un security provider utilizza sistemi di intelligenza artificiale, nonché come questi sistemi prendono decisioni e per quali scopi. Per questo motivo ci impegniamo a sviluppare sistemi di IA che siano il più possibile interpretabili, con tutte le salvaguardie necessarie per garantire che producano risultati validi. Chiunque può conoscere il nostro codice e i nostri flussi di lavoro visitando uno dei nostri Kaspersky Transparency Center.

La sicurezza

Tra le minacce che incombono sui sistemi di IA vi è la manipolazione dei dataset di input per produrre decisioni inappropriate. Pertanto, riteniamo che gli sviluppatori di IA debbano dare priorità alla resilienza e alla sicurezza.

A tal fine, adottiamo tutta una serie di misure pratiche per fornire sistemi di IA di alta qualità: audit di sicurezza specifici per l’IA e red teaming; uso minimo di dataset di terzi nell’ambito dell’addestramento; implementazione di una serie di tecnologie per una protezione multi-stratificata. Ove possibile, privilegiamo l’IA basata sul cloud (con tutte le necessarie protezioni) rispetto ai modelli con installazione locale.

Controllo umano

Sebbene i nostri sistemi di ML possano operare autonomamente, i loro risultati e le loro prestazioni sono costantemente monitorati da esperti. I verdetti dei nostri sistemi automatizzati vengono perfezionati in base alle necessità e i sistemi stessi vengono adattati e modificati dagli esperti per resistere a cyberminacce nuove e/o altamente sofisticate. Combiniamo il machine learning con l’esperienza umana e ci impegniamo a mantenere sempre questo elemento umano di controllo nei nostri sistemi.

La privacy

L’IA non può essere addestrata senza i big data, che in parte possono includere dati personali. Pertanto, un approccio etico al suo utilizzo deve rispettare il diritto alla privacy delle persone. Nell’ambito dell’information security, ciò può comportare adottare diverse misure: limitare i tipi e la quantità di dati trattati; pseudonimizzare e anonimizzare; ridurre la composizione dei dati; garantire l’integrità dei dati; applicare misure tecniche e organizzative per proteggere i dati.

Sviluppato per la cybersecurity

L’IA nella cybersecurity deve essere utilizzata esclusivamente a scopo difensivo. Ciò costituisce parte integrante della nostra missione di costruire un mondo sicuro in cui le tecnologie di domani migliorino la vita di tutti noi.

Aperti al dialogo

Crediamo che solo lavorando insieme si possano superare gli ostacoli associati all’adozione e all’utilizzo dell’intelligenza artificiale nell’ambito della sicurezza. Per questo motivo, promuoviamo il dialogo con tutte le parti coinvolte per condividere le migliori pratiche rispetto ad un uso etico dell’IA.

Per saperne di più sui nostri principi e sulle nostre proposte rispetto all’uso etico dell’IA nel campo della sicurezza, visitate questa pagina.

Consigli