Il nuovo corso "Large Language Models Security", sviluppato dal Kaspersky AI Technology Research Center, ha l’obiettivo di fornire ai professionisti della sicurezza informatica le competenze fondamentali per comprendere, valutare e difendersi dalle vulnerabilità nei Large Language Models (LLM).
L’arrivo degli LLM ha rivoluzionato il modo in cui le aziende sviluppano e interagiscono con i sistemi di intelligenza artificiale (AI), introducendo al contempo nuove e complesse sfide in materia di sicurezza. Un recente studio di Kaspersky ha rivelato che già nel 2024 più della metà delle aziende ha implementato l’intelligenza artificiale e l’Internet of Things (IoT) all’interno della propria infrastruttura. Con il tempo, queste tecnologie stanno diventando sempre più integrate nei sistemi e nei processi aziendali: è quindi fondamentale comprendere come possano essere utilizzate per migliorare la sicurezza informatica.
Per rispondere a questa esigenza, Kaspersky ha ampliato il proprio ricco portfolio di corsi di formazione sulla cybersecurity con un nuovo corso online dedicato alla sicurezza dei modelli LLM. Progettato per offrire una base solida in questo settore innovativo, il corso fornisce ai professionisti le competenze necessarie per valutare le vulnerabilità, implementare difese efficaci e progettare sistemi di intelligenza artificiale resilienti. I partecipanti affronteranno casi reali e compiti pratici, affinando la propria capacità di implementare misure di sicurezza solide e migliorare la resilienza delle applicazioni basate su modelli LLM.
Il corso si basa sulla vasta esperienza del Kaspersky AI Technology Research Center, che da quasi vent’anni si dedica all’intelligenza artificiale applicata alla cybersecurity e alla sicurezza dell’IA, migliorando il rilevamento e la mitigazione di un’ampia gamma di minacce. Guidato da Vladislav Tushkanov, Research Development Group Manager di Kaspersky, il programma offre un’esperienza di apprendimento coinvolgente attraverso lezioni video, laboratori pratici ed esercizi interattivi, consentendo ai partecipanti di:
· Scoprire le tecniche di exploit come jailbreak, prompt injection e token smuggling, per comprendere come difendersi.
· Sviluppare strategie di difesa pratiche su vari livelli: modello, prompt, sistema e servizio.
· Applicare framework strutturati per valutare e migliorare la sicurezza degli LLM.
Questo corso è particolarmente utile per chiunque stia iniziando la propria carriera nella cybersecurity dell’IA, per gli ingegneri che sviluppano o integrano LLM e per gli esperti che lavorano a stretto contatto con le infrastrutture di intelligenza artificiale.
"La diffusione degli LLM ha cambiato il modo in cui le aziende sviluppano e utilizzano l’IA, aprendo nuove possibilità. Ma questo progresso tecnologico presenta anche sfide di sicurezza che richiedono attenzione. Per gli esperti di cybersecurity, acquisire la capacità di individuare, sfruttare e proteggersi da queste vulnerabilità è diventato fondamentale. Ecco perché abbiamo sviluppato questo corso specializzato: per fornire ai professionisti le conoscenze e gli strumenti pratici necessari per salvaguardare le applicazioni basate sugli LLM e rimanere all’avanguardia rispetto al panorama delle minacce in continua evoluzione", ha affermato Vladislav Tushkanov, Research Development Group Manager di Kaspersky.
Per iscriversi al corso e conoscere meglio il programma formativo, visitare il seguente link.
Kaspersky AI Technology Research Center
Gli esperti del Centro di ricerca tecnologica sull'intelligenza artificiale di Kaspersky lavorano da circa 20 anni con l'intelligenza artificiale nel campo della cybersecurity e della Secure AI per aiutare a individuare e contrastare le minacce di ogni tipo. Il team mette a disposizione le proprie competenze in materia di intelligenza artificiale, basate sulla ricerca, per migliorare le soluzioni dell'azienda, dal rilevamento delle minacce basato sull'intelligenza artificiale al rilevamento degli allarmi, fino alla Threat Intelligence basata sulla GenAI.