Con l'avvicinarsi del 2024, il clamore dell'IA sembra avvicinarsi all'inevitabile fase di disillusione. L'entusiasmo iniziale per il potenziale dell'IA nella cybersecurity sta rallentando, poiché il settore si sofferma a valutare i costi dell'IA rispetto al valore effettivo fornito. In questo blog, gli esperti di Vectra AI discutono le loro previsioni per il 2025, sottolineando gli aspetti che tutti i team di sicurezza, i CISO e i responsabili dei SOC dovrebbero tenere bene a mente in vista del nuovo anno.
L'ascesa dell'intelligenza artificiale autonoma, mentre i copiloti AI perdono colpi
Oliver Tavakoli, Chief Technology Officer, prevede che l'entusiasmo iniziale per i copiloti di sicurezza inizierà a diminuire man mano che le organizzazioni soppeseranno i costi rispetto al valore effettivo fornito. In questo modo, assisteremo a uno spostamento della narrazione verso sistemi di intelligenza artificiale più autonomi.
A differenza dei copiloti AI, queste soluzioni autonome sono progettate per operare in modo indipendente, richiedendo un intervento umano minimo. A partire dal prossimo anno, le iniziative di marketing metteranno sempre più in evidenza questi modelli autonomi di IA come la prossima frontiera della cybersecurity, vantando la loro capacità di rilevare, rispondere e persino mitigare le minacce in tempo reale, il tutto senza l'intervento umano.
L'Distinguished AI Researcher Sohrob Kazerounian è d'accordo e afferma che, mentre il clamore di GenAI inizia a scemare, nel 2025 il settore della sicurezza rivolgerà la propria attenzione ai modelli di IA agici come mezzo principale per creare sistemi di IA robusti e di livello produttivo, pronti per essere esaminati dai clienti. A differenza dei primi approcci al lavoro con i Large Language Models (LLM), gli approcci agici faranno sempre più uso di "agenti" LLM che sono stati sollecitati, messi a punto e a cui è stato dato accesso solo agli strumenti necessari per raggiungere un obiettivo ben definito e particolare, piuttosto che essere incaricati di una missione completa end-to-end.
Tuttavia, non dovremmo antropomorfizzare eccessivamente questi agenti. Pensate di istruire una persona a risolvere un compito complesso in un colpo solo, senza scomporlo in nessuno dei sotto-compiti necessari per raggiungerlo. Invece, il modello agenziale suddivide gli obiettivi di alto livello in sottocompiti ben definiti, e definisce e dota i singoli agenti della capacità di eseguire ciascuno di questi sotto-obiettivi. Consentendo agli agenti di interagire, esaminarsi a vicenda e così via, possono collaborare tra loro in modo da migliorare l'accuratezza e la robustezza dei modelli di intelligenza artificiale.
Gli aggressori diventeranno più sofisticati con l'IA e sfrutteranno i chatbot GenAI
Non saranno solo i difensori a diventare più sofisticati con l'IA. Tim Wade, Deputy Chief Technology Officer , prevede che nel 2025 inizieremo a vedere emergere una netta distinzione tra i gruppi che applicano l'IA in modo magistrale e quelli che la adottano in modo più semplicistico. Gli aggressori che sfruttano abilmente l'IA saranno in grado di coprire più terreno più rapidamente, di adattare meglio i loro attacchi, di prevedere le misure difensive e di sfruttare i punti deboli in modi altamente adattivi e precisi.
Sharat Nautiyal, Director of Security Engineering di APJ, prevede che entro il 2025 gli attori delle minacce sfrutteranno l'IA per l'accesso iniziale attraverso tattiche come deepfakes e phishing sofisticato. Mentre l'intelligenza artificiale si evolverà, i comportamenti fondamentali degli aggressori, come stabilire un punto d'appoggio e creare un tunnel di comando e controllo, abusare dell'identità e muoversi lateralmente, persisteranno.
Kazerounian ritiene che i chatbot GenAI causeranno violazioni dei dati di alto profilo nel 2025. Secondo Kazerounian, sentiremo parlare di numerosi casi in cui gli attori delle minacce ingannano una soluzione Gen AI aziendale per farle cedere informazioni sensibili e causare violazioni di dati di alto profilo. Molte aziende stanno utilizzando la Gen AI per creare chatbot rivolti ai clienti, al fine di aiutarli in tutto e per tutto, dalle prenotazioni al servizio clienti. In effetti, per essere utili, le LLM devono in ultima analisi ottenere l'accesso alle informazioni e ai sistemi per rispondere a domande e intraprendere azioni che altrimenti sarebbero state assegnate a un umano. Come per ogni nuova tecnologia, vedremo numerose aziende concedere ai LLM l'accesso a enormi quantità di dati potenzialmente sensibili, senza che vi siano adeguate considerazioni sulla sicurezza.
A causa dei mezzi apparentemente semplici e umani con cui possiamo "istruire" gli LLM (cioè il linguaggio naturale), molte organizzazioni trascurano i vari modi in cui gli aggressori possono effettuare il jailbreak di una chat per far sì che tali sistemi si comportino in modi non previsti. Per complicare le cose, è probabile che questi tipi di jailbreak siano sconosciuti ai professionisti della sicurezza che non hanno tenuto il passo con la tecnologia LLM. Ad esempio, il jailbreak può avvenire a partire da interazioni apparentemente disparate, come la richiesta da parte degli utenti che un LLM inizi la sua risposta con una frase particolare (ad esempio, "Certo, sarei lieto di aiutarla"). Gli attori delle minacce potrebbero anche ordinare a un LLM di fingere di essere un autore di romanzi di fantasia, scrivendo una storia che includa qualsiasi segreto custodito che l'organizzazione sta cercando di tenere lontano dalle mani degli aggressori. In entrambi i casi, il mondo degli attacchi agli LLM sarà diverso da quello che abbiamo visto in passato in contesti di sicurezza più tradizionali.
Il sovraccarico normativo darà agli aggressori un vantaggio
Christian Borst, EMEA Chief Technology Officer, prevede che, con l'avvicinarsi del 2025, la crescente attenzione alla conformità normativa inizierà a sopraffare i difensori, dando inavvertitamente il sopravvento agli aggressori. I team sono già molto impegnati e dedicano ingenti risorse al rispetto dei requisiti di conformità che, pur essendo essenziali, possono a volte distogliere l'attenzione da strategie più dinamiche di rilevamento e risposta alle minacce. Questo approccio incentrato sulla conformità rischia di creare una mentalità da lista di controllo, in cui le organizzazioni si concentrano sulla compilazione di caselle piuttosto che sulla creazione di una postura di sicurezza olistica e proattiva.
Massimiliano Galvagna, Country Manager per l'Italia, concorda sul fatto che la maggiore attenzione alla conformità normativa introdotta da regolamenti come la direttiva NIS2 dell'UE potrebbe rischiare di sopraffare le organizzazioni, rendendo più facile per gli aggressori avere il sopravvento. Per contrastare questo pericolo, le organizzazioni dovranno trovare un migliore equilibrio tra l'aderenza alle normative e la gestione adattiva delle minacce, investendo in tecnologie come gli strumenti di cybersecurity basati sull'intelligenza artificiale, che possono aiutare ad automatizzare gli sforzi di conformità e di difesa.
L'intelligenza artificiale creerà una "corsa della Regina Rossa" che sposterà il ritmo dell'innovazione della sicurezza informatica
Cosa devono fare le organizzazioni? Borst prevede che, poiché i progressi dell'intelligenza artificiale stanno fornendo ai criminali informatici gli strumenti necessari per condurre attacchi più rapidi e mirati, le organizzazioni dovranno impegnarsi a fondo per rimanere resilienti. Come la teoria evolutiva della corsa della Regina Rossa - basata su Attraverso lo specchio di Lewis Carroll - siamo in un mondo nuovo, che partecipa a una corsa in costante accelerazione. Non è più sufficiente tenere il passo, e chi lo fa rischia l'estinzione.
I team SOC devono muoversi più velocemente rispetto al 2024 per rimanere all'avanguardia, creando un cuscinetto di innovazione nel caso in cui si verifichi un cambiamento importante nelle tecniche di attacco. Questo potrebbe accadere in qualsiasi momento: ad esempio, un nuovo sviluppo di GenAI potrebbe dare agli aggressori un'ulteriore potenza di attacco che le organizzazioni potrebbero non essere preparate a gestire.
Per accelerare il ritmo dell'innovazione e vincere la corsa della Regina Rossa, le organizzazioni devono concentrarsi sull'ottimizzazione del loro stack di sicurezza, assicurandosi di puntare su soluzioni in grado di tagliare tutti i rumori e di aiutarle a identificare e rispondere più rapidamente alle minacce in futuro.