Previsioni per il 2024: il ruolo dell'IA generativa nella sicurezza informatica  

30 novembre 2023
Team di ricerca Vectra AI
Sicurezza informatica
Previsioni per il 2024: il ruolo dell'IA generativa nella sicurezza informatica  

Nel 2023, l'IA generativa è diventata mainstream, con un numero sempre maggiore di persone in diverse regioni, settori e livelli di anzianità che hanno iniziato a sfruttare questa tecnologia. Nel rapporto di McKinsey "Lo stato dell'IA nel 2023: l'anno della svolta dell'IA generativa", il 79% degli intervistati afferma di aver avuto qualche esperienza con l'IA generativa sia sul lavoro che fuori dal lavoro, mentre il 22% dichiara di utilizzarla regolarmente nel proprio lavoro. 

Sebbene l'adozione e gli investimenti nell'IA generativa siano in aumento, il rapporto di McKinsey ha evidenziato che molte organizzazioni non stanno affrontando i potenziali rischi derivanti dall'IA generativa. Meno di un terzo degli intervistati ha dichiarato di aver adottato misure per ridurre l'uso di tecnologie avanzate di IA al fine di mitigare i rischi per la sicurezza informatica. 

L'ascesa dell'IA generativa nel mondo degli affari e della sicurezza informatica

Nel 2024, l'intelligenza artificiale generativa dovrebbe svolgere un ruolo ancora più centrale nel mondo degli affari e nella società. Secondo recenti studi, l'adozione dell'intelligenza artificiale generativa è destinata a crescere in modo esponenziale, con un aumento previsto del 30% nell'utilizzo in vari settori. Man mano che questi sistemi intelligenti basati sull'intelligenza artificiale e sull'apprendimento automatico diventano sempre più radicati nella nostra vita quotidiana, il panorama della sicurezza informatica è pronto ad affrontare sia sfide che innovazioni.

Di seguito, gli esperti di Vectra AI raccolto le loro previsioni relative all'intelligenza artificiale generativa in materia di sicurezza informatica per il 2024, sottolineando gli aspetti che tutti i team di sicurezza, i CISO e i responsabili SOC dovrebbero tenere ben presenti all'inizio del nuovo anno. 

IA generativa: uno strumento per l'innovazione e una sfida per la sicurezza informatica

Prepararsi al futuro: strategie di sicurezza informatica nell'era dell'intelligenza artificiale

Oliver Tavakoli, Chief Technology Officer, prevede che l'IA generativa comprometterà l'efficacia della sicurezza delle e-mail. "Inoltre, l'utilizzo dell'IA generativa negli attacchi di social engineering servirà da campanello d'allarme per far capire che le attuali linee di difesa della sicurezza sono inadeguate. Di conseguenza, mi aspetto che le organizzazioni si orientino verso approcci di sicurezza a valle come Zero Trust, microsegmentazione e meccanismi di rilevamento e risposta".

Implicazioni politiche: il ruolo dell'IA nelle elezioni e nell'integrità delle informazioni 

Sohrob Kazerounian, Distinguished AI Researcher che, in vista delle elezioni del 2024, l'intelligenza artificiale generativa influenzerà la sfiducia elettorale e la disinformazione. "L'ampia disponibilità di modelli di intelligenza artificiale generativa e la loro relativa facilità d'uso avranno effetti di vasta portata, dato che gli Stati Uniti sono attualmente in un anno elettorale. La disinformazione su larga scala, con contenuti di qualità (ad esempio, audio e video falsificati dei candidati, fiction prodotte in serie mascherate da notizie, ecc.) diventerà più facile che mai. L'incapacità di fidarsi dei propri sensi potrebbe portare a sfiducia e paranoia, compromettendo ulteriormente le relazioni sociali e politiche tra le persone".

Cambiamento nelle tendenze dell'IA: declino dei modelli linguistici di grande dimensione (LLM), aumento dei deep fake

Christian Borst, CTO EMEA, ritiene che l'uso diffuso dei modelli linguistici di grandi dimensioni (LLM) è destinato a svanire, mentre i deep fake sono destinati a crescere vertiginosamente. "Molte organizzazioni stanno esplorando modi per utilizzare i modelli linguistici di grandi dimensioni (LLM) dopo l'ondata iniziale di entusiasmo di quest'anno . Ma se si va oltre le apparenze, è chiaro che il fattore novità svanirà presto. Gli LLM sono in genere piuttosto difficili da utilizzare, perché non sono in grado di comprendere il contesto o fornire risultati affidabili, quindi il loro uso pratico su larga scala è limitato. Il prossimo anno assisteremo quindi a una riduzione del loro utilizzo da parte delle aziende, in attesa che questi strumenti diventino più funzionali e facili da usare. 

"Gli autori delle minacce dovranno affrontare gli stessi problemi nell'uso dei modelli di linguaggio grande (LLM), quindi probabilmente non assisteremo ad attività particolarmente complesse come la generazione di codice dannoso da parte dell'intelligenza artificiale. Tuttavia, possiamo aspettarci che i criminali informatici sfruttino l'intelligenza artificiale generativa per creare deep fake più realistici e sofisticati. Ciò darà loro maggiori possibilità di indurre gli utenti a fornire dati sensibili o a cliccare su qualcosa di dannoso attraverso phishing audio o visive più convincenti".

Panorama normativo: equilibrio tra innovazione e controllo nell'ambito dell'intelligenza artificiale

E quando si tratta di IA generativa (e di IA in generale), la regolamentazione e la politica avranno un ruolo importante nel 2024. Secondo Hitesh Sheth, Vectra AI , il futuro dell'IA dipenderà dalle decisioni normative. "Nel 2024, prevedo che assisteremo a progressi monumentali nella regolamentazione e nella politica dell'IA. Basandosi sull'ordine esecutivo del presidente Biden sull'intelligenza artificiale, i responsabili delle decisioni in tutti gli organismi governativi valuteranno e metteranno in atto regolamenti più concreti per frenare i rischi dell'IA e sfruttarne i vantaggi. Con la continua evoluzione dell'IA, sarà importante che questi regolamenti in fase di sviluppo trovino un equilibrio tra la promozione della trasparenza e la promozione della continua innovazione che sta avvenendo a un ritmo rapido".  

Sohrob Kazerounian, Distinguished AI Researcher, concorda, prevedendo che i dilemmi etici, legali e politici dell'IA porteranno a contenziosi legali. "Le questioni etiche, legali e socio-politiche relative all'intelligenza artificiale diventeranno sempre più spinose. Data la paralisi politica generale negli Stati Uniti, è improbabile che emergano rapidamente quadri normativi e giuridici solidi per regolamentare l'intelligenza artificiale. Aumenterà il numero di cause legali relative al materiale protetto da copyright utilizzato per addestrare modelli di intelligenza artificiale generativa".

Conclusione: adottare l'IA con cautela e responsabilità

Non c'è dubbio che l'IA generativa trasformerà in modo significativo il panorama della sicurezza informatica. Inoltre, ha il potenziale per migliorare gli strumenti di sicurezza, potenziare l'intelligence sulle minacce e trasformare i centri operativi di sicurezza. Mentre cogliamo queste opportunità, procediamo con cautela, armati di conoscenza, resilienza e impegno a rimanere un passo avanti in questa complessa danza.

L'IA generativa offre una nuova ed entusiasmante opportunità di utilizzare la tecnologia per aiutare nella lotta contro gli attacchi informatici, che è la missione fondante Vectra AI. Per saperne di più sull'IA alla base di Vectra Attack Signal Intelligence, scarica oggi stesso il nostro ultimo white paper.

Domande frequenti