Previsioni sulla sicurezza per il 2026: quando l'intelligenza artificiale potenzia l'attacco, la difesa deve evolversi

16 gennaio 2026
Fabien Guillot
Direttore, Marketing tecnico presso Vectra
Previsioni sulla sicurezza per il 2026: quando l'intelligenza artificiale potenzia l'attacco, la difesa deve evolversi

Ero a metà del mio caffè post-natalizio quando è arrivato il primo messaggio.

Non un "Buon Natale". Non un promemoria per gli arretrati.

Un avviso CVE.

CVE-2025-14847. MongoBleed.

In pochi minuti, Slack si è illuminato. Gli analisti che avrebbero dovuto essere offline sono tornati improvvisamente online. I dashboard sono stati aggiornati. L'esposizione è stata valutata. I sistemi sono stati identificati. Isolamento. Patch. Tutto questo, in fretta.

È così che inizia davvero il 2026 per i team di sicurezza.

Non con le risoluzioni.

Non con i mazzi strategici. Ma con il ricordo che gli aggressori non vanno in vacanza.

Ora che iniziamo questo nuovo anno, è tempo di pensare ai buoni propositi per l'anno nuovo. Personalmente, questo significa solitamente meno caffè e più sonno. Professionalmente, significa qualcosa di completamente diverso: previsioni!

Spoiler alert: il 2025 era già tutto incentrato sull'intelligenza artificiale. Ma se pensate che abbiamo raggiunto il picco dell'entusiasmo (o dell'impatto), significa che non avete prestato attenzione.

Il 2026 sarà ancora più importante. Lo slancio non ha rallentato. Semmai, sta accelerando. L'intelligenza artificiale sta sbloccando nuove capacità quasi ogni giorno, su entrambi i fronti. E sebbene ciò sia entusiasmante... è anche profondamente scomodo.

Allora, parliamo di cosa ci aspetta.

Previsione n. 1: l'offesa basata sull'intelligenza artificiale sta per diventare più potente (e molto temibile)

Cominciamo con l'ovvio avvertimento.

La sicurezza offensiva con l'intelligenza artificiale darà del filo da torcere ai difensori.

Nel 2025 abbiamo superato una soglia importante: per la prima volta, un penetration tester completamente autonomo e basato sull'intelligenza artificiale, XBOW,ha raggiunto il primo posto su HackerOne. Questo fatto dovrebbe far riflettere tutti coloro che si occupano di sicurezza. Non si è trattato di una prova di concetto, ma di un segnale.

Durante tutto l'anno abbiamo assistito a un'esplosione della ricerca e degli strumenti relativi al red team dell'IA:

· LLM personalizzati

· Sistemi a singolo agente

· Architetture multi-agente

· Soluzioni alternative di memoria a lungo termine per i limiti di contesto LLM e altre limitazioni.

E il ritmo non ha rallentato. Anzi, alcuni di questi sistemi sono ora competitivi e superano le prestazioni dei professionisti umani. Abbinati a modelli sempre più intelligenti, questi strumenti stanno diventando sempre più maturi e sofisticati, consentendo l'applicazione dell'IA in ogni fase della catena di uccisione.

Allo stesso tempo, abbiamo assistito a ricerche che danno da riflettere condotte dagli stessi grandi fornitori di IA. Anthropic, ad esempio, ha pubblicato risultati dettagliati che mostrano come i loro modelli siano già stati utilizzati in modo improprio, dallo malware all'ingegneria sociale su larga scala (qui e qui! Vale la pena leggerli per capire cosa stiamo affrontando oggi!!).

Le protezioni aiutano. Ma non sono ancora abbastanza robuste! I modelli open source non ne dispongono affatto. Il risultato?

Gli attacchi AI sono:

· Più facile da eseguire (minore barriera di competenza)

· Più complesso (multistadio, multidominio)

· Più evasivo (payload polimorfici, comportamento adattivo)

· Autonomo (autoguidato)

· Adattivo

· Implacabile (non c'è bisogno di dormire! Continua a provare!)

· Estremamente scalabile!!

Con l'evoluzione degli attacchi basati sull'intelligenza artificiale e la loro crescente efficienza, possiamo aspettarci un aumento significativo sia del volume degli attacchi che della velocità di esecuzione. Il tempo che intercorre tra l'accesso iniziale e la violazione sarà probabilmente ancora più breve rispetto al 2025.

Gli avversari non hanno più bisogno di una squadra. Possono mettere in piedi un esercito di agenti. Ciò rafforza qualcosa che i difensori già sanno ma non possono più ignorare: il rilevamento, la selezione e la prioritizzazione basati sull'intelligenza artificiale non sono più opzionali. Sono fondamentali per affrontare il crescente volume di attacchi, alla velocità richiesta!

La velocità e la portata sono importanti. E gli esseri umani da soli non riescono a stare al passo!

Previsione n. 2: il SOC basato sull'intelligenza artificiale è realtà

Gli agenti AI non sono arrivati silenziosamente nel SOC nel 2025: hanno fatto un'entrata trionfale.

L'emergere delle architetture agentiche, combinato con l'ascesa del Model Context Protocol (MCP), ha cambiato radicalmente ciò che è possibile fare. Gli agenti AI possono ora connettersi agli strumenti, interrogare i dati in tempo reale, arricchire il contesto e persino agire. Noi di Vectra AI abbiamo fatto leva su questa realtà rilasciando server MCP per le nostre piattaforme (qui e qui) perché, se l'AI deve aiutare a gestire il SOC, ha bisogno di un accesso programmatico di prima classe ai dati di sicurezza.

Nel 2025 abbiamo visto:

· I fornitori affermati di SIEM e SOAR si stanno riposizionando intorno alla narrativa del "SOC basato sull'intelligenza artificiale".

· Nuove startup emergenti come piattaforme SOC dedicate esclusivamente all'intelligenza artificiale

· Crescente interesse da parte dei CISO e dei consigli di amministrazione, spinto dal problema incessante del volume degli avvisi, dei tempi di indagine e del burnout/turnover degli analisti.

La necessità è evidente e, secondo il sondaggio Cybersecurity Innovations 2025 di Gartner, il 46% delle organizzazioni prevede di iniziare a utilizzare agenti di IA nelle operazioni di sicurezza nel 2026.

Ma ecco il problema.

L'adozione sarà in ritardo rispetto alla maturità, non perché la tecnologia non sia pronta, ma perché la fiducia, la governance e le competenze non lo sono!

Nel corso dell'ultimo anno ho parlato con un numero sufficiente di responsabili della sicurezza per individuare chiaramente questo schema. Tutti concordano sul fatto che l'IA abbia un ruolo importante nel SOC. Pochissimi però si sentono a proprio agio nell'iniziare a utilizzarla e lasciarla operare in modo autonomo nella produzione.

E quell'esitazione è giustificata.

Costruire, implementare, proteggere e mantenere un'infrastruttura SOC basata su agenti è difficile. L'adozione dell'MCP sta avvenendo più rapidamente della sua protezione. Quasi tutti i fornitori di SaaS offrono ora una qualche forma di funzionalità MCP. Agli agenti AI viene concesso l'accesso a strumenti che non sono mai stati progettati pensando all'uso da parte di agenti. Nel 2025 abbiamo già visto i primi segnali di allarme: La vulnerabilità MCP di Asana è stata un campanello d'allarme

I consigli di amministrazione stanno ora ponendo domande scomode, ma necessarie:

· Quali autorizzazioni hanno effettivamente i nostri agenti AI?

· Chi può controllare le loro azioni?

· Qual è il raggio d'azione se un agente viene compromesso?

· Possiamo almeno vedere quali strumenti stanno chiamando?

È qui che la conversazione cambia direzione.

Nel 2026, la governance degli agenti di IA diventa un problema di sicurezza a sé stante e una categoria di prodotti a sé stante.

Stiamo già vedendo i primi segnali:

· Startup come RunLayer e Aira Security che si concentrano sulla visibilità e il controllo MCP

· Capacità incentrate su:

o Controllo delle connessioni al server MCP

o Monitoraggio delle chiamate degli agenti

o Applicazione del principio del privilegio minimo per gli agenti di IA

Proprio come cloud ha dovuto maturare rapidamente, anche l'infrastruttura degli agenti dovrà:

· Parapetti

· Applicazione delle politiche

· Osservabilità

· Conformità fin dalla progettazione

Se il 2025 è stato l'anno della connessione degli agenti di IA a tutto, il 2026 sarà l'anno della riconquista del controllo.

Per piattaforme come Vectra AI, questa evoluzione è di fondamentale importanza. La piattaforma Vectra dispone già di una grande quantità di dati ad alta fedeltà, segnali di attacco, metadati di rete, comportamenti di identità e contesti di indagine. Rendere tutti questi dati accessibili a livello di programmazione

e in modo efficiente agli LLM non è solo una scelta architettonica, ma un prerequisito per un SOC AI funzionale. Date un'occhiata al mio blog di un paio di settimane fa sull'efficacia degli LLM per i casi d'uso SOC!

L'AI SOC è reale, ma nel 2026 la governance separerà la sperimentazione dalla produzione e l'ambizione dalla resilienza.

Previsione n. 3: l'intelligenza artificiale ombra e l'IAM agentico ridefiniscono la superficie di attacco

Nel 2025 sono esplose silenziosamente due sfide che non stanno scomparendo.

· IAM agentico

· Shadow AI

I dipendenti stanno implementando copiloti, LLM e agenti autonomi, spesso senza il coinvolgimento della sicurezza. Questi sistemi accedono ai dati, prendono decisioni e agiscono per conto degli utenti in modi che l'IAM tradizionale non è stato progettato per gestire.

L'impatto è profondo.

L'identità non è più solo una questione di uomo contro macchina.

È un agente che agisce per conto di... qualcos'altro.

L'intelligenza artificiale ombra non è solo un problema di governance.

È un moltiplicatore della superficie di attacco.

Se stai ancora modellando le minacce come:

utente → dispositivo → applicazione

sei già in ritardo.

Nel 2026, i team di sicurezza saranno costretti a:

· Tracciare esplicitamente le identità degli agenti

· Comprendere a quali dati gli agenti possono accedere e trasferire

· Rilevare gli abusi che non sembrano compromessi

Sottovalutare questo cambiamento sarebbe... un eufemismo.

E ancora una volta, la visibilità completa della rete diventa la rete di sicurezza, l'unico luogo in cui le "incognite sconosciute" finiscono per manifestarsi.

Previsione n. 4: gli attacchi ibridi e multivettoriali diventano la norma

Infine, mettiamo tutto insieme.

Agli aggressori non interessa:

· Il tuo organigramma

· I limiti dei tuoi strumenti

· I tuoi silos SOC

Vedono un'unica gigantesca superficie di attacco.

Non è una novità, ma nel 2025 è diventato innegabile.

Abbiamo visto gruppi come Scattered Spider, Storm-0501, APT41 e Volt Typhoon campagne che combinavano:

· Compromissione Cloud on-premise

· Abuso di identità e malware

· Tecniche di frode e tattiche di intrusione

I gruppi di ransomware si stanno evolvendo in piattaforme di estorsione completamente automatizzate:

· Individua automaticamente gli obiettivi

· Sfruttamento delle catene

· Crittografare ed esfiltrare

· Applicare pressione DDoS quando necessario

Diverse forze stanno guidando questo cambiamento:

· Ambienti ibridi onnipresenti con visibilità frammentata

· Orchestrazione assistita dall'intelligenza artificiale di campagne complesse

· Abuso di crediti e risorse che si confonde con le normali attività

Previsioni per il 2026:

La visibilità e la difesa devono essere unificate lungo l'intera catena di uccisione.

Gli strumenti isolati e i team isolati non sopravvivranno a questo cambiamento.

Gli attacchi ibridi richiedono un approccio ibrido.

Considerazione finale

Mentre ci avviciniamo al 2026, una cosa è certa: il problema della sicurezza non è più solo tecnico. È architettonico.

L'intelligenza artificiale sta ridefinendo contemporaneamente l'attacco, la difesa, l'identità e le operazioni. Le vecchie ipotesi - perimetri chiari, indagini condotte a ritmo umano, modelli di fiducia statici - stanno crollando più rapidamente di quanto la maggior parte delle organizzazioni riesca ad aggiornare i propri playbook.

Il successo in questa fase successiva non deriverà dall'adozione di ulteriori strumenti, ma dalla creazione di programmi di sicurezza osservabili, adattabili e resilienti fin dalla loro progettazione, anche quando alcune loro parti sono gestite da macchine.

L'intelligenza artificiale è già una realtà. La domanda è: la tua strategia di sicurezza è al passo con i tempi?

Domande frequenti