L'intelligenza artificiale è ora la superficie di attacco: Perché lo stack di sicurezza deve adattarsi rapidamente

19 giugno 2025
Lucie Cardiet
Responsabile marketing prodotti
L'intelligenza artificiale è ora la superficie di attacco: Perché lo stack di sicurezza deve adattarsi rapidamente

I sistemi di intelligenza artificiale, in particolare quelli basati su grandi modelli linguistici (LLM), non si limitano più ad aiutare i dipendenti a essere più produttivi. Stanno anche creando nuovi rischi che gli strumenti di sicurezza tradizionali non sono stati progettati per rilevare.

Queste minacce non si presentano sotto forma di malware o allegati phishing . Esse si manifestano attraverso la logica dell'intelligenza artificiale, l'uso improprio dell'identità e comportamenti difficili da vedere che si sviluppano all'interno dei servizi cloud e dei flussi di lavoro affidabili.

Ecco perché i team di sicurezza si rivolgono a framework come MITRE ATLAS, l'AI Risk Repository e la OWASP Top 10 for LLM Applications. Queste risorse aiutano le organizzazioni a capire in che modo gli aggressori stanno prendendo di mira l'IA e dove esistono ancora punti oscuri per la sicurezza.

La superficie di attacco dell'intelligenza artificiale sta esplodendo e la maggior parte dei SOC non riesce a vederla

L'intelligenza artificiale fa ormai parte delle operazioni aziendali quotidiane. Strumenti come copiloti, assistenti intelligenti e sistemi di ricerca basati sull'IA vengono utilizzati per migliorare l'assistenza ai clienti, automatizzare le analisi e ottimizzare lo sviluppo.

Ma questo cambiamento ha ampliato la superficie di attacco.

Nel nostro recente blog sulla sicurezza delle implementazioni AI Cloud , abbiamo illustrato come gli aggressori stiano già abusando di piattaforme come AWS Bedrock e Azure AI. Tecniche come il dirottamento delle risorse di calcolo, l'iniezione di messaggi dannosi e l'abuso delle identità cloud non sono teoriche: stanno già accadendo. Molte di queste minacce sono documentate in MITRE ATLASche tiene traccia del comportamento degli avversari nel mondo reale contro i sistemi di intelligenza artificiale.

L'intelligenza artificiale non è più solo uno strumento utilizzato in modo improprio. Ora è l'obiettivo stesso.

Due ulteriori strutture aggiungono un contesto critico:

  • Il Archivio dei rischi dell'IAguidato dal MIT, cataloga più di 770 rischi legati al modo in cui l'IA viene costruita, distribuita e utilizzata. Oltre il 65% di queste minacce si verifica dopo l'implementazione, dove la visibilità e il controllo sono spesso più deboli.
  • La OWASP Top 10 per le applicazioni LLM illustra le principali vulnerabilità specifiche dei modelli linguistici, tra cui la fuga di dati, la manipolazione dei prompt e l'eccesso di sistema.

Questi framework condividono un messaggio: le minacce odierne si sviluppano all'interno di sistemi e flussi di lavoro affidabili, non al di fuori del perimetro.

Gli strumenti tradizionali non li colgono perché non sono progettati per cercare nei punti giusti.

La 2025 Lista OWASP Top 10 per LLM e Gen AI

Tre quadri, un solo avvertimento: L'intelligenza artificiale crea un nuovo tipo di rischio

Capire come l'IA modifica il vostro modello di minaccia significa imparare da tre prospettive distinte ma complementari:

  • MITRE ATLAS mappa le tecniche reali utilizzate dagli aggressori, tra cui l'abuso delle API di inferenza dell'intelligenza artificiale e l'aggiramento delle restrizioni del modello.
  • L'AI Risk Repository evidenzia i punti in cui le cose possono andare storte nell'intero ciclo di vita dell'IA, dallo sviluppo all'implementazione.
  • La OWASP Top 10 per le applicazioni LLM si concentra su come le LLM possono essere sfruttate o manipolate in modi che non hanno mai fatto parte dei sistemi IT tradizionali.

Non si tratta di semplici strumenti accademici: spiegano ciò che potrebbe già mancare al vostro SOC. I sistemi di intelligenza artificiale si comportano in modo diverso. Prendono decisioni, rispondono in modo dinamico e interagiscono con i dati e gli utenti in modi che sfidano la logica di sicurezza convenzionale.

Ciò che accomuna tutti questi framework è la necessità di un rilevamento in tempo reale e basato sul comportamento. Regole statiche, firme o elenchi di malintenzionati noti non sono più sufficienti.

Dove gli strumenti di sicurezza tradizionali falliscono

Molte organizzazioni si affidano a strumenti creati per trovare malware, rilevare traffico insolito o bloccare accessi non autorizzati. Questi strumenti sono importanti, ma non sono stati progettati per i rischi specifici dell'intelligenza artificiale.

Ecco cosa non coglie la maggior parte degli strumenti di rilevamento tradizionali:

  • Un utente valido che esegue lavori non autorizzati su un servizio GenAI come AWS Bedrock, consumando risorse di calcolo e accumulando costi nascosti.
  • Un chatbot manipolato per far trapelare informazioni sensibili attraverso una serie di richieste accuratamente elaborate.
  • Una sottile modifica dei dati di addestramento che porta un modello di intelligenza artificiale a fornire risultati distorti o dannosi.

Questi tipi di incidenti non sembrano sospetti agli strumenti che si concentrano su file o endpoint. Appaiono come normali chiamate API, sessioni utente ordinarie o comportamenti di applicazioni affidabili, finché non è troppo tardi.

Mettere in pratica i quadri delle minacce dell'IA

La comprensione dei rischi è solo l'inizio. La vera sfida per i responsabili della sicurezza è quella di rendere operative queste conoscenze, facendole diventare parte del rilevamento e della risposta quotidiani.

Oggi la maggior parte dei SOC non è in grado di rispondere con sicurezza:

  • Chi accede ai servizi GenAI in tutta l'organizzazione?
  • Ci sono account che si comportano in modo insolito, come l'esecuzione di grandi lavori di inferenza a tarda notte?
  • I sistemi di IA vengono manipolati in modi che potrebbero portare all'esposizione dei dati o a violazioni delle policy?
  • È possibile rilevare se i guardrail di un modello di IA vengono aggirati?

La Vectra AI Platform affronta queste sfide mappando la sua logica di rilevamento comportamentale direttamente su MITRE ATLAS. Questo allineamento aiuta i team SOC a far emergere attività ad alto rischio che gli strumenti tradizionali spesso trascurano, quali:

  • Accesso sospetto alle piattaforme GenAI da parte di utenti o identità non tipicamente associate a tali servizi
  • Tentativi di eludere la registrazione o il monitoraggio durante l'interazione con il modello GenAI
  • Modelli di utilizzo insoliti che fanno pensare a una compromissione dell'account o a un abuso del modello.

Il motore di prioritizzazione guidato dall'intelligenza artificiale di Vectra migliora ulteriormente la produttività degli analisti aumentando automaticamente il profilo di rischio delle identità coinvolte nell'attività Genai, aiutando i team a concentrarsi su ciò che conta di più.

Poiché la piattaforma offre una visibilità agentless e identity-first su ambienti cloud ibridi e SaaS, è in una posizione unica per rilevare le minacce legate all'AI senza richiedere modifiche ai modelli o all'infrastruttura. Ciò la rende particolarmente efficace negli ambienti di produzione dove GenAI è profondamente integrata nei flussi di lavoro.

L'intelligenza artificiale non è più solo uno strumento, è un obiettivo

Con l'accelerazione dell'adozione dell'IA da parte delle aziende, gli aggressori si stanno adattando rapidamente. Le tecniche descritte nel MITRE ATLAS non sono più di nicchia, ma stanno diventando tattiche comuni per sfruttare i moderni sistemi di IA.

Allineando il vostro programma di sicurezza a questi framework e implementando soluzioni come Vectra AI Platform, il vostro team può passare dalla visibilità passiva al rilevamento proattivo. Otterrete il contesto necessario per rilevare le minacce dell'intelligenza artificiale in tempo reale, proteggere gli LLM cloud e ridurre il rischio che i vostri investimenti in GenAI diventino punti di ingresso per gli aggressori.

🎧 Volete saperne di più sui rischi di GenAI in Microsoft 365?
Ascoltate i nostri episodi del Podcast Hunt Club per scoprire come Vectra AI colma le lacune di visibilità nelle implementazioni Copilot:
- Briefing sulle minacce: Come gli aggressori stanno aggirando la sicurezza di SharePoint utilizzando Copilot
- Threat Briefing: Copilot per M365 Attack Surface
- Product Briefing: Rilevamento dell'abuso di Microsoft Copilot per M365 da parte degli attaccanti

Esplorate la nostra demo autoguidata o contattate il nostro team per scoprire come Vectra AI può aiutarvi a difendere il futuro della vostra azienda.

DOMANDE FREQUENTI