L'intelligenza artificiale è ora la superficie di attacco: perché il tuo stack di sicurezza deve adattarsi rapidamente

19 giugno 2025
Lucie Cardiet
Responsabile della ricerca sulle minacce informatiche
L'intelligenza artificiale è ora la superficie di attacco: perché il tuo stack di sicurezza deve adattarsi rapidamente

I sistemi di intelligenza artificiale (in particolare quelli basati su modelli linguistici di grandi dimensioni) non aiutano più solo i dipendenti a essere più produttivi. Stanno anche creando nuovi rischi che gli strumenti di sicurezza tradizionali non sono in grado di rilevare.

Queste minacce non si presentano sotto forma di malware phishing . Si manifestano attraverso la logica dell'intelligenza artificiale, l'uso improprio delle identità e comportamenti difficili da individuare che si sviluppano all'interno cloud e dei flussi di lavoro affidabili.

Ecco perché i team di sicurezza stanno passando a framework come MITRE ATLAS, AI Risk Repository e OWASP Top 10 per le applicazioni LLM. Queste risorse aiutano le organizzazioni a comprendere in che modo gli aggressori prendono di mira l'IA e dove esistono ancora punti ciechi nella sicurezza.

La superficie di attacco dell'IA sta esplodendo e la maggior parte dei SOC non è in grado di vederla

L'intelligenza artificiale è ormai parte integrante delle operazioni aziendali quotidiane. Strumenti quali copiloti, assistenti intelligenti e sistemi di ricerca basati sull'intelligenza artificiale vengono utilizzati per migliorare l'assistenza clienti, automatizzare le analisi e ottimizzare lo sviluppo.

Ma questo cambiamento ha ampliato la superficie di attacco.

Nel nostro recente blog sulla sicurezza delle implementazioni Cloud , abbiamo illustrato come gli hacker stiano già abusando di piattaforme come AWS Bedrock e Azure AI. Tecniche quali il dirottamento delle risorse di calcolo, l'iniezione di prompt dannosi e l'abuso cloud non sono teoriche, ma stanno già avvenendo. Molte di queste minacce sono documentate in MITRE ATLAS, che tiene traccia dei comportamenti reali degli avversari nei confronti dei sistemi di intelligenza artificiale.

L'intelligenza artificiale non è più solo uno strumento utilizzato in modo improprio. Ora è diventata l'obiettivo stesso.

Due ulteriori contesti aggiungono un contesto critico:

  • Il AI Risk Repository, guidato dal MIT, cataloga oltre 770 rischi relativi alla creazione, all'implementazione e all'utilizzo dell'IA. Oltre il 65% di queste minacce si verifica dopo l'implementazione, quando la visibilità e il controllo sono spesso più deboli.
  • La OWASP Top 10 per le applicazioni LLM delinea le principali vulnerabilità specifiche dei modelli linguistici, tra cui la fuga di dati, la manipolazione dei prompt e l'eccessiva estensione del sistema.

Questi framework condividono un unico messaggio: le minacce odierne si stanno sviluppando all'interno di sistemi e flussi di lavoro affidabili, non al di fuori del perimetro.

Gli strumenti tradizionali non li rilevano perché non sono progettati per cercare nei posti giusti.

La Elenco OWASP Top 10 2025 per LLM e Gen AI

Tre scenari, un avvertimento: l'IA crea un nuovo tipo di rischio

Comprendere in che modo l'IA modifica il modello di minaccia significa apprendere da tre prospettive distinte ma complementari:

  • MITRE ATLAS mappa le tecniche reali utilizzate dagli aggressori, compreso l'abuso delle API di inferenza AI e l'aggiramento delle restrizioni dei modelli.
  • L'AI Risk Repository evidenzia i punti critici dell'intero ciclo di vita dell'IA, dallo sviluppo all'implementazione.
  • La Top 10 OWASP per le applicazioni LLM si concentra su come gli LLM possono essere sfruttati o manipolati in modi che non hanno mai fatto parte dei sistemi IT tradizionali.

Non si tratta semplicemente di strumenti accademici, ma di elementi che spiegano ciò che potrebbe già mancare al vostro SOC. I sistemi di IA si comportano in modo diverso. Prendono decisioni, rispondono in modo dinamico e interagiscono con i dati e gli utenti in modi che sfidano la logica di sicurezza convenzionale.

Ciò che accomuna tutti questi framework è la necessità di un rilevamento in tempo reale basato sul comportamento. Regole statiche, firme o elenchi di malintenzionati noti non sono più sufficienti.

Dove gli strumenti di sicurezza tradizionali non sono sufficienti

Molte organizzazioni si affidano a strumenti creati per individuare malware, rilevare traffico insolito o bloccare accessi non autorizzati. Questi strumenti sono importanti, ma non sono stati progettati per i rischi specifici dell'IA.

Ecco cosa sfugge alla maggior parte degli strumenti di rilevamento legacy:

  • Un utente valido che esegue lavori non autorizzati su un servizio GenAI come AWS Bedrock, consumando risorse di calcolo e accumulando costi nascosti.
  • Un chatbot manipolato per divulgare informazioni sensibili attraverso una serie di prompt accuratamente studiati.
  • Una sottile modifica nei dati di addestramento che porta un modello di IA a fornire risultati distorti o dannosi nel lungo periodo.

Questo tipo di incidenti non sembrano sospetti agli strumenti incentrati sui file o sugli endpoint. Appaiono come normali chiamate API, sessioni utente ordinarie o comportamenti affidabili delle applicazioni, finché non è troppo tardi.

Mettere in pratica i modelli di minaccia dell'IA

Comprendere i rischi è solo l'inizio. La vera sfida per i responsabili della sicurezza è rendere operative queste conoscenze, integrandole nelle attività quotidiane di rilevamento e risposta.

Oggi, la maggior parte dei SOC non è in grado di rispondere con sicurezza:

  • Chi accede ai servizi GenAI all'interno dell'organizzazione?
  • Ci sono account che si comportano in modo insolito, ad esempio eseguendo grandi lavori di inferenza a tarda notte?
  • Esistono sistemi di IA che vengono manipolati in modi che potrebbero portare all'esposizione dei dati o a violazioni delle politiche?
  • È possibile rilevare se le barriere di protezione di un modello di IA vengono aggirate?

Vectra AI affronta queste sfide mappando la sua logica di rilevamento comportamentale direttamente su MITRE ATLAS. Questo allineamento aiuta i team SOC a individuare attività ad alto rischio che gli strumenti tradizionali spesso trascurano, come ad esempio:

  • Accesso sospetto alle piattaforme GenAI da parte di utenti o identità non tipicamente associati a tali servizi
  • Tentativi di eludere la registrazione o il monitoraggio durante l'interazione con il modello GenAI
  • Modelli di utilizzo insoliti che suggeriscono una compromissione dell'account o un abuso del modello

Il motore di prioritizzazione basato sull'intelligenza artificiale di Vectra migliora ulteriormente la produttività degli analisti aumentando automaticamente il profilo di rischio delle identità coinvolte nell'attività GenAI, aiutando i team a concentrarsi su ciò che conta di più.

Poiché la piattaforma offre una visibilità senza agenti e incentrata sull'identità in ambienti cloud ibridi cloud SaaS, è in una posizione privilegiata per rilevare le minacce legate all'IA senza richiedere modifiche ai modelli o all'infrastruttura. Ciò la rende particolarmente efficace negli ambienti di produzione in cui GenAI è profondamente integrata nei flussi di lavoro.

L'intelligenza artificiale non è più solo uno strumento, è un obiettivo

Con l'accelerazione dell'adozione dell'IA da parte delle imprese, gli aggressori si stanno adattando rapidamente. Le tecniche descritte nel MITRE ATLAS non sono più di nicchia, ma stanno diventando tattiche comuni per sfruttare i moderni sistemi di IA.

Allineando il vostro programma di sicurezza a questi framework e implementando soluzioni come la Vectra AI , il vostro team potrà passare da una visibilità passiva a un rilevamento proattivo. Otterrete il contesto necessario per rilevare le minacce AI in tempo reale, proteggere gli LLM cloud e ridurre il rischio che i vostri investimenti in GenAI diventino punti di accesso per gli aggressori.

🎧 Vuoi saperne di più sui rischi della GenAI in Microsoft 365?
Ascolta i nostri episodi Hunt Club per scoprire come Vectra AI le lacune di visibilità nelle implementazioni di Copilot:
• Briefing sulle minacce: come gli aggressori aggirano la sicurezza di SharePoint utilizzando Copilot
• Briefing sulle minacce: Copilot per M365 Attack Surface
• Briefing sul prodotto: rilevamento dell'uso improprio di Microsoft Copilot per M365 da parte degli aggressori

Esplora la nostra demo autoguidata o contatta il nostro team per scoprire come Vectra AI aiutarti a difendere il futuro della tua azienda.

Domande frequenti