Man mano che le organizzazioni integrano l'IA nei sistemi mission-critical, la superficie di attacco si estende oltre cloud tradizionali cloud IT e cloud . ATLAS colma questa lacuna documentando scenari di attacco specifici per l'IA, comportamenti reali degli avversari e strategie di mitigazione su misura per gli ambienti basati sull'IA.
Che cos'è il framework MITRE ATLAS?
MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) è una base di conoscenze dinamica e accessibile al pubblico che cataloga le tattiche e le tecniche degli avversari che prendono di mira i sistemi basati sull'intelligenza artificiale. Ispirato al framework MITRE ATT&CK® ampiamente adottato, ATLAS è pensato su misura per le minacce, le vulnerabilità e i rischi specifici posti dalle tecnologie di intelligenza artificiale.
ATLAS è una risorsa curata basata su:
- Osservazioni relative ad attacchi reali
- Dimostrazioni del red team AI
- Ricerca sulla sicurezza da parte di governo, industria e mondo accademico
Descrive come gli avversari prendono di mira i sistemi di intelligenza artificiale e apprendimento automatico, inclusi comportamenti, tecniche e strumenti specifici o adattati ai contesti di intelligenza artificiale.
Dall'uso delle armi all'abuso delle infrastrutture: un cambiamento nell'attenzione degli aggressori
La stragrande maggioranza delle attività coinvolge attori malintenzionati che utilizzano l'IA generativa per accelerare le loro campagne attraverso attività quali:
- Scrivere phishing o script di ingegneria sociale
- Ricerca di vulnerabilità o tecniche
- Risoluzione dei problemi relativi malware allo sviluppo di strumenti
- Generazione di contenuti per truffe o identità false Ma un fenomeno ancora più preoccupante sta attirando l'attenzione: gli aggressori stanno utilizzando tattiche in continua evoluzione in cui lo sfruttamento delle risorse LLM cloud, come AWS Bedrock e Azure AI Foundry, è diventato un vettore sempre più diffuso per ottenere profitti e commettere abusi.

I modelli LLM pubblici possono generare testo o fornire assistenza nella scrittura di script, ma i modelli cloud sono profondamente integrati nei flussi di lavoro aziendali di alto valore. Questi sistemi offrono agli avversari l'accesso a risorse di calcolo, dati sensibili e ambienti di esecuzione affidabili.

Perché attaccare l'IA cloud invece dei modelli open source gratuiti?
Cloud come AWS Bedrock e Azure AI Foundry sono obiettivi interessanti perché:
- Esporre l'infrastruttura multi-tenant: una vulnerabilità nei componenti condivisi può avere un impatto su più clienti.
- Fornire accesso ai dati aziendali riservati: in particolare quando collegati ai flussi di lavoro RAG (retrieval-augmented generation), che migliorano le risposte LLM recuperando e inserendo dati aziendali da fonti di conoscenza collegate.
- Consentire l'abuso delle integrazioni di fiducia e identità: Cloud e i ruoli IAM possono essere sfruttati per l'escalation dei privilegi o il movimento laterale.
- Costo di funzionamento: gli aggressori possono sfruttare questa vulnerabilità dirottando le risorse di calcolo (LLMjacking).
L'abuso di queste piattaforme consente agli avversari di operare con maggiore discrezione e un maggiore ritorno sull'investimento rispetto all'utilizzo di API open source o pubbliche.
Perché gli avversari prendono di mira l'infrastruttura dell'IA generativa
Gli aggressori che prendono di mira i servizi GenAI cloud sono motivati da tre obiettivi principali: guadagno finanziario, esfiltrazione di dati e intento distruttivo. Il loro successo dipende in larga misura dal modo in cui ottengono l'accesso iniziale all'infrastruttura aziendale.
1. Guadagno finanziario
Gli aggressori potrebbero cercare di dirottare gli account aziendali o sfruttare infrastrutture configurate in modo errato per eseguire attività di inferenza non autorizzate, una tattica nota come LLMjacking. Possono anche abusare dei servizi cloud per ottenere calcoli gratuiti o accesso monetizzato ai modelli.
2. Esfiltrazione
Gli avversari più sofisticati mirano a estrarre modelli proprietari, dati di addestramento o documenti aziendali sensibili accessibili tramite sistemi RAG (retrieval-augmented generation). Anche le API di inferenza possono essere utilizzate in modo improprio per divulgare dati nel tempo.
3. Distruzione
Alcuni attori cercano di compromettere le prestazioni o la disponibilità del sistema lanciando attacchi denial-of-service, compromettendo i processi di addestramento o alterando i risultati dei modelli.

Sebbene l'uso improprio dei modelli linguistici pubblici (LLM) consenta alcune attività di attacco, i vantaggi strategici derivanti dal prendere di mira l'infrastruttura GenAI aziendale (accesso ai dati, scalabilità e sfruttamento della fiducia) lo rendono un vettore più attraente e di maggiore impatto.
Come MITRE ATLAS ti aiuta a comprendere e mappare queste minacce
MITRE ATLAS offre una visione strutturata delle tattiche e delle tecniche utilizzate nel mondo reale contro i sistemi di IA, che si riflettono direttamente nei rischi riscontrati in piattaforme come AWS Bedrock, Azure AI e altri servizi GenAI gestiti.
ATLAS copre un'ampia gamma di tecniche che vanno oltre quelle relative all'infrastruttura AIcloud, tra cui la ricognizione dei modelli AI, l'avvelenamento di modelli o set di dati open source, la compromissione dei plugin LLM e molte altre.
Ecco alcuni esempi di tecniche specifiche che un autore di minacce potrebbe sfruttare nel processo di attacco a un'infrastruttura AIcloud:
Accesso iniziale
- Conti validi (AML.T0012): gli avversari spesso acquisiscono credenziali legittime tramite phishing , credential stuffing o violazioni della catena di approvvigionamento.
- Sfruttare le applicazioni rivolte al pubblico (AML.T0049): gli endpoint poco protetti o esposti (ad esempio, assistenti RAG o API) possono essere utilizzati per ottenere un primo accesso ai sistemi GenAI.

Accesso al modello AI
- Accesso all'API di inferenza del modello AI (AML.T0040): Ottenere accesso diretto alle API di inferenza per eseguire query o carichi di lavoro non autorizzati.
- Prodotto o servizio basato sull'intelligenza artificiale (AML.T0047): mirato al software aziendale integrato con GenAI per manipolare l'output o estrarre dati interni.
Esecuzione
- LLM Prompt Injection (AML.T0051): Iniezione di input dannosi che sovvertono le barriere di protezione o la logica, in particolare nei sistemi RAG o integrati nel flusso di lavoro.
Evasione dei privilegi/Evasione delle difese
- LLM Jailbreak (AML.T0054): Elusione dei controlli del modello per sbloccare funzioni soggette a restrizioni o generare contenuti dannosi.

Scoperta
- Scopri la famiglia di modelli AI (AML.T0014): Identificazione dell'architettura del modello o delle caratteristiche del fornitore per personalizzare gli attacchi.
- Scopri i manufatti dell'intelligenza artificiale (AML.T0007): Individuazione di log, cronologie dei prompt o set di dati che rivelano informazioni interne al sistema.

Raccolta ed esfiltrazione
- Dati provenienti da archivi informativi (AML.T0036): Raccogliere dati strutturati/non strutturati recuperati tramite RAG o incorporati nei servizi di intelligenza artificiale.
- Esfiltrazione tramite API di inferenza AI (AML.T0024): estrarre lentamente i dati abusando del livello di inferenza.
- LLM Perdita di dati (AML.T0057): Provoca una fuga di dati involontaria attraverso query accuratamente elaborate.
Impatto
- Rifiuto del servizio di IA (AML.T0029): sovraccaricare o interrompere gli endpoint AI per ridurne la disponibilità.
- Danni esterni (AML.T0048): causano danni finanziari, reputazionali, legali o fisici abusando dei sistemi di IA o manipolando i risultati dell'IA in applicazioni critiche.

Queste tecniche illustrano come gli aggressori sfruttino ogni livello dell'infrastruttura AI: accesso, esecuzione, dati e impatto. MITRE ATLAS fornisce la mappatura necessaria ai team SOC per dare priorità ai rilevamenti, convalidare le difese e svolgere efficacemente attività di red teaming negli ambienti AI aziendali.
Come Vectra AI con MITRE ATLAS
Vectra AI la sua logica di rilevamento su MITRE ATLAS per aiutare i team SOC a identificare:
- Identità che accedono in modo sospetto a piattaforme GenAI come AWS Bedrock e Azure AI Foundry
- Tentativi di eludere le difese e ostacolare le indagini sull'abuso della GenAI
- Uso anomalo dei modelli GenAI compatibile con la compromissione cloud
Oltre a mettere in luce questi comportamenti, l'agente di prioritizzazione AI di Vectra amplifica l'attenzione degli analisti aumentando i profili di rischio delle identità associate ad accessi sospetti e abilitando modelli GenAI. Poiché Vectra AI un rilevamento senza agenti e basato sull'identità in ambienti cloud ibridi cloud SaaS, è in una posizione unica per rilevare minacce che gli strumenti tradizionali potrebbero trascurare, specialmente nei flussi di lavoro integrati con l'AI.
Panoramica della nostra attuale visibilità sulle tecniche e sottotecniche definite nel framework ATLAS di MITRE (pubblicato il 17 marzo 2025).
La situazione sta cambiando. L'IA generativa non è più solo uno strumento nelle mani degli hacker, ma è diventata essa stessa un obiettivo. E con la crescente diffusione nelle aziende, anche la sofisticazione di questi attacchi aumenterà. Utilizzando framework come MITRE ATLAS e implementando soluzioni come la Vectra AI , i team di sicurezza possono stare al passo con l'evoluzione delle minacce e garantire che l'IA offra valore senza compromettere l'integrità.


