MITRE ATLAS spiegato: la guida completa all'intelligence sulle minacce alla sicurezza dell'IA

Approfondimenti chiave

  • MITRE ATLAS catalogs 16 tactics, 84 techniques, and 56 sub-techniques specifically targeting AI and machine learning systems, up from 15 tactics and 66 techniques as of October 2025.
  • The November 2025 framework update (v5.1.0) expanded to 16 tactics, 84 techniques, 32 mitigations, and 42 case studies, with continued updates through February 2026 adding agentic AI techniques.
  • ATLAS integra, anziché competere con OWASP LLM Top 10 e NIST AI RMF: utilizzate tutti e tre per una copertura completa.
  • Circa il 70% delle misure di mitigazione ATLAS corrisponde a controlli di sicurezza esistenti, rendendo pratica l'integrazione con gli attuali flussi di lavoro SOC.
  • Strumenti gratuiti quali ATLAS Navigator e Arsenal consentono la modellazione immediata delle minacce e funzionalità di red teaming.

Organizations deploying artificial intelligence face a new frontier of security threats that traditional frameworks were never designed to address. AI-enabled adversary attacks surged 89% compared to prior years according to industry threat intelligence research, up from a 72% increase reported in 2025. This escalation demands a structured approach to understanding and defending against adversarial threats to AI systems. Enter MITRE ATLAS — the Adversarial Threat Landscape for Artificial-Intelligence Systems — a comprehensive adversarial ML knowledge base designed specifically to catalog how attackers target machine learning and AI systems.

Per i team di sicurezza che hanno già familiarità con MITRE ATT&CK, ATLAS (talvolta indicato come Atlas MITRE nelle ricerche) rappresenta una naturale estensione nel campo della sicurezza AI. Questa guida fornisce tutto ciò di cui gli analisti della sicurezza, i responsabili SOC e gli ingegneri AI hanno bisogno per rendere operativo ATLAS contro gli attacchi AI avversari, dai fondamenti del framework alle strategie di rilevamento pratiche.

Che cos'è MITRE ATLAS?

MITRE ATLAS (Adversarial Threat Landscape for Artificial-Intelligence Systems) is a globally accessible adversarial ML knowledge base that documents adversary tactics, techniques, and procedures (TTPs) specifically targeting artificial intelligence and machine learning systems. Modeled after the widely adopted MITRE ATT&CK framework, this adversarial AI knowledge base provides security teams with a structured approach to understanding, detecting, and defending against AI-specific threats. The MITRE ATLAS framework serves as the definitive machine learning security framework for AI threat modeling.

As of version 5.1.0 (November 2025), the framework contains 16 tactics, 84 techniques, 56 sub-techniques, 32 mitigations, and 42 real-world case studies according to the official MITRE ATLAS CHANGELOG, up from 15 tactics and 66 techniques in October 2025. The February 2026 update (v5.4.0) added further agent-focused techniques. This rapid growth reflects the accelerating evolution of AI threats.

Il machine learning avversario, ovvero lo studio degli attacchi ai sistemi di machine learning e delle relative difese, comprende quattro categorie principali di attacchi, come documentato dal NIST: attacchi di evasione, avvelenamento, privacy e abuso. ATLAS organizza questi modelli di attacco in una struttura a matrice che gli esperti di sicurezza possono utilizzare immediatamente.

MITRE ha creato ATLAS per colmare una lacuna critica nel panorama della sicurezza. Sebbene ATT&CK cataloghi efficacemente le minacce alle infrastrutture IT e OT tradizionali, non copre gli attacchi che sfruttano le caratteristiche uniche dei sistemi di apprendimento automatico. ATLAS colma questa lacuna fornendo lo stesso approccio rigoroso e convalidato dalla comunità all'intelligence sulle minacce AI.

Il framework si collega anche a MITRE D3FEND, che fornisce contromisure difensive che le organizzazioni possono mappare rispetto alle tecniche ATLAS.

ATLAS vs MITRE ATT&CK: differenze principali

Comprendere la differenza tra ATLAS e ATT&CK aiuta i team di sicurezza a determinare quando applicare ciascun framework.

Tabella: Confronto tra i framework MITRE ATT&CK MITRE ATLAS

Aspetto MITRE ATT&CK MITRE ATLAS
Obiettivo principale Comportamenti tradizionali degli avversari IT/OT Comportamenti ostili specifici dell'IA/ML
Conteggio tattico 14 tattiche (Enterprise) 16 tactics (14 inherited + 2 AI-specific)
Conteggio delle tecniche 196+ tecniche 84 techniques
Tattiche uniche Nessuno specifico per l'IA Accesso al modello ML, preparazione dell'attacco ML
Sistemi target Endpoint, reti, cloud Modelli ML, pipeline di addestramento, LLM
Casi di studio Gruppi e profili software 42 AI-specific incident analyses
Ideale per Modellizzazione delle minacce Endpoint Modellizzazione delle minacce dei sistemi di intelligenza artificiale

ATLAS eredita 13 tattiche da ATT&CK, tra cui Ricognizione, Accesso iniziale, Esecuzione ed Esfiltrazione, ma le applica specificamente ai contesti di IA. Le due tattiche specifiche per l'IA esclusive di ATLAS sono:

  • Accesso al modello ML (AML.0004): Descrive come gli avversari ottengono l'accesso ai modelli ML di destinazione tramite API di inferenza o accesso diretto agli artefatti.
  • Attacco ML Staging (AML.0012): Descrive come gli avversari preparano gli attacchi mirati ai modelli ML, compreso il danneggiamento dei dati di addestramento e porta sul retro inserimento

I team di sicurezza dovrebbero utilizzare entrambi i framework insieme per ottenere una copertura completa: ATT&CK per le minacce tradizionali all'infrastruttura e ATLAS per i vettori di attacco specifici dell'IA.

Come funziona ATLAS: struttura del framework e matrice MITRE ATLAS

La knowledge base ufficiale MITRE ATLAS organizza le informazioni sulle minacce utilizzando la stessa struttura a matrice che ha determinato il successo di ATT&CK. Comprendere questa struttura consente un rilevamento efficace delle minacce e la modellazione delle minacce tramite IA.

The MITRE ATLAS matrix (sometimes called the MITRE framework matrix for AI or the AI threat matrix) displays tactics as columns and techniques as rows. Each cell represents a specific method adversaries use to achieve tactical goals against AI systems. This visual organization allows security teams to quickly identify coverage gaps and prioritize defenses.

I componenti del framework funzionano insieme:

  1. Le tattiche rispondono al "perché": l'obiettivo dell'avversario in ogni fase dell'attacco.
  2. Le tecniche rispondono alla domanda "come": metodi specifici per raggiungere obiettivi tattici.
  3. Le sottotecniche forniscono dettagli granulari sulle variazioni tecniche.
  4. Le mitigazioni descrivono misure difensive che contrastano tecniche specifiche.
  5. Casi di studio che documentano attacchi reali mappati su ATLAS TTPs

I dati ATLAS sono disponibili in formato STIX 2.1, che consente l'integrazione leggibile da dispositivi automatici con strumenti e piattaforme di sicurezza. Questo formato standardizzato supporta l'acquisizione automatizzata in piattaforme di intelligence sulle minacce e sistemi SIEM.

The framework receives regular updates through community contributions and MITRE's ongoing research. The October 2025 update through Zenity Labs collaboration added 14 new agent-focused techniques, followed by the November 2025 v5.1.0 release that expanded the framework to 16 tactics with 84 techniques. The February 2026 v5.4.0 update added further techniques including "Publish Poisoned AI Agent Tool" and "Escape to Host," demonstrating the framework's active evolution.

Comprendere tattiche, tecniche e procedure (TTP)

Tattiche, tecniche e procedure (TTP) costituiscono il vocabolario fondamentale della difesa informata sulle minacce. In ATLAS:

  • Tactics represent adversary goals at each phase of an attack against AI systems. The 16 ATLAS tactics span from initial reconnaissance through ultimate impact and command and control.
  • Tecniche descrivere le azioni specifiche intraprese dagli avversari per raggiungere obiettivi tattici. Ogni tecnica ha un identificatore univoco nel formato AML.TXXXX.
  • Sottotecniche break down techniques into more specific variations. For example, prompt injection (AML.0051) include sottotecniche per metodi di iniezione diretta e indiretta.
  • Le procedure sono illustrate in casi di studio che mostrano esattamente come gli aggressori reali hanno implementato tecniche specifiche.

Questa gerarchia consente una modellizzazione delle minacce progressivamente dettagliata. I team possono iniziare con un'analisi della copertura a livello tattico e approfondire tecniche specifiche in base all'esposizione del proprio sistema di IA.

The 16 ATLAS tactics and key techniques

ATLAS organizes 84 techniques across 16 tactics that span the complete adversarial lifecycle, up from 15 tactics and 66 techniques in October 2025. This comprehensive breakdown addresses a significant content gap identified in competitor analysis — no existing guide covers all tactics with detection-focused guidance.

Table: MITRE ATLAS tactics with key techniques

ID tattica Nome della tattica Tecniche chiave Focus sul rilevamento
AML.0001 Ricognizione Scopri gli artefatti ML, scopri l'ontologia dei modelli ML, scansione attiva Monitoraggio per il rilevamento dell'architettura del modello
AML.0002 Sviluppo delle risorse Acquisizione di artefatti ML pubblici, sviluppo di capacità di attacco ML avversario Monitorare l'emergere di strumenti antagonisti
AML.0003 Accesso iniziale ML Supply Chain Compromise, Prompt Injection (AML.0051) Audit della catena di fornitura, convalida degli input
AML.0004 Accesso al modello ML Accesso all'API di inferenza, accesso agli artefatti ML Registrazione degli accessi alle API, integrità degli artefatti
AML.0005 Esecuzione Esecuzione utente, compromissione plugin LLM Monitoraggio della sicurezza dei plugin
AML.0006 Perseveranza Modifica configurazione agente AI Rilevamento delle modifiche alla configurazione
AML.0007 Elevazione dei privilegi Sfruttamento tramite sistema ML Monitoraggio dei confini del sistema ML
AML.0008 Evasione della difesa Perturbazione avversaria, estrazione meta prompt LLM Rilevamento delle anomalie nel comportamento dei modelli
AML.0009 Accesso alle credenziali Credenziali dalla configurazione dell'agente AI Monitoraggio dell'accesso alla configurazione dell'agente
AML.0010 Scoperta Scopri la configurazione dell'agente AI Rilevamento dei tentativi di enumerazione
AML.0011 Collezione Dati provenienti dai servizi di intelligenza artificiale, recupero dati dal database RAG Analisi dei modelli di accesso ai dati
AML.0012 Attacco ML Staging Dati di addestramento al veleno (AML.0020), Modello ML backdoor Monitoraggio dell'integrità dei dati di addestramento
AML.0013 Esfiltrazione Esfiltrazione tramite API di inferenza ML, esfiltrazione tramite invocazione dello strumento AI Agent Rilevamento delle anomalie nell'utilizzo delle API
AML.0014 Impatto Rifiuto del servizio ML, elusione del modello ML, spamming del sistema ML Monitoraggio della disponibilità del servizio
AML.0015 Command and Control Reverse Shell, AI Service API (AML.0096) C2 channel detection in AI infrastructure

The November 2025 v5.1.0 release added a 16th tactic — Command and Control (AML.0015) — along with 18 new techniques and 6 new mitigations focused on AI agent security controls. This brought the total from 66 to 84 techniques and from 33 to 42 case studies.

Ricognizione tramite accesso iniziale (AML.TA0001-AML.TA0003)

Il ciclo di vita dell'attacco inizia con la ricognizione, durante la quale gli avversari raccolgono informazioni sui sistemi ML bersaglio. Le tecniche principali includono:

  • Scopri gli artefatti ML: gli avversari cercano nei repository pubblici, nella documentazione e nelle API per comprendere le architetture dei modelli e i dati di addestramento.
  • Supply Chain ML: gli aggressori prendono di mira la catena di approvvigionamento inserendo codice o dati dannosi nelle pipeline ML.
  • Prompt Injection (AML.0051): Gli avversari creano input dannosi per manipolare il comportamento dell'LLM — questo corrisponde a OWASP LLM01

Accesso ed esecuzione del modello ML (AML.TA0004-AML.TA0005)

Queste tattiche specifiche dell'IA descrivono il modo in cui gli avversari interagiscono con i modelli ML e li sfruttano:

  • Accesso all'API di inferenza: l'accesso alle interfacce di previsione dei modelli consente la ricognizione e la preparazione degli attacchi.
  • Compromissione dei plugin LLM: lo sfruttamento dei plugin vulnerabili amplia le capacità degli aggressori all'interno dei sistemi di intelligenza artificiale

Persistenza attraverso l'elusione della difesa (AML.TA0006-AML.TA0008)

Gli autori delle minacce mantengono l'accesso ed evitano il rilevamento attraverso:

  • Modifica della configurazione dell'agente AI (aggiunta nell'ottobre 2025): gli aggressori alterano le impostazioni dell'agente per mantenere la persistenza.
  • Perturbazione avversaria: creazione di input che inducono i modelli a classificare erroneamente, pur apparendo normali agli esseri umani.

Raccolta tramite impatto (AML.TA0009-AML.TA0014)

Le tattiche nelle fasi successive si concentrano sul raggiungimento degli obiettivi dell'avversario:

  • Recupero dati dal database RAG: estrazione di informazioni sensibili da sistemi di generazione potenziati dal recupero dati
  • Dati di addestramento al veleno (AML.0020): Il data poisoning corrompe i dati di addestramento per manipolare il comportamento del modello — un fattore critico esfiltrazione dei dati vettore
  • Esfiltrazione tramite invocazione dello strumento agente AI (aggiunta nell'ottobre 2025): sfruttamento dell'accesso allo strumento agente per estrarre dati

Comprendere i modelli di movimento laterale aiuta i team di sicurezza a monitorare come gli aggressori avanzano attraverso queste tattiche.

Ecosistema di strumenti ATLAS

ATLAS fornisce strumenti pratici gratuiti che trasformano il framework da documentazione in funzionalità di sicurezza utilizzabili. Questo ecosistema di strumenti colma una grave lacuna in termini di contenuti: pochi concorrenti offrono una copertura completa di queste risorse.

Tabella: Ecosistema degli strumenti ufficiali MITRE ATLAS

Strumento Scopo URL Caratteristiche principali
ATLAS Navigatore Visualizzazione e annotazione della matrice atlas.mitre.org Livelli personalizzati, mappatura della copertura, funzionalità di esportazione
Arsenal Emulazione automatizzata dell'avversario github.com/mitre-atlas/arsenale Plugin CALDERA, implementazione tecnica, automazione red team
Condivisione degli incidenti AI Informazioni sulle minacce alla comunità ai-incidenti.mitre.org Segnalazioni di incidenti anonimizzate, database delle vulnerabilità
Database dei rischi dell'IA Archivio degli incidenti e delle vulnerabilità ai-incidenti.mitre.org Incidenti ricercabili, integrazione CVE

Guida dettagliata ad ATLAS Navigator

ATLAS Navigator offre un'interfaccia web interattiva per visualizzare la matrice del framework. I team di sicurezza utilizzano Navigator per:

  1. Mappatura della copertura: crea livelli personalizzati che mostrano quali tecniche vengono affrontate dai tuoi controlli di sicurezza
  2. Modellazione delle minacce: evidenzia le tecniche rilevanti in base all'architettura del tuo sistema di IA.
  3. Analisi delle lacune: identificare le tecniche senza corrispondenti capacità di rilevamento
  4. Reportistica: esportazione delle visualizzazioni per la comunicazione con gli stakeholder

Navigator si integra con ATT&CK Navigator, consentendo una visione unificata di entrambi i framework. I team che già utilizzano ATT&CK Navigator troveranno l'interfaccia ATLAS immediatamente familiare.

Arsenal per il red teaming nell'ambito dell'intelligenza artificiale

Nel marzo 2023, Microsoft e MITRE hanno annunciato una collaborazione su Arsenal, un plugin CALDERA che consente l'emulazione automatizzata di avversari contro i sistemi di intelligenza artificiale. Arsenal implementa le tecniche ATLAS senza richiedere una profonda competenza nel campo dell'apprendimento automatico.

Le funzionalità principali includono:

  • Profili degli avversari predefiniti basati sulle tattiche ATLAS
  • Esecuzione automatizzata della catena di attacchi per esercitazioni purple team
  • Risultati mappati direttamente agli ID della tecnica ATLAS
  • Integrazione con le implementazioni CALDERA esistenti

Arsenal supporta la ricerca delle minacce convalidando la copertura di rilevamento rispetto a simulazioni di attacchi realistiche. Per i team di risposta agli incidenti, Arsenal aiuta a comprendere le capacità degli aggressori e a testare le procedure di risposta.

Iniziativa per la condivisione degli incidenti relativi all'IA

L'iniziativa AI Incident Sharing Initiative consente alle organizzazioni di condividere e imparare dagli incidenti di sicurezza legati all'intelligenza artificiale. Questa piattaforma gestita dalla comunità offre:

  • Rapporti sugli incidenti resi anonimi con mappatura della tecnica ATLAS
  • Database consultabile delle vulnerabilità e degli attacchi dell'IA
  • Integrazione con i gruppi di lavoro CVE e CWE AI
  • Analisi delle tendenze relative agli incidenti segnalati

Queste informazioni confluiscono direttamente negli aggiornamenti di ATLAS, garantendo che il framework rifletta gli attuali modelli di minaccia.

Confronto tra framework: ATLAS vs OWASP LLM Top 10 vs NIST AI RMF

I team di sicurezza spesso chiedono quale framework di sicurezza AI adottare. La risposta: utilizzate tutti e tre per una copertura complementare. Questo confronto aiuta i team a capire quando applicare ciascun framework, rispondendo a una domanda comune relativa al PAA.

Tabella: Confronto tra i framework di sicurezza dell'IA: ATLAS vs OWASP vs NIST AI RMF

Struttura Messa a fuoco Pubblico Ideale per
MITRE ATLAS TTP avversarie per i sistemi di IA Operazioni di sicurezza, cacciatori di minacce Modellizzazione delle minacce, sviluppo dei sistemi di rilevamento, red teaming
OWASP LLM Top 10 Vulnerabilità delle applicazioni LLM Sviluppatori, ingegneri AppSec Sviluppo sicuro, revisione del codice, valutazione delle vulnerabilità
NIST AI RMF Governance dei rischi legati all'intelligenza artificiale Responsabili della gestione dei rischi, team di conformità Governance organizzativa, conformità normativa

Secondo l'analisi dei framework condotta da Cloudsine, questi framework servono diverse fasi del ciclo di vita della sicurezza dell'IA:

  • Fase di sviluppo: le 10 principali linee guida OWASP LLM per pratiche di codifica sicure
  • Fase operativa: ATLAS fornisce informazioni per la modellizzazione delle minacce e le strategie di rilevamento
  • Fase di governance: il NIST AI RMF struttura la gestione dei rischi e la conformità

Tabella di corrispondenza: mappatura tra framework

Tabella: Quadro di riferimento incrociato per le vulnerabilità comuni dell'IA

Vulnerabilità Tecnica ATLAS OWASP LLM Funzione RMF dell'IA del NIST
Prompt injection AML.0051 LLM01 Mappa, Misura
Avvelenamento dei dati AML.0020 LLM03 Gestisci
Catena di approvvigionamento Supply Chain ML LLM05 Governare
Furto di modelli Estrazione del modello LLM10 Gestisci

Comprendere le vulnerabilità in tutti e tre i framework consente una copertura completa. I team dovrebbero mappare le proprie risorse di IA alle tecniche pertinenti in ciascun framework.

Integrazione e operatività SOC

L'integrazione di ATLAS nelle operazioni di sicurezza richiede tecniche di mappatura delle capacità di rilevamento e dei flussi di lavoro. Secondo la guida all'integrazione SOC di ThreatConnect, circa il 70% delle mitigazioni ATLAS è mappato sui controlli di sicurezza esistenti. Il restante 30% richiede nuovi controlli specifici per l'IA.

Passaggi per l'integrazione SOC:

  1. Inventario delle risorse AI: documentare tutti i modelli ML, le pipeline di formazione e le applicazioni abilitate all'AI.
  2. Mappare le tecniche alle risorse: identificare quali tecniche ATLAS applicare in base alla propria architettura AI.
  3. Valutare la copertura attuale: utilizzare Navigator per visualizzare le capacità di rilevamento esistenti
  4. Dai priorità alle lacune: concentrati sulle tecniche ad alto impatto rilevanti per il tuo ambiente
  5. Sviluppare regole di rilevamento: creare regole SIEM e avvisi per le tecniche prioritarie
  6. Stabilire linee guida: definire il comportamento normale per la telemetria dei sistemi di IA
  7. Integrazione con i flussi di lavoro: aggiungi il contesto ATLAS alle procedure di triage e indagine degli avvisi
  8. Revisione trimestrale: aggiornamento dei modelli di minaccia man mano che ATLAS evolve

Mappatura delle regole di rilevamento

Per garantire un rilevamento efficace è necessario mappare le tecniche ATLAS a specifiche fonti di log e logiche di rilevamento.

Tabella: Esempio di mappatura di rilevamento per tecniche ATLAS prioritarie

Tecnica ATLAS Origine del log Logica di rilevamento Priorità
Prompt Injection (AML.0051) Registri delle applicazioni, gateway API Modelli di input insoliti, firme di iniezione Critico
Avvelenamento dei dati (AML.0020) Registri della pipeline di formazione Anomalie nella distribuzione dei dati, violazioni della provenienza Alto
API di inferenza ML Esfiltrazione API access logs, cloud security logs Query ad alto volume, modelli di accesso insoliti Alto
Estrazione del modello Registri API di inferenza Richieste sistematiche che sondano i limiti del modello Medio

Le funzionalità di rilevamento e risposta della rete integrano il rilevamento a livello di applicazione. L'analisi del comportamento degli utenti e delle entità (UEBA) aiuta a identificare modelli di accesso anomali ai sistemi di IA.

Monitoraggio delle metriche e della copertura

Monitorare questi parametri per misurare l'operatività di ATLAS:

  • Copertura tecnica: percentuale di tecniche rilevanti con regole di rilevamento
  • Latenza di rilevamento: tempo che intercorre tra l'esecuzione dell'attacco e la generazione dell'avviso
  • Tasso di falsi positivi: accuratezza degli avvisi per i rilevamenti specifici dell'IA
  • Valuta del modello di minaccia: giorni trascorsi dall'ultimo aggiornamento basato su ATLAS

Le revisioni trimestrali dei modelli di minaccia garantiscono che la copertura sia al passo con gli aggiornamenti del framework e le minacce emergenti.

Casi di studio ed esperienze acquisite

ATLAS includes 42 case studies documenting real-world attacks against AI systems, up from 33 in October 2025. Analyzing these incidents provides actionable defensive insights that go beyond theoretical threat modeling.

Analisi del caso di studio iProov deepfake

Nel novembre 2025, MITRE ATLAS ha pubblicato un caso di studio che documenta attacchi deepfake contro i sistemi mobili di rilevamento della vitalità KYC (Know Your Customer). Secondo quanto riportato da Mobile ID World, questo attacco ha preso di mira piattaforme bancarie, servizi finanziari e piattaforme di criptovaluta.

Progressione della catena di attacchi:

Ricognizione -> Sviluppo delle risorse -> Accesso iniziale -> Elusione della difesa -> Impatto

  1. Ricognizione: gli aggressori hanno raccolto informazioni sull'identità del bersaglio tramite tecniche di ingegneria sociale utilizzando i profili dei social media.
  2. Sviluppo delle risorse: gli avversari hanno acquisito strumenti di intelligenza artificiale per lo scambio di volti (Faceswap, Deep Live Cam)
  3. Accesso iniziale: l'iniezione della telecamera virtuale OBS ha bypassato i requisiti della telecamera fisica
  4. Evasione della difesa: i deepfake generati dall'intelligenza artificiale hanno sconfitto gli algoritmi di rilevamento della vitalità
  5. Impatto: creazione fraudolenta di account e aggiramento della verifica dell'identità riusciti

Raccomandazioni difensive:

  • Implementare la verifica multimodale oltre il riconoscimento facciale
  • Implementare l'attestazione dei dispositivi per rilevare l'iniezione di telecamere virtuali
  • Monitorare la presenza di segni di supporti sintetici nelle acquisizioni biometriche
  • Implementare un rilevamento avanzato della presenza umana con rilevamento della profondità

Questo caso di studio dimostra come gli aggressori combinino l'ingegneria sociale con strumenti di intelligenza artificiale per eludere i controlli di sicurezza, causando potenzialmente violazioni dei dati.

SesameOp AI agent backdoor case study (AML.CS0042)

The SesameOp case study, added to ATLAS in late 2025, documents a novel backdoor technique that leverages AI assistant APIs for command and control. Instead of building traditional C2 infrastructure, adversaries repurposed legitimate agent service APIs as covert control channels — blending malicious activity into normal AI workflows. This attack pattern maps to the new AI Service API technique (AML.0096) and demonstrates how agentic AI infrastructure creates command and control channels that evade conventional network detection.

Additional notable case studies (2025-2026)

ATLAS expanded from 33 to 42 case studies between October 2025 and February 2026. Notable additions include:

  • Financial Transaction Hijacking with M365 Copilot as an Insider — demonstrating how AI assistants can be exploited for unauthorized financial operations
  • Organization Confusion on Hugging Face — highlighting risks from model repository misuse in supply chain attacks
  • MCP Server Compromise (January 2026) — documenting attacks against Model Context Protocol infrastructure

Bypass endpoint Cylance

L'analisi HiddenLayer del caso di studio ATLAS AML.CS0003 documenta come i ricercatori abbiano aggirato un prodotto endpoint basato su ML:

  • Gli aggressori hanno utilizzato tecniche di perturbazione avversaria per creare malware in grado di eludere il rilevamento.
  • L'attacco ha dimostrato l'elusione del modello senza conoscenza dell'architettura sottostante del modello.
  • Le lezioni difensive includono la diversità dei modelli e la convalida degli input per gli strumenti di sicurezza basati sul ML.

Rilevamento e prevenzione delle minacce AI

AI security threats require specialized detection approaches that go beyond traditional security controls. With AI-enabled adversary attacks surging 89% compared to prior years — up from a 72% increase in 2025 — organizations need proactive defense strategies.

Lista di controllo per la sicurezza dell'IA:

  • [ ] Implementare la convalida e la sanificazione degli input per tutte le interazioni LLM
  • [ ] Deploy prompt injection detection at the application layer
  • [ ] Stabilire il monitoraggio della provenienza e dell'integrità dei dati di addestramento
  • [ ] Monitorare i modelli di accesso all'API di inferenza per individuare eventuali anomalie
  • [ ] Controllare regolarmente le configurazioni e le autorizzazioni degli agenti AI
  • [ ] Integrare gli avvisi specifici dell'IA con i flussi di lavoro SOC esistenti
  • [ ] Condurre regolarmente esercitazioni di red team AI utilizzando Arsenal
  • [ ] Iscriviti ai feed di informazioni sulle minacce AI

Le organizzazioni dovrebbero allineare gli investimenti nella sicurezza dell'IA sia con phishing ( phishing generato dall'intelligenza artificiale phishing in rapida crescita) e la difesa dal ransomware (l'intelligenza artificiale consente attacchi più sofisticati).

Prompt injection techniques in MITRE ATLAS (AML.0051)

Prompt injection is the most prominent ATLAS technique, cataloged as AML.0051 under the Initial Access tactic. Large language models face unique attack vectors that traditional security cannot address, and ATLAS catalogs these threats systematically.

Tabella: Tipi di minacce LLM con mappatura ATLAS e metodi di rilevamento

Tipo di minaccia Tecnica ATLAS Metodo di rilevamento Mitigazione
Direct prompt injection AML.0051.001 Analisi del modello di input Sanificazione degli input, gerarchia delle istruzioni
Indirect prompt injection AML.0051.002 Convalida della fonte dei contenuti Controlli delle fonti dei dati, sandboxing
LLM jailbreaking AML.0051 Monitoraggio del comportamento in uscita Guardrail, filtraggio dell'output
Manipolazione della finestra contestuale AML.0051 Monitoraggio della lunghezza del contesto Limiti contestuali, sintesi
Avvelenamento da RAG AML.0060 Controlli di integrità dei documenti Verifica della fonte, controlli di accesso

I recenti CVE dimostrano queste minacce nella pratica:

  • CVE-2025-32711 (EchoLeak): According to Hack The Box analysis, this Microsoft Copilot vulnerability enabled zero-click data exfiltration through prompt injection combined with prompt reflection
  • CVE-2025-54135/54136 (CurXecute): Per BleepingComputer reporting, the Cursor IDE's MCP implementation allowed remote code execution via prompt injection

Le funzionalità di rilevamento e risposta alle minacce all'identità aiutano a individuare i tentativi di furto delle credenziali attraverso lo sfruttamento dell'LLM.

Considerazioni sulla sicurezza dell'IA agentica

L'aggiornamento ATLAS di ottobre 2025 riguarda specificatamente gli agenti AI autonomi, ovvero sistemi in grado di intraprendere azioni, accedere a strumenti e mantenere il contesto tra una sessione e l'altra. Le nuove tecniche includono:

  • AML.0058 Avvelenamento del contesto dell'agente AI: Inserimento di contenuti dannosi nella memoria dell'agente o nel contesto del thread
  • AML.0059 Fattori scatenanti l'attivazione: Incorporare trigger che si attivano in condizioni specifiche
  • AML.0060 Dati provenienti dai servizi di intelligenza artificiale: Estrazione di informazioni tramite recupero dal database RAG
  • AML.0061 Strumenti per agenti AI: Sfruttamento dell'accesso allo strumento agente per scopi dannosi
  • AML.0062 Esfiltrazione tramite invocazione dello strumento AI Agent: Utilizzo di chiamate di strumenti legittimi per estrarre dati

Principi di sicurezza per gli agenti di IA:

  1. Applicare il principio del privilegio minimo a tutte le autorizzazioni degli strumenti degli agenti
  2. Implementare il sistema "human-in-the-loop" per operazioni delicate
  3. Monitorare continuamente le modifiche alla configurazione dell'agente
  4. Convalida delle configurazioni e delle connessioni del server MCP
  5. Stabilire linee guida di comportamento degli agenti per il rilevamento delle anomalie

Secondo le linee guida CISA del dicembre 2025 relative all'AI/OT, le organizzazioni dovrebbero integrare sistemi di supervisione e di sicurezza per tutti i sistemi di intelligenza artificiale che operano in ambienti critici.

MCP security and ATLAS technique mapping

The Model Context Protocol (MCP) — an open standard for connecting AI agents to external tools and data sources — introduces attack surfaces that ATLAS now explicitly addresses. MCP exploits allow adversaries to manipulate the tool-calling layer between AI agents and enterprise systems, bypassing traditional security controls.

ATLAS techniques relevant to MCP security include:

  • Strumenti per agenti AI (AML.0061): Adversaries exploit MCP server configurations to invoke unauthorized tool actions or access restricted data
  • Esfiltrazione tramite invocazione dello strumento AI Agent (AML.0062): Attackers leverage legitimate MCP tool calls to extract sensitive data through sanctioned channels
  • Publish Poisoned AI Agent Tool (added February 2026): Adversaries create malicious versions of legitimate MCP tools that appear safe but execute harmful actions when invoked
  • AI Service API (AML.0096, added 2026): Exploiting AI orchestration APIs for stealthy command and control

The January 2026 ATLAS update (v5.3.0) added three new case studies specifically covering MCP server compromises, indirect prompt injection via MCP channels, and malicious AI agent deployment. Security teams should validate all MCP server configurations, restrict tool permissions to least privilege, and monitor tool invocation patterns for anomalies.

Approcci moderni alla sicurezza dell'IA

Il panorama della sicurezza dell'IA evolve rapidamente, con la pressione normativa e la collaborazione industriale che guidano l'adozione di un quadro normativo. Le organizzazioni devono prepararsi sia alle minacce emergenti che ai requisiti di conformità.

The MITRE Secure AI Program, supported by 16 member organizations including Microsoft and JPMorgan Chase, focuses on expanding ATLAS with real-world observations and expediting AI incident sharing.

Sviluppi normativi:

  • Legge dell'UE sull'IA: gli obblighi relativi all'IA generica (GPAI) sono entrati in vigore nell'agosto 2025, richiedendo test avversari per i sistemi di IA a rischio sistemico e protezione della sicurezza informatica contro accessi non autorizzati.
  • Linee guida CISA: la pubblicazione multi-agenzia del dicembre 2025 affronta il tema della sicurezza dell'IA negli ambienti tecnologici operativi.

AI security threats continue to accelerate, with 87% of organizations reporting AI-powered cyberattack exposure and 92% expressing concern over agentic AI security implications according to industry research.

Come Vectra AI le minacce alla sicurezza dell'intelligenza artificiale

Vectra AI's Attack Signal Intelligence methodology applies behavior-based detection principles that align with ATLAS framework objectives. By focusing on attacker behaviors rather than static signatures, organizations can detect the techniques cataloged in ATLAS — from prompt injection attempts to data exfiltration via inference APIs — across hybrid cloud environments.

Questo approccio consente ai team di sicurezza di identificare e dare priorità alle minacce reali legate all'IA, riducendo al contempo il rumore degli avvisi. Il rilevamento e la risposta della rete, combinati con il rilevamento delle minacce all'identità, forniscono visibilità su tutta la superficie di attacco che le minacce IA ora prendono di mira.

Conclusione

MITRE ATLAS provides the structured approach organizations need to defend AI systems against sophisticated adversaries. With 16 tactics, 84 techniques, and continuous updates reflecting emerging threats like agentic AI attacks and MCP exploits, the framework delivers actionable intelligence for security teams.

The rapid expansion from 15 tactics in October 2025 to 16 tactics and 84 techniques by February 2026 demonstrates ATLAS's commitment to keeping pace with AI evolution. As AI-assisted attacks continue to surge and regulatory requirements like the EU AI Act take effect, organizations cannot afford to treat AI security as an afterthought.

Start with these immediate actions:

  1. Explore the ATLAS Navigator to understand framework structure
  2. Inventory your AI assets and map relevant techniques
  3. Assess current detection coverage against priority techniques
  4. Integrate ATLAS context into existing SOC workflows

For organizations seeking comprehensive AI security beyond framework adoption, Vectra AI's Attack Signal Intelligence provides behavior-based detection that identifies the adversary techniques ATLAS catalogs — enabling security teams to find and stop AI threats across hybrid environments.

Domande frequenti

Che cos'è MITRE ATLAS?

In che modo MITRE ATLAS differisce da MITRE ATT&CK?

Quante tattiche e tecniche sono presenti in MITRE ATLAS?

What is prompt injection in MITRE ATLAS?

Come si usa MITRE ATLAS per la modellazione delle minacce?

Quali strumenti offre MITRE ATLAS?

Come si confronta MITRE ATLAS con OWASP LLM Top 10?

What is the MITRE ATLAS adversarial ML knowledge base?

What are the MITRE ATLAS case studies?

How do I use ATLAS Navigator to export coverage layers?