MITRE ATLAS spiegato: la guida completa all'intelligence sulle minacce alla sicurezza dell'IA

Approfondimenti chiave

  • Il MITRE ATLAS cataloga 15 tattiche, 66 tecniche e 46 sottotecniche specificamente mirate ai sistemi di intelligenza artificiale e apprendimento automatico a ottobre 2025.
  • L'aggiornamento del framework dell'ottobre 2025 ha aggiunto 14 nuove tecniche di IA agentica grazie alla collaborazione con Zenity Labs, affrontando i rischi per la sicurezza degli agenti IA autonomi.
  • ATLAS integra, anziché competere con OWASP LLM Top 10 e NIST AI RMF: utilizzate tutti e tre per una copertura completa.
  • Circa il 70% delle misure di mitigazione ATLAS corrisponde a controlli di sicurezza esistenti, rendendo pratica l'integrazione con gli attuali flussi di lavoro SOC.
  • Strumenti gratuiti quali ATLAS Navigator e Arsenal consentono la modellazione immediata delle minacce e funzionalità di red teaming.

Le organizzazioni che implementano l'intelligenza artificiale devono affrontare una nuova frontiera di minacce alla sicurezza che i framework tradizionali non sono stati progettati per affrontare. Secondo Cyber Insights 2025 di SecurityWeek, gli attacchi informatici assistiti dall'IA sono aumentati del 72% solo nel 2025. Questa escalation richiede un approccio strutturato per comprendere e difendersi dalle minacce ostili ai sistemi di IA. Entra in gioco il framework MITRE ATLAS, la prima base di conoscenze completa sul machine learning ostile progettata specificamente per catalogare il modo in cui gli aggressori prendono di mira i sistemi di machine learning e AI.

Per i team di sicurezza che hanno già familiarità con MITRE ATT&CK, ATLAS (talvolta indicato come Atlas MITRE nelle ricerche) rappresenta una naturale estensione nel campo della sicurezza AI. Questa guida fornisce tutto ciò di cui gli analisti della sicurezza, i responsabili SOC e gli ingegneri AI hanno bisogno per rendere operativo ATLAS contro gli attacchi AI avversari, dai fondamenti del framework alle strategie di rilevamento pratiche.

Che cos'è MITRE ATLAS?

MITRE ATLAS è una base di conoscenze ML avversaria accessibile a livello globale che documenta tattiche, tecniche e procedure (TTP) avversarie specificamente mirate ai sistemi di intelligenza artificiale e machine learning. Spesso denominata base di conoscenze avversaria MITRE ATLAS sull'intelligenza artificiale, fornisce ai team di sicurezza un approccio strutturato per comprendere, rilevare e difendersi dalle minacce specifiche dell'intelligenza artificiale. Modellato sul MITRE ATT&CK ampiamente adottato, il framework MITRE ATLAS funge da framework di sicurezza definitivo per l'apprendimento automatico per la modellazione delle minacce. L'acronimo sta per Adversarial Threat Landscape for Artificial-Intelligence Systems (Panorama delle minacce avversarie per i sistemi di intelligenza artificiale).

A ottobre 2025, secondo il CHANGELOG ufficiale di MITRE ATLAS, il framework contiene 15 tattiche, 66 tecniche, 46 sottotecniche, 26 misure di mitigazione e 33 casi di studio reali. Ciò rappresenta una crescita significativa rispetto alle versioni precedenti, guidata dalla rapida evoluzione delle minacce legate all'intelligenza artificiale.

Il machine learning avversario, ovvero lo studio degli attacchi ai sistemi di machine learning e delle relative difese, comprende quattro categorie principali di attacchi, come documentato dal NIST: attacchi di evasione, avvelenamento, privacy e abuso. ATLAS organizza questi modelli di attacco in una struttura a matrice che gli esperti di sicurezza possono utilizzare immediatamente.

MITRE ha creato ATLAS per colmare una lacuna critica nel panorama della sicurezza. Sebbene ATT&CK cataloghi efficacemente le minacce alle infrastrutture IT e OT tradizionali, non copre gli attacchi che sfruttano le caratteristiche uniche dei sistemi di apprendimento automatico. ATLAS colma questa lacuna fornendo lo stesso approccio rigoroso e convalidato dalla comunità all'intelligence sulle minacce AI.

Il framework si collega anche a MITRE D3FEND, che fornisce contromisure difensive che le organizzazioni possono mappare rispetto alle tecniche ATLAS.

ATLAS vs MITRE ATT&CK: differenze principali

Comprendere la differenza tra ATLAS e ATT&CK aiuta i team di sicurezza a determinare quando applicare ciascun framework.

Tabella: Confronto tra i framework MITRE ATT&CK MITRE ATLAS

Aspetto MITRE ATT&CK MITRE ATLAS
Obiettivo principale Comportamenti tradizionali degli avversari IT/OT Comportamenti ostili specifici dell'IA/ML
Conteggio tattico 14 tattiche (Enterprise) 15 tattiche (14 ereditate + 2 specifiche dell'IA)
Conteggio delle tecniche 196+ tecniche 66 tecniche
Tattiche uniche Nessuno specifico per l'IA Accesso al modello ML, preparazione dell'attacco ML
Sistemi target Endpoint, reti, cloud Modelli ML, pipeline di addestramento, LLM
Casi di studio Gruppi e profili software 33 analisi di incidenti specifici dell'IA
Ideale per Modellizzazione delle minacce Endpoint Modellizzazione delle minacce dei sistemi di intelligenza artificiale

ATLAS eredita 13 tattiche da ATT&CK, tra cui Ricognizione, Accesso iniziale, Esecuzione ed Esfiltrazione, ma le applica specificamente ai contesti di IA. Le due tattiche specifiche per l'IA esclusive di ATLAS sono:

  • Accesso al modello ML (AML.TA0004): Descrive come gli avversari ottengono l'accesso ai modelli ML di destinazione tramite API di inferenza o accesso diretto agli artefatti.
  • Attacco ML Staging (AML.TA0012): Descrive come gli avversari preparano gli attacchi mirati ai modelli ML, compreso il danneggiamento dei dati di addestramento e porta sul retro inserimento

I team di sicurezza dovrebbero utilizzare entrambi i framework insieme per ottenere una copertura completa: ATT&CK per le minacce tradizionali all'infrastruttura e ATLAS per i vettori di attacco specifici dell'IA.

Come funziona ATLAS: struttura del framework e matrice MITRE ATLAS

La knowledge base ufficiale MITRE ATLAS organizza le informazioni sulle minacce utilizzando la stessa struttura a matrice che ha determinato il successo di ATT&CK. Comprendere questa struttura consente un rilevamento efficace delle minacce e la modellazione delle minacce tramite IA.

La matrice MITRE ATLAS (talvolta denominata matrice MITRE per l'IA) mostra le tattiche nelle colonne e le tecniche nelle righe. Ogni cella rappresenta un metodo specifico utilizzato dagli avversari per raggiungere obiettivi tattici contro i sistemi di IA. Questa organizzazione visiva consente ai team di sicurezza di identificare rapidamente le lacune nella copertura e dare priorità alle difese.

I componenti del framework funzionano insieme:

  1. Le tattiche rispondono al "perché": l'obiettivo dell'avversario in ogni fase dell'attacco.
  2. Le tecniche rispondono alla domanda "come": metodi specifici per raggiungere obiettivi tattici.
  3. Le sottotecniche forniscono dettagli granulari sulle variazioni tecniche.
  4. Le mitigazioni descrivono misure difensive che contrastano tecniche specifiche.
  5. Casi di studio che documentano attacchi reali mappati su ATLAS TTPs

I dati ATLAS sono disponibili in formato STIX 2.1, che consente l'integrazione leggibile da dispositivi automatici con strumenti e piattaforme di sicurezza. Questo formato standardizzato supporta l'acquisizione automatizzata in piattaforme di intelligence sulle minacce e sistemi SIEM.

Il framework riceve aggiornamenti regolari grazie ai contributi della comunità e alla ricerca continua di MITRE. L'aggiornamento di ottobre 2025, realizzato in collaborazione con Zenity Labs, ha aggiunto 14 nuove tecniche incentrate sugli agenti, dimostrando l'evoluzione attiva del framework.

Comprendere tattiche, tecniche e procedure (TTP)

Tattiche, tecniche e procedure (TTP) costituiscono il vocabolario fondamentale della difesa informata sulle minacce. In ATLAS:

  • Le tattiche rappresentano gli obiettivi degli avversari in ogni fase di un attacco contro i sistemi di IA. Le 15 tattiche ATLAS spaziano dalla ricognizione iniziale all'impatto finale.
  • Tecniche descrivere le azioni specifiche intraprese dagli avversari per raggiungere obiettivi tattici. Ogni tecnica ha un identificatore univoco nel formato AML.TXXXX.
  • Sottotecniche scomporre le tecniche in varianti più specifiche. Ad esempio, l'iniezione di prompt (AML.T0051) include sottotecniche per metodi di iniezione diretta e indiretta.
  • Le procedure sono illustrate in casi di studio che mostrano esattamente come gli aggressori reali hanno implementato tecniche specifiche.

Questa gerarchia consente una modellizzazione delle minacce progressivamente dettagliata. I team possono iniziare con un'analisi della copertura a livello tattico e approfondire tecniche specifiche in base all'esposizione del proprio sistema di IA.

Le 15 tattiche e tecniche chiave di ATLAS

ATLAS organizza 66 tecniche in 15 tattiche che coprono l'intero ciclo di vita dell'avversario. Questa analisi completa colma una significativa lacuna individuata nell'analisi della concorrenza: nessuna guida esistente copre tutte le tattiche con indicazioni incentrate sul rilevamento.

Tabella: Elenco completo delle 15 tattiche MITRE ATLAS con tecniche chiave

ID tattica Nome della tattica Tecniche chiave Focus sul rilevamento
AML.TA0001 Ricognizione Scopri gli artefatti ML, scopri l'ontologia dei modelli ML, scansione attiva Monitoraggio per il rilevamento dell'architettura del modello
AML.TA0002 Sviluppo delle risorse Acquisizione di artefatti ML pubblici, sviluppo di capacità di attacco ML avversario Monitorare l'emergere di strumenti antagonisti
AML.TA0003 Accesso iniziale Supply Chain ML, iniezione immediata (AML.T0051) Audit della catena di fornitura, convalida degli input
AML.TA0004 Accesso al modello ML Accesso all'API di inferenza, accesso agli artefatti ML Registrazione degli accessi alle API, integrità degli artefatti
AML.TA0005 Esecuzione Esecuzione utente, compromissione plugin LLM Monitoraggio della sicurezza dei plugin
AML.TA0006 Perseveranza Modifica configurazione agente AI Rilevamento delle modifiche alla configurazione
AML.TA0007 Elevazione dei privilegi Sfruttamento tramite sistema ML Monitoraggio dei confini del sistema ML
AML.TA0008 Evasione della difesa Perturbazione avversaria, estrazione meta prompt LLM Rilevamento delle anomalie nel comportamento dei modelli
AML.TA0009 Accesso alle credenziali Credenziali dalla configurazione dell'agente AI Monitoraggio dell'accesso alla configurazione dell'agente
AML.TA0010 Scoperta Scopri la configurazione dell'agente AI Rilevamento dei tentativi di enumerazione
AML.TA0011 Collezione Dati provenienti dai servizi di intelligenza artificiale, recupero dati dal database RAG Analisi dei modelli di accesso ai dati
AML.TA0012 Attacco ML Staging Dati di addestramento al veleno (AML.T0020), Modello ML backdoor Monitoraggio dell'integrità dei dati di addestramento
AML.TA0013 Esfiltrazione Esfiltrazione tramite API di inferenza ML, esfiltrazione tramite invocazione dello strumento AI Agent Rilevamento delle anomalie nell'utilizzo delle API
AML.TA0014 Impatto Rifiuto del servizio ML, elusione del modello ML, spamming del sistema ML Monitoraggio della disponibilità del servizio

Ricognizione tramite accesso iniziale (AML.TA0001-AML.TA0003)

Il ciclo di vita dell'attacco inizia con la ricognizione, durante la quale gli avversari raccolgono informazioni sui sistemi ML bersaglio. Le tecniche principali includono:

  • Scopri gli artefatti ML: gli avversari cercano nei repository pubblici, nella documentazione e nelle API per comprendere le architetture dei modelli e i dati di addestramento.
  • Supply Chain ML: gli aggressori prendono di mira la catena di approvvigionamento inserendo codice o dati dannosi nelle pipeline ML.
  • Iniezione immediata (AML.T0051): Gli avversari creano input dannosi per manipolare il comportamento dell'LLM — questo corrisponde a OWASP LLM01

Accesso ed esecuzione del modello ML (AML.TA0004-AML.TA0005)

Queste tattiche specifiche dell'IA descrivono il modo in cui gli avversari interagiscono con i modelli ML e li sfruttano:

  • Accesso all'API di inferenza: l'accesso alle interfacce di previsione dei modelli consente la ricognizione e la preparazione degli attacchi.
  • Compromissione dei plugin LLM: lo sfruttamento dei plugin vulnerabili amplia le capacità degli aggressori all'interno dei sistemi di intelligenza artificiale

Persistenza attraverso l'elusione della difesa (AML.TA0006-AML.TA0008)

Gli autori delle minacce mantengono l'accesso ed evitano il rilevamento attraverso:

  • Modifica della configurazione dell'agente AI (aggiunta nell'ottobre 2025): gli aggressori alterano le impostazioni dell'agente per mantenere la persistenza.
  • Perturbazione avversaria: creazione di input che inducono i modelli a classificare erroneamente, pur apparendo normali agli esseri umani.

Raccolta tramite impatto (AML.TA0009-AML.TA0014)

Le tattiche nelle fasi successive si concentrano sul raggiungimento degli obiettivi dell'avversario:

  • Recupero dati dal database RAG: estrazione di informazioni sensibili da sistemi di generazione potenziati dal recupero dati
  • Dati di addestramento al veleno (AML.T0020): Il data poisoning corrompe i dati di addestramento per manipolare il comportamento del modello — un fattore critico esfiltrazione dei dati vettore
  • Esfiltrazione tramite invocazione dello strumento agente AI (aggiunta nell'ottobre 2025): sfruttamento dell'accesso allo strumento agente per estrarre dati

Comprendere i modelli di movimento laterale aiuta i team di sicurezza a monitorare come gli aggressori avanzano attraverso queste tattiche.

Ecosistema di strumenti ATLAS

ATLAS fornisce strumenti pratici gratuiti che trasformano il framework da documentazione in funzionalità di sicurezza utilizzabili. Questo ecosistema di strumenti colma una grave lacuna in termini di contenuti: pochi concorrenti offrono una copertura completa di queste risorse.

Tabella: Ecosistema degli strumenti ufficiali MITRE ATLAS

Strumento Scopo URL Caratteristiche principali
ATLAS Navigatore Visualizzazione e annotazione della matrice atlas.mitre.org Livelli personalizzati, mappatura della copertura, funzionalità di esportazione
Arsenal Emulazione automatizzata dell'avversario github.com/mitre-atlas/arsenale Plugin CALDERA, implementazione tecnica, automazione red team
Condivisione degli incidenti AI Informazioni sulle minacce alla comunità ai-incidenti.mitre.org Segnalazioni di incidenti anonimizzate, database delle vulnerabilità
Database dei rischi dell'IA Archivio degli incidenti e delle vulnerabilità ai-incidenti.mitre.org Incidenti ricercabili, integrazione CVE

Guida dettagliata ad ATLAS Navigator

ATLAS Navigator offre un'interfaccia web interattiva per visualizzare la matrice del framework. I team di sicurezza utilizzano Navigator per:

  1. Mappatura della copertura: crea livelli personalizzati che mostrano quali tecniche vengono affrontate dai tuoi controlli di sicurezza
  2. Modellazione delle minacce: evidenzia le tecniche rilevanti in base all'architettura del tuo sistema di IA.
  3. Analisi delle lacune: identificare le tecniche senza corrispondenti capacità di rilevamento
  4. Reportistica: esportazione delle visualizzazioni per la comunicazione con gli stakeholder

Navigator si integra con ATT&CK Navigator, consentendo una visione unificata di entrambi i framework. I team che già utilizzano ATT&CK Navigator troveranno l'interfaccia ATLAS immediatamente familiare.

Arsenal per il red teaming nell'ambito dell'intelligenza artificiale

Nel marzo 2023, Microsoft e MITRE hanno annunciato una collaborazione su Arsenal, un plugin CALDERA che consente l'emulazione automatizzata di avversari contro i sistemi di intelligenza artificiale. Arsenal implementa le tecniche ATLAS senza richiedere una profonda competenza nel campo dell'apprendimento automatico.

Le funzionalità principali includono:

  • Profili degli avversari predefiniti basati sulle tattiche ATLAS
  • Esecuzione automatizzata della catena di attacchi per esercitazioni purple team
  • Risultati mappati direttamente agli ID della tecnica ATLAS
  • Integrazione con le implementazioni CALDERA esistenti

Arsenal supporta la ricerca delle minacce convalidando la copertura di rilevamento rispetto a simulazioni di attacchi realistiche. Per i team di risposta agli incidenti, Arsenal aiuta a comprendere le capacità degli aggressori e a testare le procedure di risposta.

Iniziativa per la condivisione degli incidenti relativi all'IA

L'iniziativa AI Incident Sharing Initiative consente alle organizzazioni di condividere e imparare dagli incidenti di sicurezza legati all'intelligenza artificiale. Questa piattaforma gestita dalla comunità offre:

  • Rapporti sugli incidenti resi anonimi con mappatura della tecnica ATLAS
  • Database consultabile delle vulnerabilità e degli attacchi dell'IA
  • Integrazione con i gruppi di lavoro CVE e CWE AI
  • Analisi delle tendenze relative agli incidenti segnalati

Queste informazioni confluiscono direttamente negli aggiornamenti di ATLAS, garantendo che il framework rifletta gli attuali modelli di minaccia.

Confronto tra framework: ATLAS vs OWASP LLM Top 10 vs NIST AI RMF

I team di sicurezza spesso chiedono quale framework di sicurezza AI adottare. La risposta: utilizzate tutti e tre per una copertura complementare. Questo confronto aiuta i team a capire quando applicare ciascun framework, rispondendo a una domanda comune relativa al PAA.

Tabella: Confronto tra i framework di sicurezza dell'IA: ATLAS vs OWASP vs NIST AI RMF

Struttura Messa a fuoco Pubblico Ideale per
MITRE ATLAS TTP avversarie per i sistemi di IA Operazioni di sicurezza, cacciatori di minacce Modellizzazione delle minacce, sviluppo dei sistemi di rilevamento, red teaming
OWASP LLM Top 10 Vulnerabilità delle applicazioni LLM Sviluppatori, ingegneri AppSec Sviluppo sicuro, revisione del codice, valutazione delle vulnerabilità
NIST AI RMF Governance dei rischi legati all'intelligenza artificiale Responsabili della gestione dei rischi, team di conformità Governance organizzativa, conformità normativa

Secondo l'analisi dei framework condotta da Cloudsine, questi framework servono diverse fasi del ciclo di vita della sicurezza dell'IA:

  • Fase di sviluppo: le 10 principali linee guida OWASP LLM per pratiche di codifica sicure
  • Fase operativa: ATLAS fornisce informazioni per la modellizzazione delle minacce e le strategie di rilevamento
  • Fase di governance: il NIST AI RMF struttura la gestione dei rischi e la conformità

Tabella di corrispondenza: mappatura tra framework

Tabella: Quadro di riferimento incrociato per le vulnerabilità comuni dell'IA

Vulnerabilità Tecnica ATLAS OWASP LLM Funzione RMF dell'IA del NIST
Iniezione immediata AML.T0051 LLM01 Mappa, Misura
Avvelenamento dei dati AML.T0020 LLM03 Gestisci
Catena di approvvigionamento Supply Chain ML LLM05 Governare
Furto di modelli Estrazione del modello LLM10 Gestisci

Comprendere le vulnerabilità in tutti e tre i framework consente una copertura completa. I team dovrebbero mappare le proprie risorse di IA alle tecniche pertinenti in ciascun framework.

Integrazione e operatività SOC

L'integrazione di ATLAS nelle operazioni di sicurezza richiede tecniche di mappatura delle capacità di rilevamento e dei flussi di lavoro. Secondo la guida all'integrazione SOC di ThreatConnect, circa il 70% delle mitigazioni ATLAS è mappato sui controlli di sicurezza esistenti. Il restante 30% richiede nuovi controlli specifici per l'IA.

Passaggi per l'integrazione SOC:

  1. Inventario delle risorse AI: documentare tutti i modelli ML, le pipeline di formazione e le applicazioni abilitate all'AI.
  2. Mappare le tecniche alle risorse: identificare quali tecniche ATLAS applicare in base alla propria architettura AI.
  3. Valutare la copertura attuale: utilizzare Navigator per visualizzare le capacità di rilevamento esistenti
  4. Dai priorità alle lacune: concentrati sulle tecniche ad alto impatto rilevanti per il tuo ambiente
  5. Sviluppare regole di rilevamento: creare regole SIEM e avvisi per le tecniche prioritarie
  6. Stabilire linee guida: definire il comportamento normale per la telemetria dei sistemi di IA
  7. Integrazione con i flussi di lavoro: aggiungi il contesto ATLAS alle procedure di triage e indagine degli avvisi
  8. Revisione trimestrale: aggiornamento dei modelli di minaccia man mano che ATLAS evolve

Mappatura delle regole di rilevamento

Per garantire un rilevamento efficace è necessario mappare le tecniche ATLAS a specifiche fonti di log e logiche di rilevamento.

Tabella: Esempio di mappatura di rilevamento per tecniche ATLAS prioritarie

Tecnica ATLAS Origine del log Logica di rilevamento Priorità
Iniezione immediata (AML.T0051) Registri delle applicazioni, gateway API Modelli di input insoliti, firme di iniezione Critico
Avvelenamento dei dati (AML.T0020) Registri della pipeline di formazione Anomalie nella distribuzione dei dati, violazioni della provenienza Alto
API di inferenza ML Esfiltrazione Registri di accesso API, registri cloud Query ad alto volume, modelli di accesso insoliti Alto
Estrazione del modello Registri API di inferenza Richieste sistematiche che sondano i limiti del modello Medio

Le funzionalità di rilevamento e risposta della rete integrano il rilevamento a livello di applicazione. L'analisi del comportamento degli utenti e delle entità (UEBA) aiuta a identificare modelli di accesso anomali ai sistemi di IA.

Monitoraggio delle metriche e della copertura

Monitorare questi parametri per misurare l'operatività di ATLAS:

  • Copertura tecnica: percentuale di tecniche rilevanti con regole di rilevamento
  • Latenza di rilevamento: tempo che intercorre tra l'esecuzione dell'attacco e la generazione dell'avviso
  • Tasso di falsi positivi: accuratezza degli avvisi per i rilevamenti specifici dell'IA
  • Valuta del modello di minaccia: giorni trascorsi dall'ultimo aggiornamento basato su ATLAS

Le revisioni trimestrali dei modelli di minaccia garantiscono che la copertura sia al passo con gli aggiornamenti del framework e le minacce emergenti.

Casi di studio ed esperienze acquisite

ATLAS include 33 casi di studio che documentano attacchi reali contro sistemi di IA. L'analisi di questi incidenti fornisce informazioni difensive utilizzabili che vanno oltre la modellizzazione teorica delle minacce.

Analisi del caso di studio iProov deepfake

Nel novembre 2025, MITRE ATLAS ha pubblicato un caso di studio che documenta attacchi deepfake contro i sistemi mobili di rilevamento della vitalità KYC (Know Your Customer). Secondo quanto riportato da Mobile ID World, questo attacco ha preso di mira piattaforme bancarie, servizi finanziari e piattaforme di criptovaluta.

Progressione della catena di attacchi:

Ricognizione -> Sviluppo delle risorse -> Accesso iniziale -> Elusione della difesa -> Impatto

  1. Ricognizione: gli aggressori hanno raccolto informazioni sull'identità del bersaglio tramite tecniche di ingegneria sociale utilizzando i profili dei social media.
  2. Sviluppo delle risorse: gli avversari hanno acquisito strumenti di intelligenza artificiale per lo scambio di volti (Faceswap, Deep Live Cam)
  3. Accesso iniziale: l'iniezione della telecamera virtuale OBS ha bypassato i requisiti della telecamera fisica
  4. Evasione della difesa: i deepfake generati dall'intelligenza artificiale hanno sconfitto gli algoritmi di rilevamento della vitalità
  5. Impatto: creazione fraudolenta di account e aggiramento della verifica dell'identità riusciti

Raccomandazioni difensive:

  • Implementare la verifica multimodale oltre il riconoscimento facciale
  • Implementare l'attestazione dei dispositivi per rilevare l'iniezione di telecamere virtuali
  • Monitorare la presenza di segni di supporti sintetici nelle acquisizioni biometriche
  • Implementare un rilevamento avanzato della presenza umana con rilevamento della profondità

Questo caso di studio dimostra come gli aggressori combinino l'ingegneria sociale con strumenti di intelligenza artificiale per eludere i controlli di sicurezza, causando potenzialmente violazioni dei dati.

Bypass endpoint Cylance

L'analisi HiddenLayer del caso di studio ATLAS AML.CS0003 documenta come i ricercatori abbiano aggirato un prodotto endpoint basato su ML:

  • Gli aggressori hanno utilizzato tecniche di perturbazione avversaria per creare malware in grado di eludere il rilevamento.
  • L'attacco ha dimostrato l'elusione del modello senza conoscenza dell'architettura sottostante del modello.
  • Le lezioni difensive includono la diversità dei modelli e la convalida degli input per gli strumenti di sicurezza basati sul ML.

Rilevamento e prevenzione delle minacce AI

Le minacce alla sicurezza dell'IA richiedono approcci di rilevamento specializzati che vanno oltre i tradizionali controlli di sicurezza. Con un aumento del 72% degli attacchi assistiti dall'IA nel 2025, le organizzazioni hanno bisogno di strategie di difesa proattive.

Lista di controllo per la sicurezza dell'IA:

  • [ ] Implementare la convalida e la sanificazione degli input per tutte le interazioni LLM
  • [ ] Implementare il rilevamento tempestivo delle iniezioni a livello di applicazione
  • [ ] Stabilire il monitoraggio della provenienza e dell'integrità dei dati di addestramento
  • [ ] Monitorare i modelli di accesso all'API di inferenza per individuare eventuali anomalie
  • [ ] Controllare regolarmente le configurazioni e le autorizzazioni degli agenti AI
  • [ ] Integrare gli avvisi specifici dell'IA con i flussi di lavoro SOC esistenti
  • [ ] Condurre regolarmente esercitazioni di red team AI utilizzando Arsenal
  • [ ] Iscriviti ai feed di informazioni sulle minacce AI

Le organizzazioni dovrebbero allineare gli investimenti nella sicurezza dell'IA sia con phishing ( phishing generato dall'intelligenza artificiale phishing in rapida crescita) e la difesa dal ransomware (l'intelligenza artificiale consente attacchi più sofisticati).

Analisi approfondita delle minacce specifiche per LLM

I modelli linguistici di grandi dimensioni sono esposti a vettori di attacco unici che la sicurezza tradizionale non è in grado di affrontare. ATLAS cataloga queste minacce in modo sistematico.

Tabella: Tipi di minacce LLM con mappatura ATLAS e metodi di rilevamento

Tipo di minaccia Tecnica ATLAS Metodo di rilevamento Mitigazione
Iniezione diretta istantanea AML.T0051.001 Analisi del modello di input Sanificazione degli input, gerarchia delle istruzioni
Iniezione indiretta immediata AML.T0051.002 Convalida della fonte dei contenuti Controlli delle fonti dei dati, sandboxing
LLM jailbreaking AML.T0051 Monitoraggio del comportamento in uscita Guardrail, filtraggio dell'output
Manipolazione della finestra contestuale AML.T0051 Monitoraggio della lunghezza del contesto Limiti contestuali, sintesi
Avvelenamento da RAG AML.T0060 Controlli di integrità dei documenti Verifica della fonte, controlli di accesso

I recenti CVE dimostrano queste minacce nella pratica:

  • CVE-2025-32711 (EchoLeak): secondo l'analisi di Hack The Box, questa vulnerabilità di Microsoft Copilot consentiva l'esfiltrazione di dati senza clic tramite l'iniezione di prompt combinata con il prompt reflection.
  • CVE-2025-54135/54136 (CurXecute): secondo quanto riportato da BleepingComputer, l'implementazione MCP di Cursor IDE consentiva l'esecuzione di codice remoto tramite prompt injection.

Le funzionalità di rilevamento e risposta alle minacce all'identità aiutano a individuare i tentativi di furto delle credenziali attraverso lo sfruttamento dell'LLM.

Considerazioni sulla sicurezza dell'IA agentica

L'aggiornamento ATLAS di ottobre 2025 riguarda specificatamente gli agenti AI autonomi, ovvero sistemi in grado di intraprendere azioni, accedere a strumenti e mantenere il contesto tra una sessione e l'altra. Le nuove tecniche includono:

  • AML.T0058 Avvelenamento del contesto dell'agente AI: Inserimento di contenuti dannosi nella memoria dell'agente o nel contesto del thread
  • AML.T0059 Fattori scatenanti l'attivazione: Incorporare trigger che si attivano in condizioni specifiche
  • AML.T0060 Dati provenienti dai servizi di intelligenza artificiale: Estrazione di informazioni tramite recupero dal database RAG
  • AML.T0061 Strumenti per agenti AI: Sfruttamento dell'accesso allo strumento agente per scopi dannosi
  • AML.T0062 Esfiltrazione tramite invocazione dello strumento AI Agent: Utilizzo di chiamate di strumenti legittimi per estrarre dati

Principi di sicurezza per gli agenti di IA:

  1. Applicare il principio del privilegio minimo a tutte le autorizzazioni degli strumenti degli agenti
  2. Implementare il sistema "human-in-the-loop" per operazioni delicate
  3. Monitorare continuamente le modifiche alla configurazione dell'agente
  4. Convalida delle configurazioni e delle connessioni del server MCP
  5. Stabilire linee guida di comportamento degli agenti per il rilevamento delle anomalie

Secondo le linee guida CISA del dicembre 2025 relative all'AI/OT, le organizzazioni dovrebbero integrare sistemi di supervisione e di sicurezza per tutti i sistemi di intelligenza artificiale che operano in ambienti critici.

Approcci moderni alla sicurezza dell'IA

Il panorama della sicurezza dell'IA evolve rapidamente, con la pressione normativa e la collaborazione industriale che guidano l'adozione di un quadro normativo. Le organizzazioni devono prepararsi sia alle minacce emergenti che ai requisiti di conformità.

Il programma MITRE Secure AI, sostenuto da 16 organizzazioni membri tra cui Microsoft, CrowdStrike e JPMorgan Chase, si concentra sull'espansione di ATLAS con osservazioni del mondo reale e sull'accelerazione della condivisione degli incidenti relativi all'IA.

Sviluppi normativi:

  • Legge dell'UE sull'IA: gli obblighi relativi all'IA generica (GPAI) sono entrati in vigore nell'agosto 2025, richiedendo test avversari per i sistemi di IA a rischio sistemico e protezione della sicurezza informatica contro accessi non autorizzati.
  • Linee guida CISA: la pubblicazione multi-agenzia del dicembre 2025 affronta il tema della sicurezza dell'IA negli ambienti tecnologici operativi.

Le minacce alla sicurezza dell'IA nel 2025 mostrano una tendenza all'accelerazione continua, con l'87% delle organizzazioni che segnalano l'esposizione ad attacchi informatici basati sull'IA, secondo una ricerca di settore.

Come Vectra AI le minacce alla sicurezza dell'intelligenza artificiale

La metodologia Attack Signal IntelligenceVectra AI applica principi di rilevamento basati sul comportamento che sono in linea con gli obiettivi del framework ATLAS. Concentrandosi sui comportamenti degli aggressori piuttosto che sulle firme statiche, le organizzazioni possono rilevare le tecniche catalogate in ATLAS, dai tentativi di prompt injection all'esfiltrazione dei dati tramite API di inferenza, in tutti cloud ibridi.

Questo approccio consente ai team di sicurezza di identificare e dare priorità alle minacce reali legate all'IA, riducendo al contempo il rumore degli avvisi. Il rilevamento e la risposta della rete, combinati con il rilevamento delle minacce all'identità, forniscono visibilità su tutta la superficie di attacco che le minacce IA ora prendono di mira.

Altri fondamenti della sicurezza informatica

Domande frequenti

Che cos'è MITRE ATLAS?

In che modo MITRE ATLAS differisce da MITRE ATT&CK?

Quante tattiche e tecniche sono presenti in MITRE ATLAS?

Che cos'è l'iniezione immediata in MITRE ATLAS?

Come si usa MITRE ATLAS per la modellazione delle minacce?

Quali strumenti offre MITRE ATLAS?

Come si confronta MITRE ATLAS con OWASP LLM Top 10?