Le truffe basate sull'intelligenza artificiale spiegate: come funzionano le frodi basate sull'intelligenza artificiale e come le aziende le individuano

Approfondimenti chiave

  • Le truffe basate sull'intelligenza artificiale sono aumentate del 1.210% nel 2025, superando di gran lunga la crescita del 195% delle frodi tradizionali, e le perdite previste potrebbero raggiungere i 40 miliardi di dollari entro il 2027.
  • Sette diversi tipi di truffe basate sull'intelligenza artificiale prendono ora di mira le aziende, con l'impersonificazione tramite video deepfake, la clonazione vocale basata sull'intelligenza artificiale e il Business Email Compromise (BEC) basato sull'intelligenza artificiale che rappresentano il rischio più elevato per le organizzazioni.
  • Le difese tradizionali stanno fallendo. phishing generato dall'intelligenza artificiale phishing gli errori grammaticali, i messaggi generici e le limitazioni manuali su cui i filtri e-mail tradizionali e la formazione sulla consapevolezza facevano affidamento per individuare le frodi.
  • Il rilevamento comportamentale colma questa lacuna. Il rilevamento e la risposta di rete (NDR) e il rilevamento e la risposta delle minacce all'identità (ITDR) individuano i modelli anomali di rete, identità e flusso di dati che gli strumenti di sicurezza basati sui contenuti non riescono a rilevare.
  • La verifica a più livelli è ora obbligatoria. I controlli finanziari a doppia approvazione, la verifica fuori banda e le frasi di codice pre-condivise riducono il rischio quando qualsiasi singolo canale di comunicazione può essere replicato sinteticamente.

Le frodi basate sull'intelligenza artificiale non sono più un rischio teorico. Solo nel 2024, l'FBI IC3 ha registrato perdite per 16,6 miliardi di dollari a causa dei crimini informatici, con un aumento del 33% rispetto all'anno precedente, e una quota crescente di questi incidenti è stata causata da tecniche di ingegneria sociale potenziate dall'intelligenza artificiale. Una singola videochiamata deepfake è costata alla società di ingegneria Arup 25,6 milioni di dollari. Phishing generato dall'intelligenza artificiale phishing raggiungono ora tassi di clic quattro volte superiori rispetto a quelli creati dall'uomo. Secondo il Global Cybersecurity Outlook 2026 del World Economic Forum, nel 2025 il 73% delle organizzazioni è stato direttamente colpito da frodi informatiche.

Questa guida spiega come funzionano le truffe basate sull'intelligenza artificiale, i tipi più comuni che i team di sicurezza incontrano, i dati più recenti sulle perdite e, cosa fondamentale, come le aziende individuano e reagiscono alle frodi basate sull'intelligenza artificiale quando le difese tradizionali non sono sufficienti.

Cosa sono le truffe basate sull'intelligenza artificiale?

Le truffe basate sull'intelligenza artificiale sono schemi fraudolenti che utilizzano l'intelligenza artificiale, inclusi modelli linguistici di grandi dimensioni, clonazione vocale, generazione di video deepfake e agenti AI autonomi, per ingannare le vittime su una scala e con un livello di sofisticazione che prima erano impossibili, eliminando i limiti umani che rendevano il social engineering tradizionale rilevabile e lento.

Mentre le truffe tradizionali dipendevano dall'impegno, dalle competenze linguistiche e dal tempo a disposizione dell'autore, le truffe basate sull'intelligenza artificiale eliminano completamente questi vincoli. L'autore non ha più bisogno di padroneggiare la lingua della vittima, non deve più redigere manualmente messaggi personalizzati e non deve più dedicare ore alla preparazione di un singolo tentativo.

Il Rapporto internazionale sulla sicurezza dell'IA 2026 ha rilevato che gli strumenti di IA utilizzati per queste truffe sono gratuiti, non richiedono competenze tecniche e possono essere utilizzati in modo anonimo. Questa combinazione - zero costi, zero competenze, zero responsabilità - spiega perché le frodi basate sull'IA stanno crescendo più rapidamente di qualsiasi altra categoria di minacce.

Oltre alle perdite finanziarie dirette, le truffe basate sull'intelligenza artificiale creano un effetto di "decadimento della verità". Man mano che i video deepfake, le voci clonate e i testi generati dall'intelligenza artificiale diventano indistinguibili dalle comunicazioni autentiche, le organizzazioni perdono la capacità di fidarsi di qualsiasi interazione digitale al suo valore nominale. Ogni videochiamata, messaggio vocale ed e-mail diventa sospetto.

In che modo le truffe basate sull'intelligenza artificiale differiscono dalle truffe tradizionali

Il cambiamento fondamentale riguarda la velocità e la qualità su larga scala. Le truffe tradizionali si basavano sullo sforzo umano e presentavano difetti rilevabili: errori ortografici, frasi sconnesse, saluti generici. Le truffe basate sull'intelligenza artificiale raggiungono risultati di qualità umana alla velocità di una macchina.

Consideriamo phishing punto di riferimento. Secondo una ricerca condotta da IBM X-Force, l'intelligenza artificiale è in grado di generare phishing convincente in cinque minuti. Un ricercatore umano impiegherebbe 16 ore per creare manualmente un'e-mail della stessa qualità. Ciò rappresenta un aumento di velocità pari a 192 volte con una qualità equivalente o superiore, il che significa che un singolo aggressore può ora produrre in un giorno ciò che in precedenza richiedeva mesi di lavoro da parte di un team di specialisti.

Le implicazioni si aggravano su larga scala. L'intelligenza artificiale non si limita a eguagliare la qualità umana. Personalizza ogni messaggio utilizzando i dati raccolti dai profili LinkedIn, dai documenti aziendali e dai social media. Uno studio condotto nel 2024 da Brightside AI ha rilevato che phishing generate dall'intelligenza artificiale hanno raggiunto un tasso di clic del 54% rispetto al 12% del phishing tradizionale phishing un moltiplicatore di efficacia pari a 4,5 volte.

Come funzionano le truffe basate sull'intelligenza artificiale

Comprendere il toolkit dell'aggressore è fondamentale per i difensori. Le frodi basate sull'intelligenza artificiale combinano più tecnologie in una catena di attacchi coordinati, in cui ogni fase sfrutta diverse funzionalità dell'IA.

La clonazione vocale rappresenta uno dei vettori di attacco più accessibili. Una ricerca condotta da McAfee ha scoperto che bastano solo tre secondi di audio per creare un clone vocale con un'accuratezza dell'85%. Come riportato da Fortune nel dicembre 2025, la clonazione vocale ha superato la "soglia dell'indistinguibilità", il che significa che gli ascoltatori umani non sono più in grado di distinguere in modo affidabile le voci clonate da quelle autentiche.

La generazione di video deepfake si è evoluta da falsificazioni evidenti ad avatar interattivi in tempo reale. I nuovi modelli mantengono la coerenza temporale senza sfarfallii, distorsioni o artefatti dell'uncanny valley su cui si basavano i precedenti metodi di rilevamento. Il caso Arup ha dimostrato che i partecipanti ai video deepfake possono ingannare professionisti esperti durante le chiamate in diretta.

phishing basato su LLM utilizza modelli linguistici di grandi dimensioni per generare e-mail iper-personalizzate che fanno riferimento a dettagli organizzativi specifici, transazioni recenti e stili di comunicazione individuali. Questi phishing basati sull'intelligenza artificiale non presentano i segni rivelatori che i filtri e-mail tradizionali sono stati addestrati a individuare.

Gli agenti autonomi specializzati nelle truffe rappresentano l'ultima evoluzione. Secondo una ricerca condotta da Group-IB nel 2026, i call center specializzati nelle truffe basati sull'intelligenza artificiale combinano ora voci sintetiche, coaching basato su LLM e risponditori AI inbound per eseguire operazioni di frode completamente automatizzate su larga scala.

La catena di strumenti per le truffe basate sull'intelligenza artificiale

Le catene di strumenti per le truffe basate sull'intelligenza artificiale ora combinano la clonazione vocale, i video deepfake e i modelli di linguaggio generativo (LLM) oscuri in servizi standardizzati che costano meno di un abbonamento a un servizio di streaming.

Il tipico attacco di truffa basato sull'intelligenza artificiale segue cinque fasi:

  1. Ricognizione -- Gli aggressori raccolgono dati pubblici (social media, documenti aziendali, registrazioni di conferenze) per creare profili dei bersagli e raccogliere campioni vocali e video.
  2. Generazione di contenuti AI: utilizzando LLM oscuri, servizi di clonazione vocale e generatori di deepfake, gli aggressori creano phishing personalizzate, messaggi vocali sintetici o video deepfake.
  3. Consegna: i contenuti generati dall'intelligenza artificiale raggiungono i destinatari tramite e-mail, telefonate, piattaforme di videoconferenza, app di messaggistica o social media.
  4. Sfruttamento: le vittime agiscono sulla base della comunicazione fraudolenta trasferendo fondi, condividendo credenziali, approvando l'accesso o installando applicazioni dannose.
  5. Monetizzazione: i fondi rubati vengono trasferiti tramite piattaforme di scambio di criptovalute, corrieri di denaro o piattaforme di investimento fraudolente.

Figura: Flusso dell'attacco di truffa AI. Cinque fasi sequenziali dalla ricognizione alla monetizzazione, con la generazione di contenuti AI al centro. Ogni nodo rappresenta una fase distinta; i bordi mostrano la progressione dalla raccolta dei dati all'estrazione finanziaria. Testo alternativo: Diagramma di processo lineare in cinque fasi che mostra come le truffe AI progrediscono dalla ricognizione alla generazione di contenuti AI, alla consegna, allo sfruttamento e alla monetizzazione.

L'economia alimenta la crescita. Group-IB ha documentato kit di identità sintetiche disponibili a circa 5 dollari e abbonamenti LLM dark che vanno da 30 a 200 dollari al mese. Entro la fine del 2025, si stima che online esistessero otto milioni di deepfake, rispetto ai circa 500.000 del 2023, con una crescita annuale di circa il 900%.

Le barriere all'ingresso sono praticamente scomparse. Chiunque disponga di un accesso a Internet e di un budget limitato può ora lanciare campagne di ingegneria sociale basate sull'intelligenza artificiale che solo cinque anni fa avrebbero richiesto risorse a livello statale.

Tipi di truffe legate all'intelligenza artificiale

Le truffe basate sull'intelligenza artificiale ora coprono sette diversi vettori di attacco, con i video deepfake, la clonazione vocale e il BEC basato sull'intelligenza artificiale che rappresentano il rischio maggiore per le aziende. La seguente tassonomia copre sia le varianti rivolte ai consumatori che quelle rivolte alle aziende.

Tabella: Classificazione dei tipi di truffe basate sull'intelligenza artificiale con valutazione del rischio aziendale. Didascalia: Tipi comuni di truffe basate sull'intelligenza artificiale, metodi di attacco, obiettivi primari, livelli di rischio aziendale e approcci di rilevamento consigliati.

Tipo di truffa Metodo di attacco Obiettivo primario Livello di rischio aziendale Approccio di rilevamento
Truffe con video deepfake Video generati dall'intelligenza artificiale che impersonano dirigenti in chiamate o pubblicità Imprese, consumatori Critico Analisi comportamentale, verifica fuori banda
Clonazione vocale tramite IA (vishing) Voce clonata utilizzata nelle telefonate per impersonare dirigenti o familiari Imprese, consumatori Alto Rilevamento delle anomalie biometriche vocali, verifica tramite richiamata
phishing generato dall'intelligenza artificiale Email iper-personalizzate create da LLM su larga scala Imprese, consumatori Alto Analisi comportamentale delle e-mail, NDR, monitoraggio dell'identità
BEC basato sull'intelligenza artificiale BEC multimodale che combina e-mail, voce e video impersonificazione Imprese Critico Analisi comportamentale, controlli a doppia approvazione, ITDR
Frode di identità sintetica Identità false generate dall'intelligenza artificiale che combinano dati reali e inventati Servizi finanziari, risorse umane Alto Analisi dell'identità, monitoraggio delle violazioni dei dati
Investimenti nell'intelligenza artificiale e truffe nel settore delle criptovalute "Esperti" generati dall'intelligenza artificiale e piattaforme di trading fasulle Consumatori, investitori al dettaglio Medio Verifica normativa, autenticazione della piattaforma
Truffe romantiche basate sull'intelligenza artificiale (pig butchering) Bot emotivamente intelligenti basati su LLM su larga scala Consumatori Medio Riconoscimento dei modelli comportamentali, segnalazione della piattaforma

Secondo ScamWatch HQ, nel 2025 le truffe tramite video deepfake sono aumentate del 700%, con Gen Threat Labs che ha rilevato 159.378 casi unici di truffe deepfake solo nel quarto trimestre del 2025. Le varianti aziendali includono l'usurpazione dell'identità di dirigenti in videochiamate (come nel caso Arup), annunci deepfake che impersonano dirigenti finanziari e candidati di lavoro deepfake utilizzati da agenti della Corea del Nord.

Gli attacchi di clonazione vocale e vishing tramite IA superano ormai i 1.000 casi al giorno presso i principali rivenditori. Oltre a prendere di mira i consumatori, gli aggressori utilizzano voci clonate di dirigenti per autorizzare bonifici bancari fraudolenti e impersonare funzionari governativi in campagne di ingegneria sociale.

phishing phishing spear phishing generati dall'intelligenza artificiale hanno raggiunto un punto di svolta. Le analisi di KnowBe4 e SlashNext indicano che l'82,6% delle phishing contiene ora alcuni contenuti generati dall'intelligenza artificiale, mentre Hoxhunt riferisce che il 40% delle e-mail BEC è generato principalmente dall'intelligenza artificiale. La differenza tra queste cifre riflette probabilmente la differenza tra metodologie che prevedono "un qualsiasi tipo di assistenza da parte dell'intelligenza artificiale" e metodologie "interamente generate dall'intelligenza artificiale".

Secondo l'FBI IC3, nel 2024 gli attacchi di tipo Business Email Compromise basati sull'intelligenza artificiale hanno causato perdite per 2,77 miliardi di dollari in 21.442 incidenti. L'intelligenza artificiale sta trasformando i BEC da attacchi basati esclusivamente sulle e-mail a campagne multimodali che combinano e-mail, voce e video per creare imitazioni estremamente convincenti.

Gli investimenti nell'intelligenza artificiale e le truffe sulle criptovalute stanno aumentando rapidamente. L'operazione "Truman Show" di Check Point ha schierato 90 "esperti" generati dall'intelligenza artificiale in gruppi di messaggistica controllati, indirizzando le vittime a installare app mobili con dati di trading controllati dal server. Chainalysis ha riportato perdite per 14 miliardi di dollari dovute a truffe sulle criptovalute nel 2025, con le truffe basate sull'intelligenza artificiale che si sono rivelate 4,5 volte più redditizie delle frodi tradizionali.

Le truffe romantiche basate sull'intelligenza artificiale utilizzano modelli linguistici di grandi dimensioni per mantenere conversazioni emotivamente intelligenti su larga scala. Il rapporto "2026 Future of Fraud Forecast" di Experian identifica i bot emotivamente intelligenti basati sull'intelligenza artificiale come una delle principali minacce emergenti, in grado di sostenere decine di "relazioni" simultanee adattando il tono e la personalità a ciascun bersaglio.

Truffe AI mirate alle imprese

Le organizzazioni devono affrontare una serie concentrata di tipi di truffe basate sull'intelligenza artificiale che sfruttano i rapporti di fiducia e i flussi di lavoro di autorizzazione.

L'usurpazione dell'identità di dirigenti tramite deepfake prende di mira le transazioni di maggior valore. L'incidente Arup, in cui un dipendente del reparto finanziario è stato ingannato da una videochiamata interamente deepfake che includeva l'apparente CFO, con il risultato di 15 transazioni separate per un totale di 25,6 milioni di dollari, rimane il caso più eclatante. È stato scoperto solo grazie alla verifica manuale da parte della sede centrale dell'azienda.

I candidati di lavoro deepfake rappresentano una minaccia emergente e persistente. L'FBI, il Dipartimento di Giustizia e la CISA hanno documentato schemi di lavoratori IT della Corea del Nord che hanno colpito 136 o più aziende statunitensi, con agenti che guadagnano oltre 300.000 dollari all'anno e che sono passati all'estorsione di dati. Gartner prevede che entro il 2028 un profilo candidato su quattro potrebbe essere falso.

phishing spear phishing potenziato dall'intelligenza artificiale phishing larga scala prende di mira interi settori verticali. Brightside AI ha documentato una campagna che ha preso di mira 800 studi contabili con e-mail generate dall'intelligenza artificiale che facevano riferimento a dettagli specifici relativi alla registrazione statale, ottenendo un tasso di clic del 27%, ben al di sopra della media del settore per phishing .

Le truffe legate all'intelligenza artificiale in cifre: statistiche 2024-2026

Le frodi basate sull'intelligenza artificiale sono aumentate del 1.210% nel 2025, con perdite previste che raggiungeranno i 40 miliardi di dollari entro il 2027, poiché gli strumenti di intelligenza artificiale democratizzano l'ingegneria sociale su larga scala.

Tabella: Statistiche relative alle truffe basate sull'intelligenza artificiale e ai deepfake, 2024-2026. Didascalia: Principali metriche relative alle perdite finanziarie, al volume degli attacchi e alla prevalenza delle frodi basate sull'intelligenza artificiale, provenienti da fonti autorevoli.

Metrico Valore Fonte Anno
Perdite totali dovute alla criminalità informatica negli Stati Uniti segnalate all'FBI IC3 16,6 miliardi di dollari (aumento del 33% su base annua) Rapporto annuale dell'FBI IC3 2024
Perdite previste dovute a frodi generate dall'intelligenza artificiale 40 miliardi di dollari entro il 2027 (32% CAGR da 12,3 miliardi di dollari nel 2023) Centro Deloitte per i servizi finanziari 2024
Aumento delle frodi basate sull'intelligenza artificiale rispetto alle frodi tradizionali 1.210% con IA rispetto al 195% tradizionale Pindrop tramite Infosecurity Magazine 2026
Organizzazioni colpite da frodi informatiche 73% Prospettive globali sulla sicurezza informatica 2026 del WEF 2026
Perdite BEC segnalate all'FBI IC3 2,77 miliardi di dollari in 21.442 incidenti Rapporto annuale dell'FBI IC3 2024
Perdite globali dovute a truffe (di tutti i tipi) 442 miliardi di dollari sottratti; il 57% degli adulti intervistati è stato vittima di truffe GASA tramite ScamWatch HQ 2025
Perdite dovute a truffe nel settore delle criptovalute 14 miliardi di dollari; le truffe basate sull'intelligenza artificiale sono 4,5 volte più redditizie Chainalysis tramite PYMNTS 2025
Deepfake online ~8 milioni (da ~500.000 nel 2023) DeepStrike tramite Fortune 2025
Casi di truffe deepfake (solo nel quarto trimestre del 2025) 159.378 casi unici Gen Threat Labs 2026
Danni causati da incidenti legati al deepfake (solo nel secondo trimestre del 2025) 350 milioni Gruppo-IB 2026
Persone che hanno subito truffe vocali tramite IA 1 su 4 (il 77% delle vittime ha perso denaro) Sondaggio McAfee su 7.000 persone tramite NCOA 2025
Esposizione alle frodi nei contact center 44,5 miliardi di dollari Pindrop tramite Infosecurity Magazine 2026
I leader segnalano un aumento delle vulnerabilità legate all'intelligenza artificiale 87% Prospettive globali sulla sicurezza informatica 2026 del WEF 2026
Aziende che segnalano un aumento delle perdite dovute a frodi (2024-2025) Quasi il 60% Experian tramite Fortune 2026

Nota sull'ambito dei dati: la cifra dell'FBI IC3 (16,6 miliardi di dollari) rappresenta solo le denunce segnalate alle forze dell'ordine statunitensi e deve essere considerata come un valore minimo. La cifra GASA (442 miliardi di dollari) rappresenta una stima globale che include le perdite non segnalate, basata su un sondaggio condotto su 46.000 adulti in 42 paesi. Entrambe sono accurate per le rispettive metodologie e ambiti di applicazione.

Questi numeri corrispondono direttamente alle metriche di sicurezza informatica dell'organizzazione di cui i CISO hanno bisogno per la rendicontazione a livello di consiglio di amministrazione e la giustificazione degli investimenti.

Truffe AI nelle aziende: casi di studio reali

Le perdite causate dalle truffe legate all'intelligenza artificiale aziendale vanno dai 25,6 milioni di dollari di una singola frode deepfake ai miliardi di perdite annuali causate dal BEC, con le frodi informatiche che ora superano il ransomware come principale preoccupazione dei CEO.

Il WEF Global Cybersecurity Outlook 2026 ha rivelato una sorprendente discrepanza nelle priorità: le frodi informatiche hanno superato il ransomware come principale preoccupazione dei CEO nel 2026, ma il ransomware rimane l'obiettivo principale della maggior parte dei CISO. Il 72% dei leader ha identificato le frodi legate all'intelligenza artificiale come una delle principali sfide operative, con l'87% che ha segnalato un aumento delle vulnerabilità legate all'intelligenza artificiale.

Videochiamata deepfake di Arup - 25,6 milioni di dollari

Nel gennaio 2024, un dipendente del reparto finanziario dell'ufficio di Hong Kong di Arup è stato invitato a partecipare a una videochiamata con quello che sembrava essere il direttore finanziario dell'azienda e diversi colleghi. Tutti i partecipanti erano deepfake, generati da filmati di conferenze disponibili al pubblico. Il dipendente ha autorizzato 15 bonifici bancari separati per un totale di 25,6 milioni di dollari (200 milioni di HKD). La frode è stata scoperta solo quando il dipendente ha successivamente verificato con la sede centrale dell'azienda attraverso un canale separato.

Lezione appresa: non ci si può affidare esclusivamente alle videochiamate per l'autorizzazione finanziaria. Le organizzazioni devono implementare controlli di verifica fuori banda e doppia approvazione per le transazioni di alto valore.

Candidati al lavoro deepfake della Corea del Nord

L'FBI ha documentato schemi messi in atto da lavoratori IT della Corea del Nord che hanno colpito almeno 136 aziende statunitensi. Gli agenti utilizzano la tecnologia deepfake per superare i colloqui video, guadagnando poi oltre 300.000 dollari all'anno e convogliando le entrate verso i programmi di armamento della Corea del Nord. Alcuni sono passati all'estorsione di dati, minacciando di divulgare informazioni riservate rubate. Gartner prevede che entro il 2028 un profilo candidato su quattro potrebbe essere falso.

Check Point "Truman Show" frode finanziaria

Nel gennaio 2026, i ricercatori di Check Point hanno scoperto un'operazione che utilizzava 90 "esperti" generati dall'intelligenza artificiale per popolare gruppi di messaggistica controllati. Le vittime venivano indirizzate a installare un'applicazione mobile, disponibile sugli app store ufficiali, che mostrava dati di trading controllati dal server e riportavano rendimenti fittizi. Gli aggressori hanno creato una realtà completamente sintetica per mantenere la frode.

Modelli di targeting specifici per settore

Settori diversi devono affrontare profili di truffe AI distinti. Le organizzazioni di servizi finanziari sono soggette a BEC, frodi telematiche e frodi nei contact center. Un fornitore di servizi sanitari statunitense ha segnalato che oltre il 50% del traffico in entrata era costituito da attacchi guidati da bot. I principali rivenditori riferiscono di ricevere oltre 1.000 chiamate truffaldine generate dall'AI al giorno. Le aziende di tecnologia e di reclutamento di personale IT sono quelle più esposte al rischio di candidati deepfake.

Secondo Cyble, il 30% degli incidenti di furto d'identità aziendale ad alto impatto nel 2025 ha coinvolto deepfake, confermando che i media sintetici generati dall'intelligenza artificiale sono passati dall'essere una novità a diventare una componente fondamentale delle frodi mirate alle imprese. Una pianificazione efficace della risposta agli incidenti deve ora tenere conto di questi vettori di attacco basati sull'intelligenza artificiale.

Rilevare e prevenire le truffe legate all'intelligenza artificiale

La difesa dalle truffe basate sull'intelligenza artificiale aziendale richiede un sistema di rilevamento a più livelli che comprenda analisi comportamentali, monitoraggio delle identità e analisi della rete, poiché i contenuti generati dall'intelligenza artificiale aggirano sempre più spesso i controlli di sicurezza basati sui contenuti.

Ecco un quadro ordinato per la difesa dalle truffe legate all'intelligenza artificiale aziendale:

  1. Implementare l'analisi comportamentale e l'NDR ( Network Detection and Response ) per identificare modelli di rete anomali associati alle infrastrutture di truffa basate sull'intelligenza artificiale, tra cui comunicazioni di comando e controllo, traffico di sintesi vocale e flussi di dati insoliti.
  2. Implementare il rilevamento delle minacce all'identità: il rilevamento e la risposta alle minacce all'identità (ITDR) segnala modelli di autenticazione anomali, richieste di accesso insolite e deviazioni comportamentali che indicano identità compromesse o sintetiche.
  3. Richiedere controlli di verifica a più livelli: imporre la doppia approvazione per le transazioni finanziarie attraverso canali di comunicazione separati. Stabilire frasi di verifica prestabilite per le comunicazioni di emergenza. Verificare tutte le richieste di alto valore attraverso canali fuori banda.
  4. Migliorare la formazione sulla consapevolezza in materia di sicurezza: spostare l'attenzione dalla ricerca degli errori grammaticali al riconoscimento delle manipolazioni psicologiche, delle situazioni di urgenza e delle richieste insolite. La ricerca di IBM sull'ingegneria sociale nell'ambito dell'intelligenza artificiale conferma che la tradizionale formazione incentrata sulla ricerca degli errori ortografici è ormai inefficace.
  5. Implementa una sicurezza della posta elettronica potenziata dall'intelligenza artificiale: utilizza un filtro e-mail basato sul machine learning che analizza i modelli comportamentali anziché solo le firme dei contenuti. Microsoft Cyber Signals Issue 9 spiega in dettaglio come l'analisi comportamentale rilevi ciò che gli strumenti basati sulle firme non riescono a individuare.
  6. Implementare autenticazione a più fattori ovunque: assicurarsi che l'autenticazione multifattoriale copra tutti i punti di accesso, con metodi phishing(FIDO2, token hardware) prioritari per gli account con privilegi elevati.
  7. Accettare i limiti del rilevamento dei deepfake: il rilevamento dei deepfake basato sui contenuti è sempre meno affidabile con il miglioramento della qualità di generazione. Gartner prevede che entro il 2026 il 30% delle aziende riterrà inaffidabili le soluzioni autonome di verifica dell'identità. Il rilevamento comportamentale delle minacce fornisce un livello complementare fondamentale.

MITRE ATT&CK per le minacce di truffe legate all'intelligenza artificiale

La mappatura delle tecniche di frode basate sull'intelligenza artificiale al MITRE ATT&CK aiuta i team GRC e gli architetti della sicurezza a integrare i rischi di frode basati sull'intelligenza artificiale nei modelli di minaccia esistenti.

Tabella: MITRE ATT&CK rilevanti per le truffe basate sull'intelligenza artificiale. Didascalia: mappatura dei metodi di attacco delle truffe basate sull'intelligenza artificiale alle MITRE ATT&CK con indicazioni per il rilevamento.

Tattica ID tecnica Nome della tecnica Rilevanza delle truffe legate all'intelligenza artificiale Approccio di rilevamento
Accesso iniziale T1566 Phishing phishing spear phishing generate dall'intelligenza artificiale (T1566.001, T1566.002), phishing servizi di messaggistica (T1566.003), vishing con clonazione vocale tramite intelligenza artificiale (T1566.004) Analisi comportamentale delle e-mail, rilevamento delle anomalie NDR, monitoraggio biometrico vocale
Ricognizione T1598 Phishing informazioni Raccolta di informazioni potenziata dall'intelligenza artificiale tramite phishing (T1598.001), link (T1598.003) e chiamate vocali (T1598.004) Analisi del traffico di rete, monitoraggio dell'identità, analisi comportamentale
Sviluppo delle risorse T1588.007 Acquisizione di competenze: Intelligenza artificiale Acquisizione di LLM oscuri, strumenti di clonazione vocale, generatori di deepfake e agenti autonomi per le truffe Informazioni sulle minacce, monitoraggio del dark web, monitoraggio del mercato degli strumenti di intelligenza artificiale

Panorama normativo in materia di frodi legate all'intelligenza artificiale

Il quadro normativo in materia di frodi legate all'intelligenza artificiale sta diventando sempre più rigoroso.

  • Profilo NIST Cyber AI (IR 8596) -- Pubblicato il 16 dicembre 2025, questa bozza di quadro normativo affronta tre aree direttamente applicabili alla difesa dalle truffe basate sull'intelligenza artificiale: la protezione dei componenti dei sistemi di intelligenza artificiale, la conduzione di difese informatiche basate sull'intelligenza artificiale e la prevenzione degli attacchi informatici basati sull'intelligenza artificiale (NIST IR 8596).
  • Azioni di contrasto della FTC - La FTC ha intrapreso diverse azioni contro schemi fraudolenti basati sull'intelligenza artificiale, tra cui casi che coinvolgono falsi strumenti di investimento basati sull'intelligenza artificiale che hanno truffato i consumatori per almeno 25 milioni di dollari.
  • Ordine esecutivo della Casa Bianca sull'intelligenza artificiale - L'ordine esecutivo del dicembre 2025 su "Garantire un quadro politico nazionale per l'intelligenza artificiale" istituisce un quadro normativo federale sull'intelligenza artificiale e crea una task force per il contenzioso in materia di intelligenza artificiale.
  • Leggi statali sull'IA - Il 1° gennaio 2026 sono entrate in vigore diverse leggi statali, tra cui le normative della California e del Texas. La legge S.B. 24-205 del Colorado, che disciplina gli obblighi di governance dell'IA, entrerà in vigore nel giugno 2026.

Approcci moderni alla difesa dalle truffe basate sull'intelligenza artificiale

Il settore sta convergendo su un paradigma di difesa che utilizza l'IA per contrastare l'IA. Gli approcci attuali includono l'analisi comportamentale, il rilevamento delle minacce all'identità, l'analisi del traffico di rete, la sicurezza delle e-mail basata sull'IA, gli strumenti di rilevamento dei deepfake e le piattaforme evolute di formazione sulla consapevolezza della sicurezza.

Diverse tendenze stanno plasmando il panorama. Il rilevamento unificato su rete, cloud, identità e superfici SaaS sta sostituendo gli strumenti isolati che monitorano solo una singola superficie di attacco. I deepfake interattivi in tempo reale presentano sfide che l'analisi statica dei contenuti non è in grado di risolvere. E l'IA agentica, ovvero i sistemi di IA autonomi che agiscono per conto degli utenti, introduce nuovi vettori di frode in cui le macchine manipolano altre macchine.

I segnali di investimento confermano l'urgenza. Adaptive Security ha raccolto 146,5 milioni di dollari in finanziamenti totali, compreso il primo investimento di OpenAI nella sicurezza informatica, incentrato specificamente sulla difesa dall'ingegneria sociale basata sull'intelligenza artificiale. Il 94% dei leader intervistati dal WEF prevede che l'intelligenza artificiale sarà la forza più significativa nella sicurezza informatica nel 2026.

Date chiave da tenere d'occhio per i difensori: la scadenza per la dichiarazione politica della FTC l'11 marzo 2026; il rapporto annuale previsto dell'FBI IC3 2025 nell'aprile 2026; e l'attuazione del Colorado S.B. 24-205 nel giugno 2026.

Come Vectra AI il rilevamento delle truffe basate sull'intelligenza artificiale

L'approccio Vectra AI si concentra sul rilevamento dei comportamenti della rete e delle identità che indicano che le campagne di truffa basate sull'intelligenza artificiale sono andate oltre la fase iniziale di ingegneria sociale. Monitorando le comunicazioni anomale di comando e controllo, i modelli di autenticazione insoliti e i flussi di esfiltrazione dei dati associati all'infrastruttura di frode basata sull'intelligenza artificiale, Attack Signal Intelligence colma il divario dove le difese basate sui contenuti e il giudizio umano falliscono sempre più spesso contro gli attacchi generati dall'intelligenza artificiale. Ciò corrisponde alla filosofia del "presumere la compromissione": individuare gli aggressori già presenti all'interno dell'ambiente è più affidabile che prevenire ogni tentativo di ingegneria sociale potenziato dall'intelligenza artificiale al perimetro.

Conclusione

Le truffe basate sull'intelligenza artificiale rappresentano la categoria di frodi in più rapida crescita nel campo della sicurezza informatica, grazie a strumenti gratuiti, accessibili e anonimi. I dati sono inequivocabili: crescita del 1.210% delle frodi basate sull'intelligenza artificiale, perdite previste pari a 40 miliardi di dollari entro il 2027 e il 73% delle organizzazioni già colpite.

Le aziende che riescono a difendersi con successo da questa minaccia condividono alcune caratteristiche comuni. Implementano sistemi di rilevamento a più livelli su rete, identità e posta elettronica, anziché affidarsi a un unico controllo. Implementano flussi di lavoro finanziari con doppia approvazione che non si basano su un unico canale di comunicazione. Formano i propri team a riconoscere i modelli di manipolazione psicologica piuttosto che gli errori grammaticali. E accettano la realtà del compromesso: il social engineering generato dall'intelligenza artificiale a volte avrà successo, rendendo il rilevamento e la risposta rapidi fondamentali quanto la prevenzione.

Per i team di sicurezza che valutano il proprio livello di preparazione, il quadro è chiaro. Mappate la vostra esposizione alle truffe basate sull'intelligenza artificiale rispetto alle MITRE ATT&CK documentate sopra. Valutate se il vostro attuale stack di rilevamento copre le anomalie comportamentali della rete, le minacce all'identità e gli attacchi basati sulla posta elettronica. E assicuratevi che i vostri playbook di risposta agli incidenti tengano conto di phishing di deepfake, clonazione vocale e phishing generato dall'intelligenza artificiale.

Scopri come la piattaformaVectra AI rileva i comportamenti della rete e delle identità che indicano campagne di truffa basate sull'intelligenza artificiale, individuando ciò che sfugge alle difese basate sui contenuti.

Nozioni fondamentali relative alla sicurezza informatica

Domande frequenti

Come si può capire se un video è un deepfake?

Cosa fare se sei vittima di una truffa basata sull'intelligenza artificiale?

L'intelligenza artificiale può truffarti al telefono?

Che cos'è la macellazione dei suini?

Come funzionano le truffe romantiche basate sull'intelligenza artificiale?

Che cos'è la frode d'identità sintetica?

L'intelligenza artificiale può creare siti web falsi?