Dai kit di ransomware che chiunque può generare con un prompt, ai falsi dipendenti che si infiltrano nelle aziende Fortune 500, fino alle campagne di estorsione gestite interamente da agenti di codifica AI, gli aggressori non sono più vincolati da abilità o scala. L 'ultimo rapporto di Anthropic sull'intelligence delle minacce mostra come l'IA sia diventata il moltiplicatore di forza definitivo per la criminalità informatica, comprimendo le tempistiche degli aggressori da settimane a ore e aiutando anche gli attori poco qualificati a eludere le difese tradizionali.
Il risultato? Un divario di sicurezza sempre più ampio. Mentre la maggior parte delle organizzazioni si affida ancora agli strumenti di prevenzione per bloccare gli attacchi di ieri, gli avversari stanno usando l'intelligenza artificiale per aggirare completamente questi livelli.
Cosa ha scoperto il rapporto Anthropic
1. I sistemi di intelligenza artificiale agici vengono utilizzati come armi
Uno dei risultati più sorprendenti del rapporto Anthropic è che i modelli di IA non sono più consulenti passivi, ma operatori attivi all'interno della catena di attacco.
In quella che i ricercatori hanno definito la campagna di hacking vibrante, un singolo criminale ha utilizzato un agente di codifica AI per lanciare e scalare un'estorsione di dati. Invece di limitarsi a suggerire i comandi, l'IA li ha eseguiti direttamente:
- Ricognizione automatizzata: L'intelligenza artificiale ha analizzato migliaia di endpoint VPN, identificando i punti deboli su scala.
- Raccolta di credenziali e movimento laterale: Estraeva sistematicamente le credenziali di accesso, enumerava gli ambienti di Active Directory e aumentava i privilegi per muoversi più a fondo nelle reti delle vittime.
- Creazione di malware personalizzato: In caso di rilevamento, l'IA ha generato varianti malware offuscate, camuffate da eseguibili Microsoft legittimi, per aggirare le difese.
- Esfiltrazione dei dati e orchestrazione dei riscatti: L'intelligenza artificiale ha estratto dati sensibili di tipo finanziario, sanitario e governativo, quindi li ha analizzati per stabilire le richieste di riscatto e creare note di riscatto psicologicamente mirate che minacciavano la reputazione e l'esposizione normativa.

In un solo mese sono state colpite 17 organizzazioni, tra cui agenzie governative, fornitori di servizi sanitari e di emergenza. Le richieste di riscatto variavano da 75.000 a oltre 500.000 dollari, e ogni nota è stata personalizzata per massimizzare la pressione sulla vittima.
Questo rappresenta un cambiamento fondamentale nell'economia degli attaccanti:
- Un attore solitario, armato di un'intelligenza artificiale, può ora avere lo stesso impatto di un gruppo coordinato di criminali informatici.
- Operazioni che un tempo richiedevano settimane di pianificazione e competenze tecniche possono essere compresse in poche ore con l'IA che fa il lavoro pesante.
- L'assunto che "attacchi sofisticati richiedono avversari sofisticati" non è più valido.
2. L'intelligenza artificiale abbassa le barriere al crimine informatico sofisticato
Un altro tema chiave del rapporto Anthropic è il modo in cui l'IA rende accessibili tecniche di attacco avanzate a persone con competenze tecniche scarse o nulle.
Tradizionalmente, la creazione di ransomware richiedeva una profonda conoscenza della crittografia, degli interni di Windows e delle tecniche stealth. In questo caso, invece, un attore delle minacce con sede nel Regno Unito e con capacità tecniche limitate ha costruito e venduto pacchetti di ransomware-as-a-service (RaaS) completamente funzionali utilizzando l'assistenza di codifica dell'intelligenza artificiale.
- Non è richiesta alcuna competenza tecnica: L'attore si è affidato all'intelligenza artificiale per implementare la crittografia ChaCha20, la gestione delle chiavi RSA e le chiamate API di Windows, capacità che vanno ben oltre il livello di competenza personale.
- Evasione integrata: L'intelligenza artificiale ha aiutato l'attore a integrare tecniche di aggiramento anti-EDR come la manipolazione delle syscall (FreshyCalls, RecycledGate), l'offuscamento delle stringhe e l'anti-debug.
- Confezioni professionali: Il ransomware è stato commercializzato in livelli di servizio ben definiti: dai kit DLL/eseguibili da 400 dollari ai bundle crypter completi da 1.200 dollari con console PHP e infrastruttura C2 basata su Tor.
- Scala commerciale: Nonostante la dipendenza dall'IA, l'operatore ha distribuito malware su forum criminali, offrendo dichiarazioni di "sola ricerca" e vendendo attivamente a criminali informatici meno esperti.

Questo esempio illustra come l 'IA stia democratizzando l'accesso alla criminalità informatica sofisticata:
- Lo sviluppo di malware complessi non è più limitato a sviluppatori altamente qualificati: chiunque abbia l'intenzione e l'accesso all'intelligenza artificiale può creare un ransomware fattibile.
- Le barriere di tempo, formazione e competenza sono state rimosse, aprendo il mercato a un gruppo più ampio di attori malintenzionati.
- Abbassando l'asticella, l'intelligenza artificiale aumenta drasticamente il volume e la varietà degli attacchi ransomware che le organizzazioni possono trovarsi ad affrontare.
3. I criminali informatici stanno integrando l'IA nelle loro operazioni
Il rapporto di Anthropic mostra che i criminali informatici non si limitano a utilizzare l'IA per singoli compiti, ma la stanno inserendo nel tessuto delle loro operazioni quotidiane.
Unchiaro esempio è dato da agenti nordcoreani che si fingono sviluppatori di software presso aziende tecnologiche occidentali. In questo schema, l'IA ha svolto un ruolo in ogni fase dell'operazione:
- Creazione di personaggi: Gli operatori hanno utilizzato l'intelligenza artificiale per generare curriculum professionali, creare portafogli tecnici convincenti e costruire narrazioni di carriera in grado di resistere ai controlli.
- Candidatura e colloquio: L'intelligenza artificiale ha adattato le lettere di presentazione agli annunci di lavoro, ha preparato gli operatori per i colloqui tecnici e ha persino fornito assistenza in tempo reale durante le valutazioni di codifica.
- Mantenimento dell'occupazione: Una volta assunti, gli operatori si affidavano all'intelligenza artificiale per consegnare il codice, rispondere alle richieste di pull e comunicare con i compagni di squadra in un inglese professionale e fluente, mascherando le lacune tecniche e culturali.
- Generazione di entrate: Grazie all'IA che fornisce le competenze mancanti, questi agenti sono stati in grado di svolgere più lavori contemporaneamente, incanalando gli stipendi direttamente nel programma di armamento della Corea del Nord.

Non si tratta solo di frodi, ma di IA come spina dorsale operativa:
- La competenza tecnica non è più un prerequisito per accedere a posti di lavoro ben retribuiti in settori sensibili.
- L'intelligenza artificiale consente agli insider malintenzionati di mantenere posizioni a lungo termine, ricavandone un reddito costante e la proprietà intellettuale.
- I gruppi sponsorizzati dallo Stato possono ampliare il loro raggio d'azione senza scalare i programmi di formazione, mentre l 'IA sostituisce anni di istruzione tecnica con competenze in tempo reale e su richiesta.
4. L'IA viene utilizzata per tutte le fasi delle operazioni di frode.
Le frodi sono sempre state basate su scala, velocità e inganno, e l'IA ora le amplifica tutte e tre. Il rapporto Anthropic rivela come i criminali stiano applicando l'IA end-to-end lungo la catena di approvvigionamento delle frodi, trasformando truffe isolate in ecosistemi resilienti e industrializzati.
- Analisi dei dati e profilazione delle vittime: I criminali hanno utilizzato l'intelligenza artificiale per analizzare i dump dei log dei ladri, classificare le vittime in base al comportamento online e creare profili dettagliati. In questo modo i dati grezzi rubati si trasformano in informazioni utili, consentendo di mirare in modo preciso.
- Sviluppo dell'infrastruttura: Gli attori hanno costruito piattaforme di carding alimentate dall'intelligenza artificiale con cambio automatico di API, meccanismi di failover e strozzatura intelligente per evitare il rilevamento. Queste piattaforme operavano a livello aziendale, convalidando e rivendendo carte di credito rubate su scala.
- Creazione di identità: L'intelligenza artificiale è stata sfruttata per generare identità sintetiche complete di dati personali plausibili, consentendo ai truffatori di aggirare i controlli bancari e creditizi con poco sforzo.
- Manipolazione emotiva: Nelle truffe amorose, i chatbot generati dall'IA hanno prodotto risposte fluide ed emotivamente intelligenti in più lingue, consentendo a chi non è madrelingua di coinvolgere le vittime in modo convincente e su larga scala.

L'intelligenza artificiale non si limita più ad assistere le frodi, ma le orchestra:
- I criminali possono automatizzare ogni fase dell'operazione, dalla raccolta dei dati alla loro monetizzazione.
- Le campagne di frode diventano più scalabili, più adattive e più difficili da individuare per le vittime (o per le banche).
- Anche gli attori meno qualificati possono creare servizi di frode che hanno l'aspetto di piattaforme professionali.
Il crescente divario di sicurezza
Il rapporto chiarisce che l'intelligenza artificiale non solo rende gli aggressori più intelligenti, ma li rende anche più veloci ed elusivi. E questa velocità sta mettendo a nudo le lacune degli attuali stack di sicurezza.
- Gli strumenti tradizionali non riescono a tenere il passo. Le difese Endpoint , l'MFA e la sicurezza delle e-mail vengono eluse, non violate. Gli aggressori utilizzano l'intelligenza artificiale per aggirare questi controlli, creando nuove varianti malware , generando esche phishing o simulando dipendenti che sembrano legittimi.
- Le tempistiche si comprimono. Un singolo operatore dotato di intelligenza artificiale può svolgere il lavoro di un'intera squadra: ricognizioni, spostamenti laterali ed estorsioni avvengono ora in poche ore anziché in settimane.
- Complessità ≠ sofisticazione. L'intelligenza artificiale consente anche ad attori non qualificati di generare ransomware avanzati, di creare identità sintetiche o di eseguire schemi di frode su larga scala. Il legame tra competenze tecniche e complessità dell'attacco si è spezzato.
Questo è il gap di sicurezzaMentre gli strumenti di prevenzione difendono dalle tecniche note, gli aggressori dotati di intelligenza artificiale sfruttano i punti ciechi intermedi. E se i team SOC non sono in grado di vedere i comportamenti che l'intelligenza artificiale non riesce a mascherare (escalation dei privilegi, accessi anomali, spostamenti laterali, messa in scena dei dati), i compromessi non vengono individuati.
Colmare il divario con Vectra AI
Per i leader aziendali, la conclusione è semplice: se gli aggressori utilizzano l'AI per scalare la compromissione, il vostro SOC ha bisogno dell'AI per scalare il rilevamento e la risposta. È qui che Vectra AI offre un valore misurabile.
- Rilevare ciò che la prevenzione non rileva. Che si tratti di ransomware generato dall'AI, di dipendenti fraudolenti o di furti di dati furtivi, Vectra AI si concentra sui comportamenti degli aggressori che non possono essere nascosti: escalation dei privilegi, movimento laterale ed esfiltrazione dei dati.
- Copertura ibrida. Gli aggressori non rimangono in una sola corsia. Vectra AI monitora insieme i sistemi di identità, i carichi di lavoro cloud , le applicazioni SaaS e il traffico di rete, eliminando i punti ciechi tra gli strumenti isolati.
- Priorità guidata dall'intelligenza artificiale. Proprio come gli avversari usano l'automazione per accelerare gli attacchi, Vectra usa l'intelligenza artificiale per correlare, dare priorità e far emergere le minacce più urgenti, in modo che il vostro team agisca prima su ciò che conta.
Il valore aziendale? Ridurre il rischio di perdite finanziarie, multe e danni alla reputazione, dando al contempo al team di sicurezza la certezza di poter rilevare una compromissione anche quando gli aggressori utilizzano l'intelligenza artificiale per aggirare i livelli di prevenzione. > Leggi il rapporto IDC sul valore aziendale di Vectra AI.
Siete pronti a scoprire come Vectra AI può aiutarvi a rilevare ciò che agli altri sfugge? Esplorate la nostra demo autoguidata e scoprite come colmiamo il gap di sicurezza.