L'avanguardia: l'inevitabile ascesa dell'IA nella sicurezza offensiva

27 giugno 2025
Strahinja Janjusevic
Stagista in scienze dei dati
L'avanguardia: l'inevitabile ascesa dell'IA nella sicurezza offensiva

1. Introduzione: Una nuova era di hacking automatizzato

Il mondo della sicurezza offensiva sta subendo un cambiamento sismico, guidato dai rapidi progressi dell'intelligenza artificiale. La recente ascesa dei Large Language Models (LLM) ha sbloccato possibilità senza precedenti per automatizzare, migliorare e persino rivoluzionare il mestiere di hacker. Laddove un tempo l'hacking si affidava esclusivamente alle profonde competenze e al lungo lavoro manuale dei professionisti umani, ora stiamo assistendo all'emergere di strumenti alimentati dall'intelligenza artificiale in grado di ragionare, pianificare ed eseguire sequenze di attacco complesse.

Questi sistemi non sono più teorici o fantascientifici, ma vengono sviluppati attivamente e sottoposti a benchmark in una raffica di ricerche. Alcuni ricercatori si concentrano sull'iniezione di conoscenze profonde del dominio attraverso la messa a punto, creando esperti altamente specializzati. Altri costruiscono sistemi complessi e modulari che imitano i team umani, delegando i compiti a diversi agenti AI. Un terzo gruppo spinge i confini dell'autonomia con l'IA "agenziale", cercando di creare sistemi in grado di operare con un intervento umano minimo.

Per navigare in questo nuovo e complesso panorama è necessaria una mappa chiara. Questo articolo si addentra in questo settore all'avanguardia, fornendo un'analisi comparativa dei framework più importanti. Per fondare la nostra discussione, la tabella seguente offre uno sguardo comparativo ai framework allo stato dell'arte e ai nostri preferiti, tracciandone le strategie fondamentali, le caratteristiche chiave e i compromessi operativi. Serve come guida per comprendere i diversi approcci che i ricercatori stanno adottando per costruire la prossima generazione di strumenti di sicurezza offensivi.

Tabella 1: Analisi comparativa dei framework di AI per la sicurezza offensiva
Nome Approccio e gestione della memoria Caratteristiche e ragionamento Punti di forza e di debolezza
PENTESTGPT [1]
(agosto 2024)
Approccio: Modulare LLM-empowered.
Memoria: PTT per lo stato; PTT; Human-in-the-loop.
Caratteristiche: Moduli di ragionamento, generazione e parsing; il modulo di parsing condensa gli input; sessioni LLM isolate.
Ragionamento: PTT guida le attività successive; CoT per la generazione dei comandi; feedback attivo.
Punti di forza: Attenua la perdita di contesto; gestione strutturata delle attività.
Punti deboli: Dipende dall'intervento umano; fatica con obiettivi "difficili"; allucinazioni LLM.
CIPER [2]
(novembre 2024)
Approccio: LLM ottimizzato.
Memoria: La RAG fornisce l'apprendimento nel contesto; la messa a punto fine mantiene il contesto del compito.
Caratteristiche: Assistente chatbot; RAG; Flusso FARR.
Ragionamento: Imita il ragionamento degli esperti; suggerisce le fasi successive a partire dai risultati; pipeline a 3 fasi.
Punti di forza: conoscenze specialistiche; ottimo per i principianti.
Punti deboli: Scarsa capacità di debug; pregiudizio sui dati; codifica non enfatizzata.
RedTeamLLM [3]
(maggio 2025)
Approccio: IA agenziale.
Memoria: Il gestore della memoria memorizza le tracce come albero; ADAPT Enhanced gestisce il contesto.
Caratteristiche: 7 componenti (Launcher, RedTeamAgent, correzione dinamica del piano).
Ragionamento: Ragiona prima di agire; pianificazione ricorsiva.
Punti di forza: affronta la correzione dei piani, la memoria e i vincoli del contesto; elevata competitività del CTF.
Punti deboli: Il riassunto stateless può omettere informazioni; i componenti PoC sono immaturi.
PentestAgent [4]
(maggio 2025)
Approccio: Basato su LLM-Agente.
Memoria: RAG agisce come memoria a lungo termine, garantendo un uso efficiente del contesto.
Caratteristiche: Progettazione multi-agente; RAG; integrazione di strumenti.
Ragionamento: L'agente di pianificazione progetta le strategie; gli altri agenti eseguono le fasi.
Punti di forza: aumenta la conoscenza; automatizza la raccolta, l'analisi e lo sfruttamento delle informazioni.
Punti deboli: Dipende dalla qualità dei dati RAG e dalla capacità di utilizzo dello strumento LLM.
VulnBot [5]
(gennaio 2025)
Approccio: IA agenziale (Multi-Agent).
Memoria: Il riassuntore consolida le informazioni; il recuperatore di memoria (DB vettoriale e RAG) per il contesto.
Caratteristiche: Design trifase; PTG; meccanismo di riflessione; RAG.
Ragionamento: Il PTG modella le dipendenze dai compiti; la sessione di pianificazione riflette sul feedback.
Punti di forza: simula i team umani; automatizza i flussi di lavoro; utilizza LLM open-source.
Punti deboli: Le prestazioni dipendono dagli LLM sottostanti; coordinamento complesso.
AutoAttacker [6]
(Mar 2024)
Approccio: IA agenziale (ReAct).
Memoria: L'Experience Manager viene consultato per convalidare l'azione corrente.
Caratteristiche: Pianificazione LLM; riassunto; generazione di codice; integrazione Metasploit; "Experience Manager" episodico.
Ragionamento: Ciclo in stile ReAct: pianificare, eseguire, osservare, ripetere.
Punti di forza: Efficace in compiti di sicurezza isolati, soprattutto dopo la penetrazione.
Punti deboli: Si concentra sulla post-penetrazione; la memoria convalida l'azione corrente, non aggiorna il piano.
HackingBuddyGPT [7]
(2023)
Approccio: Sfruttamento guidato da LLM.
Memoria: Si basa sulla finestra di contesto dell'LLM.
Caratteristiche: Agente locale per attacchi SSH/web; richiede LLM compatibili.
Ragionamento: LLM riconosce e sfrutta le vulnerabilità contestualizzate.
Punti di forza: accelera le indagini precoci; il non-determinismo può sfuggire al rilevamento.
Punti deboli: Limitato dall'LLM configurato; si concentra su vulnerabilità semplici.
PenTest++ [8]
(febbraio 2025)
Approccio: Automazione potenziata dall'intelligenza artificiale.
Memoria: Si basa sulla gestione del contesto di ChatGPT.
Caratteristiche: Integra GenAI (ChatGPT) per tutte le fasi del pentesting.
Ragionamento: ChatGPT analizza i dati e offre approfondimenti.
Punti di forza: semplifica la scansione; automatizza le attività ripetitive; analizza dati complessi.
Punti deboli: Enfatizza le garanzie etiche e il continuo perfezionamento.
HackSynth [9]
(dic. 2024)
Approccio: IA agenziale (Simplified ReAct).
Memoria: Implicitamente dipende dalla finestra di contesto dell'LLM.
Caratteristiche: Pianificatore e riassuntore in un ciclo "pensa e poi agisci".
Ragionamento: Ciclo "pensa e agisci".
Punti di forza: Mostra che la temperatura e le dimensioni del contesto dominano sulla novità architettonica.
Punti deboli: Evidenzia l'importanza dei parametri LLM rispetto alla struttura stessa.

2. Tre percorsi per l'hacking con l'intelligenza artificiale

Il percorso per sfruttare i LLM per la sicurezza offensiva è sfociato in tre filosofie architettoniche principali, ognuna con una serie di compromessi.

2.1. Modelli perfezionati: Gli specialisti

Questo approccio prevede che si prenda un LLM pre-addestrato e lo si addestri ulteriormente su vasti insiemi di dati specializzati nel settore della cybersicurezza. La forza della messa a punto sta nel raggiungere un'elevata precisione e rilevanza per compiti specifici e ben definiti. Questi modelli possono raggiungere un alto livello di competenza su compiti ristretti, portando a risultati più accurati e contestualmente rilevanti per scenari noti. Concentrando l'addestramento su dati rilevanti, la messa a punto può anche ridurre la probabilità che il LLM generi informazioni irrilevanti o di fatto errate (allucinazioni) quando opera nel suo dominio specializzato. Per compiti altamente specifici, potrebbe anche essere possibile mettere a punto LLM più piccoli e più efficienti. Tuttavia, questo approccio presenta dei punti deboli. La creazione di set di dati di alta qualità, completi e imparziali è un'impresa significativa. Inoltre, questi modelli eccellono nella loro distribuzione di addestramento, ma possono faticare ad adattarsi a vulnerabilità, strumenti o scenari di attacco completamente nuovi. La vastità della sicurezza offensiva rende difficile creare un unico modello ottimizzato che copra tutti gli aspetti in modo efficace.

2.2. Quadri modulari alimentati da LLM: I giocatori della squadra

Questi sistemi utilizzano gli LLM come componenti intelligenti all'interno di un'architettura più ampia e strutturata. Spesso suddividono il processo di penetration testing in fasi distinte gestite da moduli diversi, attenuando le limitazioni degli LLM, come la perdita di contesto, attraverso l'isolamento delle preoccupazioni. PENTESTGPT [1] e VulnBot [5], ad esempio, impiegano progetti multi-agente in cui agenti diversi si specializzano in fasi come la ricognizione, la pianificazione e lo sfruttamento. I punti di forza di questo approccio sono una gestione più strutturata dei compiti e la capacità di mantenere la concentrazione, che porta a un completamento più affidabile dei sottocompiti. Possono anche incorporare la RAG (Retrieval Augmented Generation) per attingere a dati esterni, fornendo una base di conoscenza più dinamica. I principali punti deboli sono la complessità ingegneristica del coordinamento dei moduli e la frequente dipendenza da un uomo nel ciclo per prendere decisioni complesse.

2.3. Sistemi di intelligenza artificiale agici: Gli operatori autonomi

Questo è l'approccio più ambizioso, che mira a creare agenti AI in grado di pianificare, eseguire e adattarsi a compiti complessi e di lunga durata con una minima supervisione umana. RedTeamLLM [3] esemplifica questo approccio con un'architettura integrata per automatizzare le attività di pentesting. I punti di forza dei sistemi agenziali sono la loro progettazione per compiti complessi e in più fasi attraverso la pianificazione, la scomposizione dei compiti e l'esecuzione iterativa. Possono essere equipaggiati per utilizzare vari strumenti in modo dinamico e interagire con gli ambienti di destinazione. Con una robusta correzione dei piani e l'apprendimento, hanno il potenziale per una maggiore autonomia e adattabilità. I principali punti deboli sono che l'efficacia dell'agente dipende fortemente dalle capacità di ragionamento del LLM sottostante. Ragionamenti errati, distorsioni o errori possono propagarsi e aggravarsi, portando al fallimento della missione.

Prestazioni di RedTeamLLM sulla rete sconosciuta

3. Gli ostacoli da superare

Nonostante i rapidi progressi, rimangono diverse sfide fondamentali in tutti gli approcci. La perdita di contesto è un collo di bottiglia centrale; la finestra di contesto limitata degli attuali LLM ostacola direttamente la loro capacità di condurre operazioni sofisticate che richiedono di richiamare e sintetizzare le informazioni nel tempo. Le innovazioni architettoniche tentano di fornire una memoria esterna strutturata, ma questo rimane un problema fondamentale. I LLM possono anche faticare ad applicare le loro capacità di ragionamento in modo coerente per raggiungere un obiettivo finale, soprattutto quando il percorso prevede più passaggi interdipendenti. Inoltre, i LLM tendono a dare eccessiva importanza ai compiti o alle informazioni più recenti, trascurando potenzialmente le vulnerabilità precedentemente identificate. Infine, il problema ben documentato dell'allucinazione, in cui i LLM generano informazioni plausibili ma non corrette, è un problema importante per l'affidabilità delle operazioni autonome.

4. Il nuovo campo di battaglia: L'intelligenza artificiale nella catena di distruzione cibernetica

I progressi dell'IA hanno profonde implicazioni non solo per compiti isolati, ma per ogni fase della catena di distruzione informatica. Dalla ricognizione iniziale all'esfiltrazione finale, gli agenti di IA sono pronti a migliorare, accelerare e automatizzare l'intero ciclo di vita dell'attacco.

4.1. Applicazioni offensive e difensive

Nella fase di ricognizione, l'intelligenza artificiale può automatizzare il processo di raccolta di informazioni open-source (OSINT) su scala massiccia, correlando dati provenienti da fonti disparate per costruire profili dettagliati di organizzazioni e individui bersaglio. Nelle fasi di Armamento e Consegna, gli LLM possono creare email di phishing personalizzate e altamente convincenti o generare malware polimorfi che eludono il rilevamento basato sulle firme. Durante la fase di sfruttamento e installazione, i sistemi agenziali possono sondare autonomamente le vulnerabilità, selezionare gli exploit appropriati e stabilire la persistenza su un sistema compromesso. Per il Command and Control (C2), le IA possono progettare canali di comunicazione furtivi che si confondono con il normale traffico di rete. Infine, durante le azioni sugli obiettivi, un'IA può automatizzare l'esfiltrazione dei dati, identificando e confezionando in modo intelligente le informazioni sensibili da estrarre. Dal punto di vista difensivo, questa stessa potenza può essere utilizzata per costruire posizioni di sicurezza più solide, con sistemi di intelligenza artificiale che analizzano il traffico di rete alla ricerca di anomalie, prevedono i movimenti degli aggressori e automatizzano la risposta agli incidenti.

4.2. Il modello di protocollo contestuale (MCP) che cambia le carte in tavola

L'emergere di un protocollo standardizzato per il contesto delle macchine (MCP) potrebbe potenziare queste capacità, consentendo una comunicazione senza soluzione di continuità tra diversi agenti e strumenti di IA specializzati. Un agente di IA offensivo potrebbe utilizzare MCP per interrogare un agente di ricognizione specializzato per ottenere informazioni sull'obiettivo, richiedere un payload personalizzato a un servizio di generazione malware o coordinare un attacco in più fasi con altri agenti di sfruttamento. Ciò introduce un potenziale di automazione, modularità e standardizzazione senza precedenti nel modo in cui gli agenti di IA offensivi accedono e utilizzano strumenti e servizi lungo l'intera kill chain, rendendo gli attacchi più sofisticati e più difficili da difendere.

5. Future Shock: cosa c'è all'orizzonte?

L'attuale traiettoria di sviluppo dell'IA punta verso capacità che un tempo erano dominio della fantascienza. La fusione di sistemi agonici, enormi insiemi di dati e modelli specializzati darà probabilmente origine a strumenti offensivi che cambieranno il paradigma. Alcuni esempi possono essere: Zero-Days generati dall'AI Una delle possibilità più profonde è la generazione di exploit zero-day guidati dall'AI. Questo rappresenta il Santo Graal dell'hacking, in cui la scoperta delle vulnerabilità non è più un'attività puramente umana. Immaginate un'intelligenza artificiale che analizza continuamente repository di codice open-source, binari di software proprietario e firmware, alla ricerca non solo di modelli di vulnerabilità noti, ma anche di classi di bug completamente nuove. Imparando i principi astratti dell'interazione tra software e hardware (gestione della memoria, trattamento dei dati, flussi logici), un sistema di questo tipo potrebbe identificare sottili difetti logici, condizioni di gara e interazioni impreviste che potrebbero sfuggire ai ricercatori umani. Questo potrebbe portare a un flusso costante di exploit precedentemente sconosciuti, spostando drasticamente l'equilibrio di potere tra attaccanti e difensori e rendendo obsoleti i tradizionali cicli di patch.

Hacking autonomo dello sciame

Un'altra possibilità che cambia il paradigma è il concetto di swarm hacking autonomo. Questo concetto va oltre l'idea di un singolo agente per immaginare un assalto coordinato e multi-agente. Invece di un attacco lineare, immaginate uno sciame di decine o addirittura centinaia di IA specializzate lanciate contro una rete bersaglio. Gli agenti di ricognizione mapperebbero il terreno, gli agenti di vulnerabilità verificherebbero i punti deboli e gli agenti di sfruttamento agirebbero in base alle scoperte, il tutto coordinato come un attacco parallelo. Questo sciame potrebbe adattarsi alle misure difensive in tempo reale, reindirizzando il suo percorso di attacco se un vettore è bloccato e condividendo le informazioni tra gli agenti per trovare il percorso di minor resistenza. La velocità, la scala e l'adattabilità di un attacco di questo tipo sarebbero schiaccianti per i tradizionali centri operativi di sicurezza guidati da esseri umani, che sono progettati per tracciare e rispondere a una manciata di minacce simultanee.

Ingegneria sociale iper-personalizzata

L'intelligenza artificiale probabilmente perfezionerà anche l'arte della truffa. La prossima generazione di attacchi di social engineering sarà profondamente personalizzata e dinamicamente adattativa. Sintetizzando le informazioni provenienti dai social media, dalle reti professionali e dai dati violati, un'IA potrebbe generare e-mail phishing iper-personalizzate, indistinguibili dalla corrispondenza legittima, facendo riferimento a conversazioni recenti, interessi condivisi e progetti specifici. Inoltre, potrebbe clonare la voce di un amministratore delegato per una chiamata di vishing in grado di rispondere alle domande in tempo reale, o eseguire una finta campagna sui social media così convincente da costruire la fiducia con un obiettivo per settimane o mesi prima di fare la sua mossa. Questo livello di manipolazione psicologica, eseguito su larga scala e con un ricordo perfetto della storia e della personalità dell'obiettivo, rappresenta una minaccia formidabile che aggira completamente le difese tecniche.

Sfruttamento predittivo e difesa automatica

La corsa tra attaccanti e difensori accelererà fino alla velocità della macchina. Le IA offensive potrebbero essere incaricate non solo di trovare le vulnerabilità esistenti, ma anche di prevedere quelle future. Analizzando la velocità di sviluppo e le abitudini di codifica di un progetto software, un'intelligenza artificiale potrebbe essere in grado di prevedere dove è più probabile che compaiano i bug. In risposta, le IA difensive automatizzeranno l'altro lato dell'equazione. Immaginate un agente difensivo che monitora la propria rete, identifica la divulgazione di una nuova vulnerabilità, genera una patch personalizzata, la testa in un ambiente sandbox e la distribuisce in tutta l'azienda, il tutto entro pochi minuti dall'annuncio della vulnerabilità e molto prima che un team umano possa anche solo convocare una riunione.

Operazioni di disinformazione e influenza guidate dall'IA

Oltre agli attacchi diretti alla rete, l'IA rivoluzionerà le operazioni di influenza. Gli attori sponsorizzati dallo Stato o malintenzionati potrebbero impiegare sciami di agenti di IA per creare e diffondere disinformazione altamente credibile su social media, forum e siti di notizie. Questi agenti potrebbero creare personaggi falsi con anni di cronologia di post coerenti, impegnarsi in argomentazioni sfumate e adattare la loro messaggistica in base alla risposta del pubblico. Potrebbero essere utilizzati per manipolare l'opinione pubblica, interrompere le elezioni o fomentare disordini sociali con un livello di sofisticazione e di scala tale da far sembrare primitive le attuali botnet. L'individuazione e il contrasto di queste campagne richiederanno un'analisi dei contenuti e una mappatura delle reti altrettanto sofisticate e alimentate dall'intelligenza artificiale.

6. Conclusione

L'integrazione dell'IA nella sicurezza offensiva non è più un esercizio teorico, ma una realtà in rapida evoluzione che sta ridisegnando il panorama delle minacce informatiche. Lo sviluppo di specialisti perfezionati, sistemi modulari collaborativi e agenti autonomi dimostra una chiara traiettoria verso capacità di attacco più sofisticate e automatizzate. Sebbene permangano ostacoli significativi, come la conservazione del contesto e la coerenza della ricerca, il ritmo dell'innovazione è sbalorditivo. Il vero impatto di queste tecnologie si farà sentire lungo l'intera catena di distruzione informatica, dalla ricognizione guidata dall'intelligenza artificiale all'esfiltrazione automatizzata. Man mano che andiamo avanti, la competizione tra attaccanti e difensori diventerà sempre più una partita a scacchi ad alta velocità, guidata dalle macchine. Il successo in questa nuova era non dipenderà dalla semplice reazione alle minacce, ma dalla comprensione e dallo sfruttamento proattivo di queste potenti capacità di intelligenza artificiale per costruire difese intelligenti, adattive e autonome come gli attacchi che sono state progettate per fermare. Il futuro della sicurezza appartiene a coloro che sapranno anticipare e innovare in questa nuova arena alimentata dall'intelligenza artificiale.

Riferimenti

[1] Deng, G., et al. (2024). PENTESTGPT: Evaluating and Harnessing Large Language Models for Automated Penetration Testing. Nel 33° Simposio sulla sicurezza dell'USENIX (USENIX Security 24).

[2] Pratama, D., et al. (2024). CIPHER: Cybersecurity Intelligent Penetration-Testing Helper for Ethical Researcher. Sensors, 24, 6878.

[3] Challita, B. & Parrend, P. (2025). RedTeamLLM: an Agentic AI framework for offensive security. arXiv preprint arXiv:2505.06913.

[4] Shen, X., et al. (2025). PentestAgent: Incorporating LLM Agents to Automated Penetration Testing. In ACM Asia Conference on Computer and Communications Security (ASIA CCS '25).

[5] Kong, H., et al. (2025). VulnBot: Autonomous Penetration Testing for A Multi-Agent Collaborative Framework. arXiv preprint arXiv:2501.13411.

[6] Xu, J., et al. (2024). AUTOATTACKER: A Large Language Model Guided System to Implement Automatic Cyber-attacks. arXiv preprint arXiv:2403.01038.

[7] Happe, A. & Cito, J. (2023). L'intelligenza artificiale fa da padrona: test di penetrazione con modelli linguistici di grandi dimensioni. In Proceedings of the 31st ACM Joint European Software Engineering Conference and Symposium on the Foundations of Software Engineering (ESEC/FSE '23).

[8] Al-Sinani, H. S. & Mitchell, C. J. (2025). PenTest++: Elevating Ethical Hacking with AI and Automation. arXiv preprint arXiv:2502.09484.

[9] Muzsai, L., Imolai, D., & Luk´ acs, A. (2024). HackSynth: LLM Agent and Evaluation Framework for Autonomous Penetration Testing. arXiv preprint arXiv:2412.01778.

[10] Zhang, A. K., et al. (2025). CYBENCH: UN FRAMEWORK PER LA VALUTAZIONE DELLE CAPACITÀ E DEI RISCHI DI CYBERSICUREZZA DEI MODELLI LINGUISTICI. Da pubblicare in International Conference on Learning Representations (ICLR 2025).

DOMANDE FREQUENTI