I vostri dipendenti stanno già utilizzando l'IA. La domanda è: ne siete a conoscenza? Secondo il rapporto "State of Shadow AI" di UpGuard, oltre l'80% dei lavoratori utilizza strumenti di IA non approvati, mentre il rapporto "2025 Cost of Data Breach" di IBM ha rilevato che un'organizzazione su cinque ha già subito una violazione legata all'uso non autorizzato dell'IA. Il divario tra la rapidità con cui i dipendenti adottano l'IA e la lentezza con cui le organizzazioni la regolano ha creato una nuova categoria di rischio aziendale: la "shadow AI". Questo articolo spiega cos'è la "shadow AI", perché si verifica, in che modo differisce dallo "shadow IT", quali rischi finanziari e di conformità comporta e come creare un programma di rilevamento e governance che funzioni davvero.
Il termine "Shadow AI" indica l'utilizzo di strumenti, modelli e servizi di intelligenza artificiale da parte dei dipendenti all'insaputa, senza l'approvazione o il controllo dei team IT o di sicurezza della propria organizzazione. Si va dal singolo dipendente che incolla codice sorgente proprietario in ChatGPT a interi reparti che implementano plugin di IA non approvati per l'elaborazione di dati sensibili dei clienti.
La portata del problema è sbalorditiva. L'analisi condotta da Harmonic Security su 22,4 milioni di richieste di IA aziendali ha rilevato la presenza di 665 diversi strumenti di IA generativa in uso negli ambienti aziendali, eppure solo il 40% delle aziende aveva acquistato abbonamenti ufficiali per l'IA. L'economia ombra dell'IA — l'ecosistema tentacolare e non regolamentato di strumenti di IA gratuiti, estensioni per browser, assistenti di codice e funzionalità SaaS integrate che i dipendenti adottano autonomamente — ora supera di gran lunga le implementazioni ufficiali di IA nella maggior parte delle organizzazioni.
La definizione di "shadow AI" va oltre i chatbot. Comprende assistenti di programmazione come GitHub Copilot utilizzati su account personali, estensioni per browser basate sull'intelligenza artificiale, strumenti di traduzione e scrittura, modelli open source eseguiti localmente sui computer portatili aziendali e funzionalità di intelligenza artificiale integrate nelle applicazioni SaaS che si attivano all'insaputa del reparto IT. Rientra in questa definizione qualsiasi sistema di intelligenza artificiale che elabori dati aziendali al di fuori dei confini della governance di sicurezza dell'IA.
L'urgenza è aumentata notevolmente. Gartner prevede che entro il 2030 oltre il 40% delle aziende subirà incidenti di sicurezza o di conformità legati all'uso non autorizzato di IA "ombra". Il traffico GenAI è aumentato di oltre l'890% nel 2024 e Menlo Security ha segnalato un aumento del 68% nell'utilizzo dell'IA generativa "ombra" nelle aziende nel 2025. Solo il 37% delle organizzazioni dispone di politiche per gestire o anche solo rilevare l'IA "ombra" (IBM, 2025), lasciando la maggioranza a brancolare nel buio mentre i rischi di sicurezza legati all'IA generativa si aggravano.
L'Shadow AI è un sottoinsieme ed un'evoluzione dello shadow IT, ma presenta caratteristiche distintive che la rendono più difficile da individuare e molto più pericolosa da ignorare. Mentre lo shadow IT riguarda hardware non autorizzato, applicazioni SaaS o cloud , l'Shadow AI elabora, apprende e conserva attivamente i dati aziendali in modi che generano minacce interne su larga scala.
Shadow AI contro shadow IT: le differenze fondamentali che le aziende devono comprendere
L'Shadow AI comporta tutti i rischi associati allo shadow IT, ai quali si aggiungono i rischi legati all'addestramento dei dati, all'accuratezza dei risultati e agli obblighi normativi specifici per l'IA che normative come l'AI Act dell'UE impongono ora.
Comprendere le cause alla radice è fondamentale per creare un sistema di governance efficace. L’intelligenza artificiale “ombra” prospera laddove manca la governance e gli strumenti autorizzati non riescono a tenere il passo con ciò a cui i dipendenti possono accedere autonomamente.
L'intelligenza artificiale "ombra" genera rischi finanziari, operativi, di conformità e reputazionali che si aggravano con l'aumentare dell'utilizzo. I dati a sostegno sono chiari e quantificabili.
Il percorso di esfiltrazione è semplice ma difficile da monitorare. Un dipendente copia dati sensibili, li incolla in uno strumento di IA e tali dati escono dal perimetro di sicurezza dell'organizzazione. La catena di esposizione comprende operazioni di copia-incolla nelle interfacce di chat, il caricamento di file su piattaforme di IA, integrazioni API tra strumenti SaaS e servizi di IA, estensioni del browser che intercettano i contenuti delle pagine e token OAuth che garantiscono agli agenti di IA un accesso persistente ai dati.
Il 38% dei dipendenti ammette di condividere informazioni lavorative sensibili con strumenti di intelligenza artificiale senza l'autorizzazione del datore di lavoro (CybSafe/NCA, 2024). È significativo che Harmonic Security abbia rilevato che il 16,9% delle esposizioni di dati sensibili — 98.034 casi — si è verificato su account personali in versione gratuita, completamente invisibili al reparto IT.
Casi reali dimostrano l'impatto concreto dell'intelligenza artificiale nascosta in tutti i settori.
Tre ingegneri del settore dei semiconduttori di Samsung hanno divulgato dati riservati incollando codice sorgente, verbali di riunioni e sequenze di test di rendimento dei chip su ChatGPT nel giro di un solo mese. Samsung aveva inizialmente vietato l'uso di ChatGPT, per poi tornare sui propri passi e optare per lo sviluppo di una soluzione di IA interna. L'incidente evidenzia una tendenza ricorrente: i divieti imposti a posteriori falliscono, e le organizzazioni hanno bisogno di politiche proattive sull'uso accettabile e di una classificazione dei dati prima che l'IA ombra si radichi.
Da un sondaggio condotto nel 2026 è emerso che il 57% degli operatori sanitari ha utilizzato o è entrato in contatto con strumenti di intelligenza artificiale non autorizzati. I medici utilizzano ChatGPT, Claude e Gemini per redigere referti clinici, formulare ipotesi diagnostiche e sintetizzare piani terapeutici, trattando dati sanitari protetti senza aver stipulato accordi di collaborazione (Business Associate Agreements). I rischi legati alla sicurezza informatica nel settore sanitario sono duplici: violazioni della privacy ai sensi dell'HIPAA e preoccupazioni relative all'accuratezza clinica che possono incidere direttamente sulla sicurezza dei pazienti.
Un intervento nel sistema sanitario ha portato a una riduzione dell'89% dell'uso non autorizzato dell'IA, oltre a un risparmio di tempo giornaliero di 32 minuti per ogni operatore sanitario, grazie alla fornitura di strumenti approvati. La lezione è chiara: fornite gli strumenti, stabilite i limiti e l'uso passerà dall'essere clandestino a diventare autorizzato.
Uno studio globale condotto da IBM su 600 organizzazioni ha quantificato l'impatto finanziario. L'intelligenza artificiale ombra ha aumentato di 670.000 dollari i costi medi delle violazioni; il 20% delle organizzazioni ha segnalato violazioni causate specificatamente dall'intelligenza artificiale ombra e solo il 37% disponeva di politiche di rilevamento o di governance. Per i CISO che stanno elaborando un business case, il ROI della governance è insito in questi numeri: un programma di governance che costa meno di 670.000 dollari all'anno si ripaga da solo con una sola violazione.
Un rilevamento efficace dell'IA "ombra" richiede un'architettura multistrato. Nessuno strumento è in grado di coprire ogni possibile vetta, e le organizzazioni che si affidano a un unico metodo di rilevamento rischiano di non individuare gli strumenti di IA che operano attraverso altri canali.
Architettura di rilevamento delle minacce basata sull'intelligenza artificiale a più livelli che garantisce la visibilità su rete, SaaS, endpoint e browser
La metodologia di audit dell'ISACA raccomanda di integrare queste fasi nei cicli di audit IT esistenti. Un'azienda media registra 223 violazioni delle politiche sui dati al mese relative all'uso dell'IA (Netskope, 2026), rendendo indispensabile un monitoraggio continuo.
Un rilevamento efficace delle minacce è solo metà del lavoro. L'altra metà consiste nel fare in modo che la governance sia al servizio delle persone, anziché ostacolarle.
La governance dell'intelligenza artificiale "ombra" funziona quando si concentra sui limiti dei dati e sulle alternative approvate, piuttosto che su divieti generici che i dipendenti finirebbero per aggirare. Solo il 37% delle organizzazioni dispone di politiche di governance (IBM, 2025), il che significa che il 63% opera senza alcuna protezione.
Una politica efficace in materia di IA "ombra" dovrebbe classificare gli strumenti di IA in tre livelli: pienamente approvati (nessuna restrizione oltre alla gestione standard dei dati), a uso limitato (approvati con regole specifiche per la gestione dei dati) e vietati (strumenti ad alto rischio o non conformi). La Cloud Alliance raccomanda un quadro di governance in cinque fasi: individuazione, classificazione, valutazione del rischio, implementazione dei controlli e monitoraggio continuo.
Tra gli elementi chiave della governance figurano l'integrazione della governance "ombra" dell'IA nei quadri di gestione del rischio esistenti, in linea con l'AI RMF del NIST e i requisiti di conformità; comitati interfunzionali di governance dell'IA che coinvolgono i reparti di sicurezza, legale, conformità e le unità aziendali; corsi di formazione sull'alfabetizzazione IA erogati parallelamente ai controlli tecnici; e audit periodici sull'IA che censiscono tutti i sistemi di IA in uso. Le organizzazioni che utilizzano strumenti di governance dell'IA per automatizzare l'individuazione e l'applicazione delle politiche ottengono una copertura più rapida rispetto a quelle che si affidano esclusivamente a processi manuali.
Shadow AI rende impossibile la conformità normativa, poiché le organizzazioni non possono gestire, inventariare o classificare in base al rischio i sistemi di IA di cui ignorano l'esistenza. I punti ciechi in materia di conformità sono specifici e misurabili.
In che modo l’intelligenza artificiale “ombra” crea punti ciechi in materia di conformità nei principali quadri normativi
Gartner prevede che la spesa per la governance dell'IA raggiungerà i 492 milioni di dollari nel 2026 e supererà il miliardo di dollari entro il 2030: un chiaro segnale che le organizzazioni riconoscono l'importanza fondamentale della conformità.
L'intelligenza artificiale "ombra" si sta evolvendo oltre le semplici interazioni tramite chatbot, trasformandosi in agenti autonomi che operano alla velocità delle macchine, senza supervisione umana e con accesso costante ai sistemi aziendali. L'intelligenza artificiale "ombra" di tipo agentico — ovvero agenti IA autonomi implementati dai dipendenti o integrati in strumenti SaaS che prendono decisioni, accedono ai dati e interagiscono con i sistemi in modo indipendente — rappresenta una categoria di rischio sostanzialmente diversa.
La distinzione è importante. L'IA "ombra" tradizionale prevede che un operatore umano inserisca manualmente i dati in ChatGPT per una singola interazione. L'IA "ombra" agentica, invece, prevede un agente autonomo dotato di accesso alle API, in grado di concatenare azioni su più servizi, operare in modo continuo e prendere decisioni senza la supervisione umana. Questi agenti fungono da "insider operativi" persistenti e veloci come le macchine, che aggirano completamente i tradizionali schemi di governance.
La minaccia non è solo teorica. Il "Global Threat Report 2026" di CrowdStrike ha rilevato che gli hacker hanno sfruttato strumenti di IA generativa in oltre 90 organizzazioni, con ChatGPT citato il 550% in più nei forum criminali. Il 98% delle organizzazioni segnala un uso non autorizzato dell'IA e il 49% prevede incidenti legati all'IA "ombra" entro 12 mesi. Gartner prevede che entro la fine del 2026 il 40% delle applicazioni aziendali includerà agenti di IA specifici per determinate attività, rispetto a meno del 5% nel 2025.
I vettori di minaccia includono server MCP (Model Context Protocol) che espongono API interne, estensioni del browser dotate di funzionalità di agenti IA, agenti connessi tramite OAuth con accesso persistente ai dati e la proliferazione di token API che crea catene di accesso non monitorate. La sicurezza dell'IA agentica richiede il monitoraggio non solo di ciò che i dipendenti fanno con l'IA, ma anche di ciò che l'IA fa autonomamente — compresa prompt injection che sfruttano agenti shadow non protetti. Come riporta CIO.com, i tradizionali framework di governance sono stati progettati per interazioni a velocità umana e avviate dall’uomo e non riescono a stare al passo con il comportamento degli agenti autonomi.
Il settore sta convergendo su un principio chiaro: la regolamentazione piuttosto che il divieto. Samsung ha revocato il divieto iniziale su ChatGPT. Le organizzazioni sanitarie che hanno fornito alternative approvate hanno registrato una riduzione dell'89% degli utilizzi non autorizzati. Il trend è costante: le organizzazioni che forniscono strumenti di IA sicuri e definiscono i limiti relativi ai dati ottengono risultati migliori rispetto a quelle che tentano di imporre divieti generalizzati.
Una difesa moderna contro le minacce dell'IA "ombra" richiede una visibilità unificata sull'intera superficie di attacco ibrida. Tra le funzionalità emergenti figurano le piattaforme di sicurezza native per l'IA, la gestione della postura SaaS, il DLP a livello di browser e il monitoraggio basato sull'IA sensibile all'identità. Il rilevamento e la risposta a livello di rete rimangono il livello fondamentale, poiché l'analisi del traffico verso gli endpoint dell'IA generativa garantisce visibilità indipendentemente dagli strumenti scelti dai dipendenti.
Shadow AI è fondamentalmente un problema di visibilità e di segnali. Le organizzazioni che si affidano esclusivamente a criteri di sicurezza o endpoint non riusciranno a individuare gli strumenti di IA che operano all’interno della loro rete, cloud, delle infrastrutture di identità e dei servizi SaaS. L’approccio Vectra AI considera la rete moderna come un’unica superficie di attacco unificata, che abbraccia infrastrutture on-premise,cloud, di identità, SaaS e di IA. Il traffico AI non autorizzato, i flussi di dati anomali verso servizi AI esterni e i rischi basati sull'identità derivanti dalla proliferazione dei token OAuth generano tutti segnali comportamentali. Il rilevamento basato sull'AI cattura questi segnali, consentendo ai team di sicurezza di individuare ciò che le sole policy non riescono a vedere.
L'IA ombra non è un problema che le organizzazioni possano ignorare, vietare o risolvere con un unico strumento. I dati sono inequivocabili: l'80% dei dipendenti utilizza IA non approvata, l'IA ombra fa lievitare i costi delle violazioni di sicurezza di 670.000 dollari e solo il 37% delle organizzazioni dispone di politiche di governance. Man mano che l'IA si evolve dai chatbot agli agenti autonomi, la superficie di rischio si sta espandendo più rapidamente di quanto la maggior parte dei team di sicurezza si renda conto.
Il percorso da seguire coniuga visibilità, governance e supporto. Individuate l'IA ombra in ogni livello dell'azienda. Definite politiche che stabiliscano dei limiti ai dati anziché imporre divieti generalizzati. Offrite alternative approvate che rendano la conformità la soluzione più semplice. E preparatevi all'IA ombra autonoma monitorando non solo ciò che i dipendenti fanno con l'IA, ma anche ciò che l'IA fa di propria iniziativa.
Le organizzazioni che partono dal presupposto di una compromissione e investono in una visibilità unificata su tutta la loro superficie di attacco ibrida saranno in grado di gestire questo rischio. Quelle che aspettano che si verifichi una violazione per agire ne pagheranno le conseguenze.
Scopri come Vectra AI una visibilità unificata su tutta la tua superficie di attacco.
L'uso non autorizzato dell'IA non è di per sé illegale, ma comporta una notevole responsabilità legale. Quando i dipendenti utilizzano strumenti di IA non autorizzati per trattare dati personali, le organizzazioni rischiano violazioni del GDPR con multe fino a 20 milioni di euro o pari al 4% del fatturato annuo mondiale. Il trattamento di informazioni sanitarie protette tramite strumenti di IA non coperti da un accordo BAA viola l'HIPAA. L'AI Act dell'UE introduce ulteriori requisiti di responsabilità: se i dipendenti utilizzano l'IA per attività classificate come ad alto rischio ai sensi della legge senza che l'organizzazione ne sia a conoscenza, l'organizzazione si assume la responsabilità di chi ha implementato la soluzione, con multe fino al 6% del fatturato globale. La legalità dipende in ultima analisi dai dati inseriti nello strumento di IA, dalle normative applicabili all'organizzazione e dal fatto che l'uso dell'IA generi risultati con conseguenze legali. Le organizzazioni non possono invocare l'ignoranza come difesa quando le autorità di regolamentazione chiedono quali sistemi di IA siano in uso.
Dal punto di vista tecnico, le organizzazioni possono implementare blocchi di dominio, regole firewall e politiche di utilizzo accettabile che vietino l’uso di strumenti di IA non approvati. In pratica, però, il divieto raramente funziona. Le ricerche dimostrano costantemente che quasi la metà dei dipendenti continuerebbe a utilizzare account personali di IA anche dopo un divieto formale. Samsung aveva inizialmente vietato ChatGPT a seguito di una fuga di dati, ma in seguito ha revocato la decisione, optando invece per la fornitura di alternative interne approvate. Il consenso del settore è che la governance funzioni meglio del divieto. Un approccio che mette al primo posto la governance — fornendo strumenti di IA autorizzati, stabilendo chiari limiti sui dati, implementando il monitoraggio anziché il blocco e conducendo audit regolari — produce risultati misurabilmente migliori. Le organizzazioni sanitarie che hanno fornito alternative approvate hanno ottenuto una riduzione dell'89% dell'uso non autorizzato, oltre a un risparmio di tempo giornaliero di 32 minuti per medico.
L'«Shadow AI» genera un trattamento incontrollato dei dati personali che viola direttamente diverse disposizioni del GDPR. L'articolo 5 richiede un trattamento lecito e trasparente: l'«Shadow AI» elude entrambi questi requisiti poiché le organizzazioni non hanno alcuna visibilità sui dati condivisi dai dipendenti. L'articolo 28 richiede accordi sul trattamento dei dati con i responsabili del trattamento: quando i dipendenti utilizzano la versione gratuita di ChatGPT per trattare i dati dei clienti, non esiste alcun accordo di questo tipo tra l'organizzazione e OpenAI. L'articolo 35 richiede valutazioni d'impatto sulla protezione dei dati per i trattamenti ad alto rischio: impossibile per strumenti di IA di cui l'organizzazione non è a conoscenza. Le multe possono arrivare a 20 milioni di euro o al 4% del fatturato annuo mondiale, a seconda di quale sia il valore più alto. Oltre alle multe, la shadow AI crea punti ciechi nelle richieste di accesso dei soggetti interessati (DSAR), poiché le organizzazioni non possono riferire in merito a trattamenti di dati che non hanno autorizzato o monitorato.
Il settore sanitario è esposto ad alcuni dei rischi più elevati legati all’uso non autorizzato dell’IA, a causa della delicatezza dei dati dei pazienti e dei rigidi requisiti dell’HIPAA. Un sondaggio condotto nel febbraio 2026 da Healthcare Brew ha rilevato che il 57% degli operatori sanitari ha utilizzato o è entrato in contatto con strumenti di IA non autorizzati. I medici utilizzano ChatGPT, Claude e Gemini per redigere referti clinici (SOAP notes), formulare ipotesi diagnostiche, sintetizzare piani terapeutici e creare materiale informativo per i pazienti — spesso trattando informazioni sanitarie protette senza aver stipulato accordi di collaborazione (Business Associate Agreements). I rischi sono duplici: violazioni della privacy HIPAA che comportano multe fino a 1,5 milioni di dollari per categoria di violazione e preoccupazioni relative all'accuratezza clinica, dove i contenuti medici generati dall'IA potrebbero avere un impatto diretto sulla sicurezza dei pazienti. Tuttavia, esistono delle soluzioni. Un sistema sanitario che ha fornito strumenti di IA approvati ha registrato una riduzione dell'89% nell'uso non autorizzato e un risparmio di tempo giornaliero di 32 minuti per medico, dimostrando che il giusto modello di governance protegge sia i dati che la produttività.
L'analisi di Gartner del novembre 2025, basata su un sondaggio condotto su 302 responsabili della sicurezza informatica, prevede che entro il 2030 oltre il 40% delle aziende subirà incidenti di sicurezza o di conformità legati all'uso non autorizzato di strumenti di IA generativa "ombra". La stessa ricerca ha rilevato che il 69% delle organizzazioni sospetta già o ha prove che i dipendenti utilizzino strumenti di IA generativa pubblici proibiti. Gartner prevede inoltre che la spesa per la governance dell'IA raggiungerà i 492 milioni di dollari nel 2026 e supererà il miliardo di dollari entro il 2030: un aumento del 100% che riflette l'urgenza che le organizzazioni attribuiscono a questo rischio. Inoltre, Gartner prevede che il 40% delle applicazioni aziendali sarà dotato di agenti di IA specifici per determinate attività entro la fine del 2026, rispetto a meno del 5% nel 2025, ampliando in modo significativo l’area di esposizione all’IA ombra agentica.
Una politica efficace in materia di "shadow AI" parte da un sistema di classificazione a tre livelli per gli strumenti di IA. Gli strumenti pienamente approvati non sono soggetti ad alcuna restrizione oltre alle normali politiche di trattamento dei dati. Gli strumenti ad uso limitato vengono approvati con regole specifiche per il trattamento dei dati: ad esempio, un assistente di programmazione può essere utilizzato per codice non proprietario, ma non per i sistemi di produzione. Gli strumenti vietati includono quelli che non superano le valutazioni di sicurezza, operano in giurisdizioni con problemi di sovranità dei dati o non offrono garanzie sul trattamento dei dati aziendali. La politica dovrebbe definire in modo esplicito quali categorie di dati possono e non possono essere inserite negli strumenti di IA, richiedere la divulgazione dell'utilizzo dell'IA nei processi aziendali, stabilire un chiaro processo di approvazione per i nuovi strumenti, imporre audit regolari e includere conseguenze in caso di violazioni. Concentrare la governance sui confini dei dati piuttosto che sui divieti relativi agli strumenti. L'ISACA raccomanda di integrare i requisiti di audit dell'IA nei quadri di audit IT esistenti per accelerarne l'adozione e garantirne la copertura.
Cloud Security Broker (CASB) fungono da livello di rilevamento fondamentale per l’IA ombra, monitorando cloud e identificando le connessioni a servizi di IA noti. I CASB individuano le applicazioni SaaS di IA a cui accedono i dipendenti, applicano le politiche DLP ai dati che fluiscono verso gli strumenti di IA, forniscono visibilità sui token OAuth e sulle connessioni API utilizzate dagli agenti di IA ombra e generano report di utilizzo che quantificano l’esposizione all’IA ombra. Tuttavia, i CASB da soli non sono sufficienti per un rilevamento completo dell’IA ombra. In genere non rilevano i modelli di IA locali in esecuzione sugli endpoint, non sono in grado di ispezionare le chiamate API crittografate provenienti da alcuni strumenti di IA e hanno una visibilità limitata sulle interazioni basate sul browser con i servizi di IA. Un rilevamento efficace dell'IA ombra combina i CASB con l'analisi del traffico di rete, endpoint , il DLP a livello di browser e il monitoraggio basato sull'identità per la proliferazione dei token OAuth. Questo approccio multistrato garantisce che nessuna singola lacuna di rilevamento consenta all'IA ombra di operare senza essere individuata.