La recente esplosione cambriana di ciò che è possibile fare con i modelli linguistici di grandi dimensioni è stata incredibilmente eccitante. Ogni mese si vedono nuovi utilizzi di questi strumenti, dalla generazione rapida ed economica di miniature per i vostri post sul blog, al comportarsi come se fossero fondamentalmente contrari al vostro post e proporre critiche, fino alla traduzione coerente dei vostri post in altre lingue, con una piena comprensione di ciò che avete scritto!
Anche nel mondo al di là dei blog, ammesso che esista, questo strumento nascente ha un enorme potenziale. Ma potenziale significa anche che non sappiamo cosa potrebbe fare, e questo crea un serio e tangibile rischio d'impresa.

Se chiedete a qualcuno di porre una domanda a un laureato in LLM, penserà immediatamente di usare ChatGPT, di OpenAI. È lo strumento più accessibile e facile da usare. ChatGPT consente a chiunque di porre domande attraverso un browser web e genera risposte rapide. Questo è ottimo per l'utente medio, ma per qualsiasi azienda questa facilità d'uso nasconde tre gravi problemi. Tutti i dati inviati a ChatGPT vengono memorizzati da OpenAI per scopi di qualità e tracciamento, la fonte di ogni risposta è sconosciuta e la risposta potrebbe essere completamente inventata...
OpenAI tiene traccia dei messaggi inviati dagli utenti per poter iterare e migliorare il proprio prodotto e per monitorare eventuali abusi del sistema. Si tratta di un comportamento del tutto ragionevole da parte di OpenAI, ma non c'è motivo di credere che si prendano molta cura di questi dati. Inoltre, OpenAI non può controllare quali dati vengono inviati a ChatGPT, per cui finisce per memorizzare molte informazioni che non desidera. Per esempio, di recente si è scoperto che i dipendenti di Samsung hanno usato ChatGPT per eseguire il debug di un software proprietario e per riassumere i verbali delle riunioni.
Il secondo problema è che ChatGPT risponde alle domande senza attribuire fonti alle sue risposte. ChatGPT rilascia dichiarazioni basate sulle sue scoperte e, sfortunatamente, dovete prenderle per quello che sono. Queste informazioni potrebbero essere protette da copyright, e non lo sapreste fino a quando non riceverete una lettera da parte di un avvocato che reclama una violazione. Getty Images ha citato in giudizio il creatore di uno strumento per la generazione di immagini LLM per violazione del copyright, dopo aver scoperto che lo strumento generava immagini con un watermark Getty Images. Non è irragionevole sostenere che anche gli utenti finali che utilizzano queste immagini potrebbero essere responsabili. La generazione di codice è un'altra area di preoccupazione, anche se finora non ci sono stati esempi concreti, ma sembra inevitabile.
Tuttavia, il problema principale di ChatGPT è che questi LLM possono avere "allucinazioni", che è il gergo del settore per "dire bugie spudorate". Poiché ChatGPT non ha alcuna trasparenza su come arriva alle risposte, gli utenti devono essere in grado di analizzare criticamente le risposte per decidere se sono vere, poiché ChatGPT e i suoi simili risponderanno sempre con assoluta sicurezza. Questo può avere ripercussioni, dall'imbarazzante lancio di Google a un professore che ha bocciato tutti i suoi studenti dopo che ChatGPT ha falsamente affermato di aver scritto i saggi degli studenti, fino all'esempio più eclatante, in cui un avvocato ha usato ChatGPT per scrivere la sua arringa in tribunale, e ChatGPT ha inventato sei fonti completamente false per sostenere l'argomento. La pessima dimostrazione di Google ha fatto crollare la sua valutazione di mercato di 100 miliardi di dollari, il professore universitario ha perso molta credibilità e una causa multimilionaria potrebbe essere respinta... Si tratta di casi di enorme impatto e purtroppo facilmente evitabili.

Le organizzazioni stanno reagendo a questi fatti con politiche che vietano l'uso di OpenAI senza approvazione, ma è difficile tracciare la conformità a queste politiche poiché il traffico funziona attraverso un browser crittografato senza che sia necessario alcun software. Fortunatamente, Vectra AI è in grado di vedere questa attività nella vostra rete, utilizzando i nostri sensori di rete di rilevamento esistenti. Vectra NDR è progettato per monitorare tutto il traffico di rete dell'organizzazione, con sensori accuratamente posizionati che monitorano il traffico in entrata e in uscita dalla rete, ma anche all'interno della rete stessa. Questa profondità di analisi alimenta il nostro potente framework di rilevamento basato sull'intelligenza artificiale e consente anche di ottenere potenti informazioni sulla conformità, che abbiamo raccolto nel nostro ChatGPT Usage Dashboard.
Questa dashboard, disponibile gratuitamente per tutti i clienti della piattaforma Vectra, mostrerà gli host del vostro ambiente che stanno interagendo attivamente con OpenAI, monitorando le richieste DNS ai server OpenAI effettuate da qualsiasi host. Ciò consentirà ai responsabili della conformità di vedere rapidamente non solo un elenco di persone che hanno un account con OpenAI o che hanno registrato un interesse, ma di monitorare attivamente chi esattamente sta utilizzando un sistema e quanto lo sta utilizzando.

Questo cruscotto è reso ancora più potente grazie alla tecnologia di attribuzione dell'ID host brevettata da Vectra, che consente di tracciare questi utenti in modo approfondito. Anche se gli indirizzi IP delle macchine cambiano, o un laptop si unisce a una nuova rete, Vectra lo traccia come la stessa macchina, in modo che la dashboard mostri esattamente la frequenza di accesso a ChatGPT da parte di un dispositivo, consentendo anche di passare rapidamente a vedere chi Vectra ritiene essere il probabile proprietario di un host. Utilizzando questa dashboard, non solo vedrete quali host stanno utilizzando ChatGPT, ma saprete anche chi contattare al riguardo, e avrete queste informazioni in pochi minuti, non in ore.
Questo è solo un esempio di come la piattaforma Vectra offra una visibilità approfondita delle attività all'interno dell'organizzazione, mostrando come possa contribuire alla conformità dell'azienda monitorando i problemi di conformità attivi. Come nel caso del nostro Certificate Expiry Dashboard, che monitora i certificati in scadenza e in uso attivo nell'organizzazione, o del nostro Azure AD Chaos Dashboard, che tiene traccia dell'elusione dell'MFA. Vectra è in grado di offrire ai responsabili della conformità informazioni preziose non solo su ciò che è mal configurato nella loro organizzazione, ma anche su quali rischi per la sicurezza sono attivamente in uso!

Ulteriori informazioni sulla piattaforma Vectra sono disponibili qui.