La recente esplosione cambriana delle possibilità offerte dai modelli linguistici di grandi dimensioni è stata incredibilmente entusiasmante. Ogni mese vengono individuati nuovi utilizzi per questi strumenti, dalla generazione rapida ed economica di miniature per i post del tuo blog, all'assunzione di un atteggiamento fondamentalmente contrario al contenuto del tuo blog e alla formulazione di critiche, fino alla traduzione coerente dei tuoi post in altre lingue, con una comprensione completa di ciò che hai scritto!
Anche al di fuori del mondo dei post sui blog, ammesso che esista, questo strumento nascente racchiude un enorme potenziale. Ma potenziale significa anche che non sappiamo quale sarà il suo futuro, e questo comporta un rischio commerciale serio e tangibile.

Chiedete a chiunque di porre una domanda a un LLM e penserà immediatamente di utilizzare ChatGPT, di OpenAI. Si tratta dello strumento più accessibile e facile da usare. ChatGPT consente a chiunque di porre domande tramite un browser web e genera risposte rapide. Questo è ottimo per l'utente medio, ma per qualsiasi azienda questa facilità d'uso nasconde tre gravi problemi. Tutti i dati inviati a ChatGPT vengono archiviati da OpenAI per motivi di qualità e tracciabilità, la fonte di qualsiasi risposta è sconosciuta e la risposta potrebbe essere completamente inventata...
OpenAI tiene traccia dei contributi inviati dagli utenti per poter migliorare il proprio prodotto e monitorare eventuali abusi del sistema. Si tratta di un comportamento del tutto ragionevole da parte di OpenAI, ma non c'è motivo di credere che prestino particolare attenzione a questi dati. Inoltre, OpenAI non può realmente controllare quali dati vengono inviati a ChatGPT, quindi finisce per archiviare molte informazioni che in realtà non desidera. Ad esempio, è stato recentemente scoperto che i dipendenti Samsung hanno utilizzato ChatGPT per eseguire il debug di software proprietario e per riassumere i verbali delle riunioni.
Il secondo problema è che ChatGPT risponde alle domande senza attribuire le fonti alle sue risposte. ChatGPT formula affermazioni basate sui propri risultati e, purtroppo, è necessario accettarle così come sono. Queste informazioni potrebbero essere protette da copyright e non lo si saprebbe fino a quando non si riceverebbe una lettera dagli avvocati che denunciano una violazione. Getty Images ha citato in giudizio il creatore di uno strumento di generazione di immagini LLM per violazione del copyright dopo aver scoperto che lo strumento generava immagini che includevano un watermark di Getty Images. Non è irragionevole sostenere che anche gli utenti finali che utilizzano queste immagini potrebbero essere ritenuti responsabili. La generazione di codice è un'altra area di preoccupazione, anche se finora non ci sono stati esempi concreti, ma sembra inevitabile.
Tuttavia, il problema più grande di ChatGPT è che questi LLM possono avere delle "allucinazioni", che nel gergo del settore significa "dire bugie sfacciate". Poiché ChatGPT non offre alcuna trasparenza su come arriva alle risposte, gli utenti devono essere in grado di analizzare criticamente le risposte per decidere se sono vere, poiché ChatGPT e i suoi simili risponderanno sempre con assoluta sicurezza. Ciò può avere ripercussioni che vanno dall'imbarazzante lancio di Google, a un professore che boccia tutti i suoi studenti dopo che ChatGPT ha falsamente affermato di aver scritto i loro saggi, fino all'esempio più eclatante, in cui un avvocato ha utilizzato ChatGPT per scrivere la sua memoria processuale e ChatGPT ha inventato sei fonti completamente false a sostegno della sua argomentazione. La scarsa demo di Google ha visto il suo valore di mercato scendere di 100 miliardi di dollari, il professore universitario ha perso molta credibilità e una causa legale multimilionaria potrebbe essere semplicemente archiviata... Si tratta di conseguenze di enorme impatto, che purtroppo sarebbero state facilmente evitabili.

Le organizzazioni stanno reagendo a questi fatti con politiche che vietano l'uso di OpenAI senza approvazione, ma è difficile monitorare il rispetto di questa politica poiché il traffico funziona attraverso un browser crittografato senza che sia necessario alcun software. Fortunatamente, Vectra AI è in grado di rilevare questa attività nella vostra rete, utilizzando i nostri sensori di rilevamento di rete esistenti. Vectra NDR è progettato per monitorare tutto il traffico di rete all'interno della vostra organizzazione, con sensori posizionati con cura che monitorano il traffico sia in entrata che in uscita dalla vostra rete, ma anche all'interno della rete stessa. Questa profondità di analisi alimenta il nostro potente framework di rilevamento basato sull'intelligenza artificiale e consente anche di ottenere informazioni approfondite sulla conformità, che abbiamo raccolto nella nostra dashboard di utilizzo di ChatGPT.
Questa dashboard, disponibile gratuitamente per tutti i clienti della piattaforma Vectra, mostrerà gli host nel vostro ambiente che interagiscono attivamente con OpenAI, tracciando le richieste DNS ai server OpenAI effettuate da qualsiasi host. Ciò consentirà ai responsabili della conformità di vedere rapidamente non solo un elenco di persone che hanno un account con OpenAI o che hanno manifestato interesse, ma anche di monitorare attivamente chi sta utilizzando un sistema e in che misura lo sta utilizzando.

Questo dashboard è reso ancora più potente grazie alla tecnologia brevettata di attribuzione dell'ID host di Vectra, che consente di tracciare questi utenti in modo approfondito. Anche se gli indirizzi IP dei dispositivi cambiano o un laptop si connette a una nuova rete, Vectra continuerà a tracciare lo stesso dispositivo, in modo che il dashboard mostri esattamente la frequenza con cui un dispositivo accede a ChatGPT, consentendo anche di passare rapidamente a vedere chi Vectra ritiene essere il probabile proprietario di un host. Utilizzando questa dashboard, non solo vedrai quali host stanno utilizzando ChatGPT, ma saprai anche chi contattare al riguardo e avrai queste informazioni in pochi minuti, non in ore.
Questo è solo un esempio di come la piattaforma Vectra offra una visibilità approfondita delle attività all'interno della vostra organizzazione, dimostrando come possa aiutare a garantire la conformità monitorando le questioni attive in materia. Proprio come con il nostro Dashboard scadenza certificati, che monitora i certificati in scadenza e attivamente utilizzati nella vostra organizzazione, o il nostro Dashboard Azure AD Chaos, che tiene traccia dell'aggiramento dell'autenticazione a più fattori (MFA). Vectra può offrire ai responsabili della conformità informazioni preziose non solo su ciò che è configurato in modo errato nella loro organizzazione, ma anche sui rischi di sicurezza attivamente in uso!

Per ulteriori informazioni sulla piattaforma Vectra, clicca qui.
