Il problema dell'intelligenza artificiale nella sicurezza informatica
L'AI ha un problema di pubbliche relazioni, anzi due. Io e Vectra siamo qui per affrontarli entrambi.
Primo problema: il termine AI è abusato
Il termine AI (intelligenza artificiale) è abusato nel mercato odierno, fino a diventare davvero poco appropriato, soprattutto nell'ambito della sicurezza informatica. In effetti, l'IA viene citata così spesso e con tanta disinvoltura che sta perdendo il suo significato. L'IA è di moda, per cui si fa riferimento a soluzioni di sicurezza "potenziate dall'IA" o "potenziate dall'IA" che, a rigore, non sono affatto implementazioni dell'IA. Spesso si tratta semplicemente di sistemi basati su regole: flussi di lavoro del tipo "se questo, fai quello".
Secondo problema: il pubblico non capisce l'IA
Gran parte dell'opinione pubblica non comprende l'intelligenza artificiale, il che la rende oggetto di storie sensazionali da parte della stampa tradizionale. Un ingegnere di Google, Blake Lemoine, ad esempio, ha recentemente attirato l'attenzione del mondo intero quando ha affermato che un sistema interno di generazione di chatbot era diventato senziente. Ha affermato di essere "una persona" e di aver espresso volontariamente i propri timori sulla propria mortalità.[1]
Google ha rapidamente sfatato l'affermazione di Lemoine. Ma per i non addetti ai lavori, questo racconto ha suscitato visioni fantascientifiche di computer ribelli che scatenano guerre o chiudono gli astronauti fuori dalle loro navicelle. Questo tipo di storia lascia il segno.
Il potere dell'intelligenza artificiale nel rilevamento delle minacce
Nel campo della cybersecurity, l'IA del mondo reale non è certamente predisposta per diventare un'entità disonesta. Ma fornisce molto più valore di una semplice sentinella digitale basata su regole. Quest'ultima segnala di riflesso le anomalie senza contesto. Non c'è consapevolezza di eventi precedenti o paralleli in corso, e non c'è nulla che possa semplificare la caccia alle minacce o armare l'intelligenza umana.
Oggi abbiamo bisogno di capacità di rilevamento delle minacce che vadano oltre l'attenzione agli attacchi noti. Gli analisti della sicurezza hanno bisogno di intelligenza artificiale e di apprendimento automatico che pensino come un aggressore e siano in grado di anticipare forme di aggressione informatica ancora sconosciute. Noi di Vectra AI la chiamiamo Attack Signal Intelligence™. Dopo oltre un decennio di sviluppo, è uno strumento difensivo indispensabile nella cassetta degli attrezzi delle minacce odierne e un pilastro della Vectra AI Platform.
Vectra AI utilizza algoritmi di apprendimento automatico e analisi avanzate per rilevare attacchi reali, non solo anomalie. Il nostro segnale integrato riconosce i comportamenti e gli schemi degli aggressori nel contesto storico dell'ambiente locale e in altre centinaia di cloud e domini di rete che proteggiamo. Classifichiamo le minacce informatiche in base alla loro gravità, elevando gli attacchi reali in tempo reale e fornendo strumenti e dati per supportare una rapida riparazione.
Quattro domande per capire la qualità di una proposta di IA
Quindi, se l'IA non è tutta uguale e alcune offerte sono meno di quanto sembri, come può il vostro team di sicurezza distinguere la differenza? Ponetevi queste quattro domande. Le risposte possono rivelare quanto sia reale una proposta di IA.
1. La loro proposta di AI si concentra su ciò che è strano o sul problema di sicurezza in questione?
Un prodotto che esegue l'individuazione di anomalie generiche non supera questo test: Non tutte le anomalie sono minacce. Inoltre, non tutte le minacce reali si presentano come anomalie. La Vectra AI Platform si concentra sull'evidenziazione delle azioni degli aggressori e sull'eliminazione dei falsi positivi, trasformando volumi di dati in avvisi azionabili in tempo reale.
2. Come e dove un fornitore mette in pratica l'IA?
Alcuni utilizzano l'IA per risolvere problemi periferici, ma continuano a dipendere dalla tecnologia legacy quando si tratta di sfide esecutive fondamentali. Quanto più centrale è il ruolo dell'IA, tanto più valore può fornire. La nostra AI Attack Signal Intelligence è il cuore della Vectra AI Platform: per individuare i comportamenti dell'attaccante, per dare priorità agli attacchi in più fasi e per gestire il sistema.
3. Che ne dite di un fattore umano complementare?
L'intelligenza artificiale è buona solo quanto i suoi creatori. Può riflettere punti ciechi, pregiudizi o altre limitazioni umane. Per la progettazione dell'IA sono essenziali team ad alte prestazioni con una visione e competenze superiori. Gli specialisti della scienza dei dati e della ricerca sulla sicurezza di Vectra AI contribuiscono con diversi set di competenze all'IA, dalle neuroscienze alla fisica, dalla risposta agli incidenti nel mondo fisico al reverse engineering. La loro profonda conoscenza dei rispettivi settori e l'esperienza combinata differenziano Vectra AI dal resto del gruppo.
Anche il fattore umano è importante quando l'IA viene implementata per i clienti. I team di analisti Vectra AI supportano e guidano le operazioni di sicurezza 24 ore al giorno. Come dice il mio collega di Vectra AI Christian Borst, Field CTO per l'area EMEA: "Dovremmo sempre considerare l'IA solo un aiuto e una guida: per molte aree la decisione istruita spetta ancora agli esseri umani".
4. L'IA viene presentata come una panacea?
Comeantibiotico generico per tutte le infezioni del cyberspazio? La vera IA non funziona così. La topografia mutevole e ondeggiante dei domini di rete, esemplificata dalle nuove strategie di cloud ibrido e dall'ascesa dei fornitori SaaS e PaaS, presenta regolarmente sfide uniche. Diffidate dei fornitori che potrebbero promettere troppo.
Inoltre, la forma delle future minacce informatiche è sconosciuta. La migliore difesa contro l'ignoto risiede nella giusta dose di esperienza, agilità e disponibilità all'iterazione. In questo spirito, Vectra AI applica diverse tecniche di AI per creare soluzioni di cybersecurity e si impegna costantemente nella ricerca e nell'innovazione. Nessun fornitore può affermare di avere tutte le risposte.
Vectra continua a investire nell'IA per la sicurezza informatica reale
Sfruttare l'IA e ottimizzarla per scopi di difesa informatica è un compito più sfumato e complesso di quanto alcuni vogliano credere. Non sostituisce, e tanto meno rifiuta, l'ingegno e il giudizio umano. Tuttavia, oggi è lo strumento migliore per identificare nuovi modelli di minacce persistenti e distinguerli dalle anomalie benigne. Nel frattempo, i parametri di riferimento per la vera IA continuano a progredire e gli avversari continuano a battere nuove strade nell'impiego malevolo di nuove tecnologie, con l'obiettivo di eludere il rilevamento. Ecco perché abbiamo il dovere di investire per essere all'avanguardia.
Una cosa però posso prometterla: L'IA non vi chiuderà fuori dalla vostra astronave. Facciamo tutto il possibile per aiutare le persone a scrollarsi di dosso le idee sbagliate e a vedere il valore reale che l'IA può apportare. Noi di Vectra AI la impieghiamo in modo intelligente e accorto per integrare gli sforzi umani e aiutarci a realizzare il mondo più sicuro ed equo che meritiamo.
Per un approfondimento sul segnale integrato che alimenta la piattaforma Vectra AI , scaricate il white paper: L'intelligenza artificiale dietro Vectra AI.
[1] Blake Lemoine, "Cos'è la LaMDA e cosa vuole?". Medium.com, 11 giugno 2022. https://cajundiscordian.medium.com/what-is-lamda-and-what-does-it-want-688632134489