“ChatGPT: creare cultura e costruire la governance per un uso sicuro” Contenuto a cura di James Robinson, Deputy CISO & Director e Jason Clark, Chief Strategy & Marketing Officer.
Non appena ChatGPT e l’intelligenza artificiale generativa sono diventati di dominio pubblico, ogni leader tecnologico aziendale ha iniziato a porre la stessa domanda: è sicuro?
La risposta è sì, a condizione che si faccia tutto il necessario per proteggere i dati sensibili e che si utilizzi in modo responsabile l’intelligenza artificiale/apprendimento automatico nelle piattaforme e nei prodotti, facendo comprendere in modo efficace ai clienti, potenziali clienti, partner e fornitori di terze e quarte parti, come vengono utilizzate queste tecnologie, al fine di contribuire a costruire programmi basati sulla governance.
L’assegnazione gestita dei permessi d’uso di ChatGPT e di altre soluzioni di intelligenza artificiale generativa è una necessità. Le organizzazioni che semplicemente “disattivano” l’accesso degli utenti potrebbero sentirsi inizialmente più sicure, ma stanno anche negando gli utilizzi produttivi di ChatGPT e ponendo se stesse e l’intero team in una posizione arretrata nella curva dell’innovazione.
LEGGI ANCHE: ChatGPT: cos’è e tutto quello che serve sapere oggi
Permessi gestiti di ChatGPT
Netskope si è concentrata intensamente sull’uso produttivo di intelligenza artificiale (AI) e apprendimento automatico (ML) sin dalla sua fondazione nel 2012, e molte innovazioni AI/ML – decine delle quali sono state brevettate – fanno già parte della piattaforma Intelligent SSE. Negli ultimi tempi si è osservato un punto di svolta. Prima di novembre 2022, se non eri un professionista della sicurezza, uno sviluppatore, un data scientist, un futurista o un appassionato di tecnologia, probabilmente non facevi molto con l’AI generativa. Ma ciò che è accaduto dalla pubblicazione di ChatGPT è che questi servizi e tecnologie sono diventati disponibili per chiunque. Chiunque oggi può accedere e capire cosa può fare ChatGPT.
Quando un fenomeno si diffonde così tanto da diventare il tema dominante di conversazione nel mondo del business e della tecnologia in così breve tempo – e ChatGPT rientra in questo caso – i leader hanno essenzialmente due scelte:
- Proibire o limitare severamente il suo utilizzo
- Permettere alle persone di comprendere l’uso di questa tecnologia e abbracciarne l’utilizzo senza mettere a rischio l’azienda
All’alba dell’adozione generalizzata dell’IA generativa, assisteremo a comportamenti disturbanti almeno quanto quelli che si sono visti decenni fa all’inizio della diffusione dei motori di ricerca online, con il verificarsi di diverse minacce e molti dati resi pubblicamente disponibili che non avrebbero dovuto esserlo.
Ora, come allora, la strategia per quanto riguarda la sicurezza è quella di proteggere i dati sensibili da accessi da parte di fonti non autorizzate. Oggi, con ChatGPT e altre applicazioni di IA generativa, ciò può essere fatto con un approccio culturale corretto, ovvero consentendone l’uso in modo responsabile, combinato con l’orientamento tecnologico corretto, che significa controlli moderni per la prevenzione della perdita di dati (DLP) che impediscano un uso improprio e la fuoriuscita di dati, e facciano parte di un’infrastruttura che consente ai team di rispondere rapidamente nel caso in cui tali dati vengano utilizzati in modo improprio.
La piattaforma Netskope – e la tecnologia DLP di Netskope – aiuta a prevenire i rischi informatici intrinseci alle applicazioni di IA generativa. In generale, la tecnologia DLP deve essere in grado di impostare politiche di sicurezza come “questo non deve mai uscire” – per un insieme o gruppi di dati che sarebbero pericolosi per l’azienda se fossero esposti – e “questo non dovrebbe uscire“, per un insieme o gruppi di dati che non si desidera compromettere ma che non sarebbero rilevanti per un’eventuale cessazione dell’attività aziendale.
La DLP avanzata di Netskope può identificare automaticamente i flussi di dati sensibili, classificando i dati sensibili con la massima precisione. Ciò include la classificazione delle immagini basata su intelligenza artificiale/apprendimento automatico e la capacità di creare classificatori personalizzati basati su intelligenza artificiale/apprendimento automatico, oltre all’applicazione in tempo reale – applicabile ad ogni connessione utente – che combina l’arresto selettivo delle pubblicazioni di informazioni sensibili con messaggi di coaching visivo per aiutare gli utenti a migliorare il loro comportamento.
Quindi, la grande domanda ancora una volta è: ChatGPT è sicuro?
Sì. Con la mentalità giusta, l’educazione adeguata degli utenti e la giusta tecnologia DLP moderna per proteggersi.
LEGGI ANCHE: ChatGPT per il business: le sette domande chiave e le risposte di Gartner
Il rischio di terze e quarte parti
Man mano che sempre più aziende cercano di consentire l’uso produttivo dell’intelligenza artificiale generativa da parte dei dipendenti, sempre più leader tecnologici si porranno domande ancor più precise riguardanti il rischio relativo alle terze e quarte parti.
Ad esempio, i Copilot vedranno un’adozione rapida, ma quante aziende stanno chiedendo ai loro fornitori (terze o quarte parti) informazioni specifiche su come i loro strumenti utilizzano i Copilot o altri tool associati all’intelligenza artificiale? È possibile identificare quali dei fornitori hanno comunicato quanto codice del loro software è stato scritto da un’applicazione di intelligenza artificiale o meno? Ed è possibile verificarlo? Se i fornitori hanno applicazioni di intelligenza artificiale che generano contenuti, è possibile sapere chi possiede la tecnologia che stanno utilizzando? E chi possiede i contenuti che producono e se è coinvolta una licenza shift-left, questo rappresenta un problema?
Netskope ora integra queste domande nel processo di governance come standard, e tutte le aziende dovrebbero farlo. Si è più forti nella sicurezza informatica quando si è chiari e specifici su ciò che si sta cercando di raggiungere e su come si sta pensando di farlo.