Balancing Act: il valore della competenza umana nell'era dell'intelligenza artificiale generativa - DATAVERSITY

Balancing Act: il valore della competenza umana nell'era dell'intelligenza artificiale generativa – DATAVERSITY

Nodo di origine: 3052574

Gli esseri umani sono considerati l’anello più debole dell’azienda quando si tratta di sicurezza. Giustamente, come verso l'alto del 95% degli incidenti di sicurezza informatica sono causati da errori umani. Gli esseri umani sono volubili, fallibili e imprevedibili, il che li rende facili bersagli per i criminali informatici che cercano di accedere ai sistemi delle organizzazioni.  

Ciò rende la nostra dipendenza dalle macchine ancora più importante. Fino a questo punto, abbiamo potuto fidarci del fatto che le macchine operassero con il codice come verità. Anche se possono essere compromessi da vulnerabilità nel codice o da difetti sociali dei loro operatori umani, i problemi vengono solitamente risolti con una soluzione chiara. 

Tuttavia, con l'ascesa di IA generativa (GenAI) e modelli linguistici di grandi dimensioni (LLM), le organizzazioni si trovano ora ad affrontare attacchi di ingegneria sociale che ingannano l’intelligenza artificiale inducendola a fare cose che non era destinata a fare. Man mano che scarichiamo di più sull'intelligenza artificiale, sarà interessante vedere come si sviluppano questi nuovi modelli di attacco.

Di fronte a questo dilemma, spetta ancora una volta agli esseri umani navigare in questo panorama di sicurezza dell’IA complesso e in evoluzione. Ciò invita i CISO a comunicare chiaramente i vantaggi e le carenze dell’intelligenza artificiale e a riconoscere il lungo elenco di considerazioni sulla sicurezza legate ai prodotti e alle funzionalità basati sull’intelligenza artificiale. 

L’implementazione affrettata dell’intelligenza artificiale generativa comporta nuove sfide per la sicurezza informatica

Per iniziare, un problema comune quando si tratta di GenAI e LLM è un’ampia dipendenza dai contenuti generati dall’intelligenza artificiale. Affidarsi ai contenuti generati dall’intelligenza artificiale senza verificare o verificare la presenza di informazioni fuorvianti o errate senza input o supervisione umana può portare alla propagazione di dati errati che informano un processo decisionale inadeguato e una riduzione del pensiero critico. È noto che gli LLM hanno allucinazioni, quindi parte della disinformazione potrebbe non derivare nemmeno da intenti dannosi.

Allo stesso modo, anche la quantità di codice non sicuro che viene introdotta in seguito all’evoluzione della GenAI diventerà una sfida significativa per i CISO, se non anticipata in modo proattivo. È noto che i motori di intelligenza artificiale scrivono codice difettoso con vulnerabilità di sicurezza. Senza un’adeguata supervisione umana, GenAI consente alle persone senza le basi tecniche adeguate di spedire il codice. Ciò comporta un aumento del rischio per la sicurezza durante tutto il ciclo di vita dello sviluppo del software per le organizzazioni che utilizzano questi strumenti in modo improprio.

La fuga di dati è un altro problema diffuso. In alcuni casi, gli aggressori possono utilizzare il prompt injection per estrarre informazioni sensibili che il modello di intelligenza artificiale ha appreso da un altro utente. Molte volte questo può essere innocuo, ma un uso dannoso non è certamente precluso. I malintenzionati potrebbero sondare intenzionalmente lo strumento di intelligenza artificiale con suggerimenti meticolosamente elaborati, con l’obiettivo di estrarre informazioni sensibili che lo strumento ha memorizzato, portando alla fuga di informazioni sensibili o riservate.

L’intelligenza artificiale può aumentare alcune lacune nella sicurezza informatica, ma ha un potenziale significativo per colmarne altre

Infine, resta inteso che la propagazione di GenAI e LLM farà regredire parte della riduzione della superficie di attacco del nostro settore per alcuni motivi. Innanzitutto, la capacità di generare codice con GenAI abbassa il livello di chi può essere un ingegnere del software, risultando in un codice più debole e in standard di sicurezza ancora più deboli. In secondo luogo, la GenAI richiede grandi quantità di dati, il che significa che la portata e l’impatto delle violazioni dei dati cresceranno in modo esponenziale. In terzo luogo, come per qualsiasi tecnologia emergente, gli sviluppatori potrebbero non essere pienamente consapevoli dei modi in cui la loro implementazione può essere sfruttata o abusata. 

Tuttavia, è essenziale adottare una prospettiva equilibrata. Sebbene la facilitazione della generazione di codice da parte della Gen AI possa sollevare preoccupazioni, apporta anche attributi positivi al panorama della sicurezza informatica. Ad esempio, può identificare efficacemente le vulnerabilità della sicurezza come Cross-Site Scripting (XSS) o SQL injection. Questa duplice natura sottolinea l’importanza di una comprensione sfumata. Piuttosto che considerare l’intelligenza artificiale come esclusivamente dannosa, sottolinea la relazione complementare tra intelligenza artificiale e coinvolgimento umano nella sicurezza informatica. I CISO devono cogliere i rischi associati a GenAI e LLM esplorando contemporaneamente approcci incentrati sull’uomo per implementare GenAI e rafforzare le proprie organizzazioni.

Gli esseri umani raccolgono ciò che l’intelligenza artificiale lascia dietro di sé

I CISO non hanno solo il compito di svelare le complessità della GenAI. Devono aprire una strada da seguire per la loro organizzazione e dimostrare alla leadership come la loro organizzazione può continuare a prosperare in un mondo dominato dalla GenAI. 

Sebbene gli utenti finali siano spesso responsabili di molte vulnerabilità della sicurezza, non esiste difesa migliore contro la criminalità informatica di un essere umano ben addestrato e attento alla sicurezza. Indipendentemente dagli strumenti di rilevamento delle minacce adottati da un'organizzazione, semplicemente non è possibile sostituire la persona dietro lo schermo quando si tratta di testare il software. 

Le organizzazioni possono superare i criminali informatici sfruttando la potenza di hacking etico. Mentre alcuni sono riluttanti a invitare gli hacker nella propria rete a causa di idee sbagliate obsolete, questi esperti di sicurezza informatica rispettosi della legge sono la soluzione migliore per affrontare i malintenzionati, perché, a differenza dell’intelligenza artificiale, possono entrare nella testa degli aggressori informatici.

In effetti, gli hacker stanno già integrando gli strumenti automatizzati nella lotta contro i criminali informatici 92% dei hacker etici dicendo che possono trovare vulnerabilità che gli scanner non possono. Sollevando il velo sull’hacking a scopo definitivo, i leader aziendali possono abbracciare l’hacking etico e il supporto umano per trovare un equilibrio più efficace tra intelligenza artificiale ed esperti umani nella lotta alla moderna criminalità informatica. Il nostro recente Rapporto sulla sicurezza basata sugli hacker lo evidenzia, con il 91% dei nostri clienti che afferma che gli hacker forniscono report sulle vulnerabilità più efficaci e preziosi rispetto all’intelligenza artificiale o alle soluzioni di scansione. Mentre l’intelligenza artificiale continua a plasmare il nostro futuro, la comunità degli hacker etici continuerà a impegnarsi per garantirne un’integrazione sicura.

La combinazione dell’automazione con una rete di hacker altamente qualificati consente alle aziende di individuare i difetti critici delle applicazioni prima che vengano sfruttati. Quando le organizzazioni fondono in modo efficace strumenti di sicurezza automatizzati con l’hacking etico, colmano le lacune nella superficie di attacco digitale in continua evoluzione. 

Questo perché gli esseri umani e l’intelligenza artificiale possono lavorare insieme per migliorare la produttività del team di sicurezza: 

  1. Ricognizione della superficie d'attacco: Le organizzazioni moderne possono sviluppare un'infrastruttura IT estesa e complessa che comprende una varietà di hardware e software, sia autorizzati che non autorizzati. Lo sviluppo di un indice onnicomprensivo delle risorse IT come software e hardware è importante per ridurre le vulnerabilità, semplificare la gestione delle patch e favorire la conformità ai mandati del settore. Aiuta inoltre a identificare e analizzare i punti attraverso i quali un utente malintenzionato potrebbe prendere di mira un'organizzazione.
  2. Valutazioni continue: Andando oltre la sicurezza puntuale, le organizzazioni possono combinare l'ingegno degli esperti di sicurezza umana con informazioni dettagliate sulla superficie di attacco in tempo reale per ottenere test continui del panorama digitale. I test di penetrazione continui consentono ai team IT di visualizzare i risultati di simulazioni costanti che mostrano come apparirebbe una violazione nell’ambiente attuale e potenziali punti deboli a cui i team possono adattarsi in tempo reale.
  3. Miglioramenti del processo: Gli hacker umani fidati possono fornire ai team di sicurezza informazioni preziose su vulnerabilità e risorse per favorire il miglioramento dei processi.

Conclusione

Poiché l’intelligenza artificiale generativa continua ad evolversi a un ritmo così rapido, i CISO devono sfruttare la loro comprensione di come gli esseri umani possono collaborare per migliorare la sicurezza dell’intelligenza artificiale e ottenere il supporto del consiglio di amministrazione e del gruppo dirigente. Di conseguenza, le organizzazioni possono disporre di personale e risorse adeguati per affrontare queste sfide in modo efficace. Trovare il giusto equilibrio tra una rapida implementazione dell’intelligenza artificiale e una sicurezza completa attraverso la collaborazione con hacker etici rafforza la motivazione a favore di investire in soluzioni adeguate basate sull’intelligenza artificiale.

Timestamp:

Di più da VERSITÀ DEI DATI