Tasapainotuslaki: Ihmisen asiantuntemuksen arvo generatiivisen tekoälyn aikakaudella – DATAVERSITY

Tasapainotuslaki: Ihmisen asiantuntemuksen arvo generatiivisen tekoälyn aikakaudella – DATAVERSITY

Lähdesolmu: 3052574

Ihmisiä pidetään yrityksen heikoimpana lenkkinä turvallisuuden suhteen. Aivan oikein, kuten yli 95 % Kyberturvallisuustapahtumien syynä on inhimillinen virhe. Ihmiset ovat epävakaita, erehtyviä ja arvaamattomia, joten he ovat helppoja kohteita verkkorikollisille, jotka haluavat päästä organisaatioiden järjestelmiin.  

Tämä tekee riippuvuudestamme koneisiin paljon tärkeämpää. Tähän asti olemme voineet luottaa koneisiin, jotka toimivat koodin avulla. Vaikka ne voivat vaarantua koodin haavoittuvuuksien tai niiden inhimillisten toimijoiden sosiaalisten puutteiden kautta, ongelmiin vastataan yleensä selkeällä ratkaisulla. 

Kuitenkin nousun myötä generatiivinen tekoäly (GenAI) ja suuria kielimalleja (LLM), organisaatiot kohtaavat nyt sosiaalisen manipuloinnin hyökkäyksiä, jotka huijaavat tekoälyä tekemään asioita, joita sen ei ollut tarkoitus tehdä. Kun siirrämme enemmän tekoälyyn, on mielenkiintoista nähdä nämä uudet hyökkäysmallit.

Tämän ongelman edessä on jälleen ihmisten tehtävä navigoida tässä monimutkaisessa ja kehittyvässä tekoälyn tietoturvaympäristössä. Tämä vaatii CISO:ta viestimään selkeästi tekoälyn eduista ja puutteista ja tunnustamaan pitkä luettelo tekoälyllä toimiviin tuotteisiin ja ominaisuuksiin liittyvistä turvallisuusnäkökohdista. 

Generatiivisen tekoälyn kiireinen käyttöönotto tuo uusia kyberturvallisuushaasteita

Aluksi yleinen ongelma GenAI:ssa ja LLM:issä on laaja liiallinen riippuvuus tekoälyn luomasta sisällöstä. Tekoälyn luomaan sisältöön luottaminen ilman harhaanjohtavien tai väärien tietojen tarkistamista tai tarkistamista ilman ihmisen panosta tai valvontaa voi johtaa virheellisten tietojen leviämiseen, mikä johtaa huonoon päätöksentekoon ja heikentää kriittistä ajattelua. LLM:ien tiedetään harjoittavan hallusinaatioita, joten osa disinformaatiosta ei välttämättä edes johdu pahantahtoisesta tarkoituksesta.

Samaan tapaan GenAI:n kehityksen myötä käyttöön otettavan turvattoman koodin määrä tulee myös olemaan merkittävä haaste CISO:lle, ellei sitä ennakoida ennakoivasti. Tekoälymoottorien tiedetään kirjoittavan bugisia koodeja, joissa on tietoturva-aukkoja. Ilman asianmukaista inhimillistä valvontaa GenAI antaa ihmisille mahdollisuuden lähettää koodia ilman asianmukaista teknistä perustaa. Tämä lisää tietoturvariskiä koko ohjelmistokehityksen elinkaaren ajan organisaatioille, jotka käyttävät näitä työkaluja väärin.

Tietovuoto on toinen yleinen ongelma. Joissakin tapauksissa hyökkääjät voivat käyttää nopeaa lisäystä poimiakseen arkaluonteisia tietoja, jotka tekoälymalli on oppinut toiselta käyttäjältä. Usein tämä voi olla vaaratonta, mutta pahantahtoinen käyttö ei todellakaan ole poissuljettua. Huonot toimijat saattoivat tarkoituksella tutkia tekoälytyökalua huolellisesti laadituilla kehotteilla, joiden tarkoituksena on poimia arkaluonteisia tietoja, jotka työkalu on muistanut, mikä johtaa arkaluonteisten tai luottamuksellisten tietojen vuotamiseen.

Tekoäly voi lisätä joitakin kyberturvallisuusaukkoja, mutta sillä on merkittävä potentiaali sulkea muita

Lopuksi on selvää, että GenAI:n ja LLM:ien leviäminen heikentää osan toimialamme hyökkäyspinnan vähenemisestä muutamista syistä. Ensinnäkin kyky luoda koodia GenAI:lla alentaa rimaa siitä, kuka voi olla ohjelmistosuunnittelija, mikä johtaa heikompaan koodiin ja vielä heikompiin tietoturvastandardeihin. Toiseksi GenAI vaatii valtavia määriä dataa, mikä tarkoittaa, että tietomurtojen laajuus ja vaikutukset kasvavat eksponentiaalisesti. Kolmanneksi, kuten minkä tahansa uuden teknologian kohdalla, kehittäjät eivät välttämättä ole täysin tietoisia tavoista, joilla niiden toteutusta voidaan hyödyntää tai väärinkäyttää. 

Siitä huolimatta on tärkeää omaksua tasapainoinen näkökulma. Vaikka Gen AI:n koodin luomisen helpottaminen saattaa herättää huolta, se tuo myös myönteisiä ominaisuuksia kyberturvallisuusmaisemaan. Se voi esimerkiksi tunnistaa tehokkaasti tietoturva-aukkoja, kuten Cross-Site Scripting (XSS) tai SQL-injektio. Tämä kaksinainen luonne korostaa vivahteikkaan ymmärryksen tärkeyttä. Sen sijaan, että tekoälyä pidettäisiin pelkästään haitallisena, se korostaa tekoälyn ja ihmisen kyberturvallisuuteen osallistumisen välistä täydentävää suhdetta. CISO:n on ymmärrettävä GenAI:n ja LLM:ien liittyvät riskit ja samalla tutkittava ihmiskeskeisiä lähestymistapoja GenAI:n toteuttamiseksi ja organisaatioiden vahvistamiseksi.

Ihmiset poimivat sen, mitä tekoäly jättää jälkeensä

CISO:n tehtävänä ei ole vain selvittää GenAI:n monimutkaisuutta. Heidän on tasoitettava tietä eteenpäin organisaatiolleen ja osoitettava johtajille, kuinka heidän organisaationsa voi jatkaa menestymistä GenAI:n hallitsemassa maailmassa. 

Vaikka loppukäyttäjät ovat usein vastuussa monista tietoturva-aukoista, kyberrikollisuutta vastaan ​​ei ole parempaa puolustusta kuin hyvin koulutettu ja turvallisuusmielinen ihminen. Riippumatta siitä, mitä uhkien havaitsemistyökaluja organisaatiolla on käytössään, ruudun takana olevaa henkilöä ei yksinkertaisesti voi korvata ohjelmistojen testauksessa. 

Organisaatiot voivat ohittaa kyberrikolliset käyttämällä voimaa eettinen hakkerointi. Vaikka jotkut epäröivät kutsua hakkereita verkostoonsa vanhentuneiden väärinkäsitysten vuoksi, nämä lakia noudattavat kyberturvallisuuden asiantuntijat ovat paras tapa kohdata huonoja toimijoita – koska toisin kuin tekoäly, he voivat päästä kyberhyökkääjien päähän.

Itse asiassa hakkerit täydentävät jo automatisoituja työkaluja taistellakseen kyberrikollisia vastaan 92% kaikista eettiset hakkerit sanovat löytävänsä haavoittuvuuksia, joita skannerit eivät voi löytää. Vetämällä verhon hakkeroinnista lopullisesti, yritysjohtajat voivat omaksua eettisen hakkeroinnin ja ihmisten tuen löytääkseen tehokkaamman tasapainon tekoälyn ja ihmisten asiantuntijoiden välillä nykyaikaisen kyberrikollisuuden torjunnassa. Meidän viimeaikainen Hakkerikäyttöinen tietoturvaraportti korostaa tätä, ja 91 % asiakkaistamme sanoi, että hakkerit tarjoavat tehokkaampia ja arvokkaampia haavoittuvuuksista kertovia raportteja kuin tekoäly tai skannausratkaisut. Tekoälyn muokkaaessa tulevaisuuttamme eettinen hakkeriyhteisö on edelleen sitoutunut varmistamaan sen turvallisen integroinnin.

Automaatio ja korkeasti koulutettujen hakkerien verkosto mahdollistavat sen, että yritykset voivat paikantaa kriittiset sovellusvirheet ennen kuin niitä hyödynnetään. Kun organisaatiot yhdistävät tehokkaasti automatisoidut tietoturvatyökalut eettiseen hakkerointiin, ne sulkevat aukkoja jatkuvasti kehittyvässä digitaalisessa hyökkäyspinnassa. 

Tämä johtuu siitä, että ihmiset ja tekoäly voivat työskennellä yhdessä parantaakseen turvallisuustiimin tuottavuutta: 

  1. Hyökkäyspintatiedustelu: Nykyaikaiset organisaatiot voivat kasvattaa laajan ja monimutkaisen IT-infrastruktuurin, joka sisältää sekä valtuutettuja että luvattomia laitteita ja ohjelmistoja. IT-resurssien, kuten ohjelmistojen ja laitteistojen, kattavan indeksin kehittäminen on tärkeää haavoittuvuuksien vähentämiseksi, korjaustiedostojen hallinnan virtaviivaistamiseksi ja alan velvoitteiden noudattamisen edistämiseksi. Se auttaa myös tunnistamaan ja analysoimaan kohdat, joiden kautta hyökkääjä voi kohdistaa organisaatioon.
  2. Jatkuvat arvioinnit: Pisteen tietoturvaa pidemmälle menevät organisaatiot voivat yhdistää inhimillisen turvallisuuden asiantuntijoiden kekseliäisyyden reaaliaikaisiin hyökkäysten pintatietoihin saavuttaakseen jatkuvan digitaalisen maiseman testauksen. Jatkuvan läpäisytestauksen avulla IT-tiimit voivat tarkastella jatkuvien simulaatioiden tuloksia, jotka osoittavat, miltä tietomurto näyttäisi nykyisessä ympäristössä ja mahdollisia heikkoja kohtia, joihin tiimit voivat mukautua reaaliajassa.
  3. Prosessin parannukset: Luotetut ihmishakkerit voivat antaa tietoturvatiimeille arvokasta tietoa haavoittuvuuksista ja omaisuudesta prosessien parantamiseksi.

Yhteenveto

Kun luova tekoäly kehittyy edelleen niin nopeasti, CISO:n on hyödynnettävä ymmärrystään siitä, kuinka ihmiset voivat tehdä yhteistyötä parantaakseen tekoälyn turvallisuutta ja saadakseen tukea hallitukseltaan ja johtoryhmältään. Tämän seurauksena organisaatioilla voi olla riittävästi henkilöstöä ja resursseja vastatakseen näihin haasteisiin tehokkaasti. Oikean tasapainon löytäminen nopean tekoälyn käyttöönoton ja kattavan turvallisuuden välillä tekemällä yhteistyötä eettisten hakkerien kanssa vahvistaa perusteita investoida asianmukaisiin tekoälypohjaisiin ratkaisuihin.

Aikaleima:

Lisää aiheesta DATAVERSITEETTI