Tekoälyn vaikutus kyberturvallisuuteen - DATAVERSITY

Tekoälyn vaikutus kyberturvallisuuteen – DATAVERSITY

Lähdesolmu: 2995031

Tekoäly on herättänyt paljon mediahuomiota kaikkeen ihmisten työpaikkojen ottamisesta disinformaation levittämiseen ja tekijänoikeuksien loukkaamiseen, mutta tekoälyn vaikutus kyberturvallisuuteen saattaa olla sen kiireellisin välitön ongelma.

Tekoälyn vaikutus turvallisuustiimeihin on ennustettavasti kaksiteräinen. Oikein käytettynä se voi olla tehokas voimankertoja kyberturvallisuuden harjoittajille muun muassa käsittelemällä valtavia tietomääriä tietokoneen nopeuksilla, etsimällä yhteyksiä etäisten tietopisteiden välillä, havaitsemalla malleja, havaitsemalla hyökkäyksiä ja ennustamalla hyökkäysten etenemistä. Mutta kuten turvallisuusalan ammattilaiset hyvin tietävät, tekoälyä ei aina sovelleta oikein. Se tehostaa jo ennestään vaikuttavaa kyberturvallisuusuhkien valikoimaa identiteetin vaarantamisesta ja tietojenkalastelusta kiristysohjelmiin ja toimitusketjuhyökkäyksiin.

CISO:n ja turvallisuustiimien on ymmärrettävä sekä tekoälyn edut että riskit, mikä edellyttää taitojen huomattavaa tasapainottamista. Esimerkiksi tietoturvainsinöörien on ymmärrettävä koneoppimisen perusteet, mallien laatu ja harhat, luottamustasot ja suorituskykymittaukset. Tietotieteilijät Sinun on opittava kyberturvallisuuden perusteet, hyökkäysmallit ja riskimallinnus voidakseen edistää tehokkaasti hybridiryhmiä.

Tekoälymallit tarvitsevat asianmukaista koulutusta kyberturvallisuuden auttamiseksi

Tekoälyyn perustuvien uhkien leviämisen torjunta lisää haasteita CISO:lle ja jo ylikuormitetuille turvallisuustiimeille, joiden ei tarvitse käsitellä vain uusia, kehittyneitä tietojenkalastelukampanjoita, jotka on luotu suuri kielimalli (LLM) kuten ChatGPT, mutta silti on huolehdittava DMZ:n korjaamattomasta palvelimesta, joka voi aiheuttaa suuremman uhan.

Tekoäly sen sijaan voi säästää tiimien aikaa ja vaivaa riskien arvioinnissa ja uhkien havaitsemisessa. Se voi myös auttaa vastaamisessa – vaikka se on tehtävä huolellisesti. Tekoälymalli voi tutkia analyytikot oppiakseen, kuinka he erottelevat tapauksia, ja sitten joko suorittaa nämä tehtävät yksinään tai priorisoida tapaukset ihmisten arvioitavaksi. Mutta tiimien on oltava varmoja, että oikeat ihmiset antavat tekoälyn ohjeet.

Esimerkiksi vuosia sitten suoritin kokeen, jossa 10 eri taitotasoista analyytikkoa arvioivat 100 tapausta, joissa epäiltiin tietojen suodattamista. Kaksi vanhempaa analyytikkoa tunnisti oikein kaikki positiiviset ja negatiiviset asiat, kolme vähemmän kokenutta analyytikkoa sai lähes kaikki tapaukset väärin ja loput viisi sai satunnaisia ​​tuloksia. Riippumatta siitä, kuinka hyvä tekoälymalli on, se olisi hyödytöntä, jos sellainen joukkue kouluttaisi.

Tekoäly on kuin voimakas auto: se voi tehdä ihmeitä kokeneen kuljettajan käsissä tai paljon vahinkoa kokemattoman kuljettajan käsissä. Tämä on yksi alue, jolla taitojen puute voi vaikuttaa tekoälyn kyberturvallisuuden vaikutuksiin.

Kuinka teknologiajohtajat voivat valita tekoälyratkaisun?

Tekoälyä koskevan hypetyksen vuoksi organisaatioilla saattaa olla houkutusta yksinkertaisesti kiirehtiä ottamaan tekniikka käyttöön. Mutta oikean tekoälyn koulutuksen lisäksi teknisten johtajien on vastattava kysymyksiin, alkaen soveltuvuusongelmista:

  • Sopiiko tekoäly organisaation ekosysteemiin? Tämä sisältää alustan, ulkoiset komponentit, kuten tietokanta ja hakukone, ilmaiset ja avoimen lähdekoodin ohjelmistot ja lisenssit sekä organisaation suojauksen ja sertifioinnit, varmuuskopioinnin ja vikasietoisuuden. 
  • Skaalautuuko tekoäly yrityksen kokoon?
  • Mitä taitoja turvallisuustiimi tarvitsee tekoälyn ylläpitämiseen ja käyttämiseen?

Teknisten johtajien on myös käsiteltävä erityisesti tekoälyratkaisua koskevia kysymyksiä: 

  • Mitkä tietyn tekoälytuotteen väitetyistä toiminnoista vastaavat liiketoimintatavoitteitasi?
  • Voidaanko samat toiminnot saavuttaa olemassa olevilla työkaluilla?
  • Tunnistaako ratkaisu todella uhkia?

Viimeiseen kysymykseen voi olla vaikea vastata, koska haitallisia kyberturvallisuustapahtumia esiintyy pienessä mittakaavassa lailliseen toimintaan verrattuna. Rajoitetussa konseptitutkimuksessa, jossa käytetään reaaliaikaista dataa, tekoälytyökalu voi havaita mitään, jos mitään ei ole. Toimittajat käyttävät usein synteettistä dataa tai Red Team -hyökkäyksiä osoittaakseen tekoälyn kyvyn, mutta kysymys jää siitä, osoittaako se todellista havaitsemiskykyä vai yksinkertaisesti sen oletuksen vahvistamista, jonka perusteella indikaattorit luotiin.

On vaikea määrittää, miksi tekoäly uskoo, että jokin oli hyökkäys, koska tekoälyalgoritmit ovat pohjimmiltaan mustia laatikoita, eivätkä silti pysty selittämään, kuinka ne päätyivät tiettyyn johtopäätökseen – kuten DARPA:n osoitti. Selitettävä tekoäly (XAI) ohjelma.

Tekoälyn riskien vähentäminen

Tekoälyratkaisu on juuri niin hyvä kuin data, jonka kanssa se toimii. Eettisen käyttäytymisen varmistamiseksi tekoälymalleja tulisi kouluttaa eettisten tietojen perusteella, ei World Wide Webin tukkukaupan roskienkeräystä varten. Ja jokainen datatieteilijä tietää, että tasapainoisen, puolueettoman ja puhtaan tietojoukon tuottaminen mallin kouluttamiseksi on vaikea, työläs ja lumoamaton tehtävä. 

Tämän vuoksi tekoälymalleja, mukaan lukien LLM:t, voidaan lopulta hallita samalla tavalla kuin ne parhaiten palvelisivat kyberturvallisuutta – erikoismalleina (toisin kuin "kaikkitietävät" yleiskäyttöiset mallit), jotka palvelevat tiettyjä aloja ja jotka on koulutettu alan asiantuntijoiden kuratoimat tiedot. 

Tekoälyn sensuroinnin yrittäminen vastauksena median tämänhetkiseen kohuun ei ratkaise ongelmaa. Vain ahkera työ luotettavien tietojoukkojen luomisessa voi tehdä sen. Kunnes tekoälyyritykset – ja niitä tukevat riskipääomayritykset – hyväksyvät tämän lähestymistavan ainoana tapana tuottaa kunnioitettavaa sisältöä, se on roskaa sisään/roskaa ulos. 

Pitäisikö tekoälykehitystä säännellä enemmän?

Tekoälyn kehitys on tuottanut paljon oikeutettuja huolia kaikkea syväväärennöksistä ja äänikloonauksesta edistyneisiin tietojenkalastelu-/vishing-/smishing-tapahtumiin, tappajarobotit ja jopa mahdollisuus AI apokalypsi. Eliezer Yudkowsky, yksi yleisen tekoälyn (AGI) arvostetuimmista nimistä, esitti äskettäin kehotuksen "sulje se kaikki”, sanoi ehdotettu kuuden kuukauden moratorio ei riittänyt.

Mutta et voi pysäyttää uusien teknologioiden kehitystä, mikä on ollut ilmeistä alkemistien ajoilta antiikin ajoilta lähtien. Mitä voidaan tehdä käytännön näkökulmasta, jotta tekoäly ei kasva hallinnasta ja tekoälyn aiheuttaman sukupuuttoon liittyvän tapahtuman riskiä pienennetään? Vastaus on monia samoja ohjausjärjestelmiä, joita käytetään muilla aloilla, joilla on potentiaalia aseistamiseen: 

  • Läpinäkyvä tutkimus. Avoimen lähdekoodin tekoälykehitys ei ainoastaan ​​edistä innovaatioita ja demokratisoi pääsyä, vaan sillä on myös monia turvallisuusetuja tietoturvapuutteiden ja vaarallisten kehityslinjojen havaitsemisesta suojan luomiseen mahdollisia väärinkäytöksiä vastaan. Big Tech tukee toistaiseksi avoimen lähdekoodin pyrkimyksiä, mutta tilanne voi muuttua, jos kilpailu kiristyy. Saattaa olla tarvetta lainsäädäntötoimille avoimen lähdekoodin käytön säilyttämiseksi.
  • Sisällytä kokeiluja. Kaikki kokeet riittävän edistyneellä tekoälyllä on hiekkalaatikolla, ja turvallisuusmenettelyjä on valvottava tiukasti. Nämä eivät ole idioottivarmoja toimenpiteitä, mutta saattavat tehdä eron paikallisen häiriön ja maailmanlaajuisen katastrofin välillä.
  • Kill kytkimet. Vastalääkkeiden ja rokotteiden tapaan karanneita tai tuhoavia tekoälyvariantteja koskevien vastatoimien on oltava olennainen osa kehitysprosessia. Jopa kiristysohjelmien tekijät rakentavat tappokytkimen. 
  • Säädä sen käyttöä. Tekoäly on tekniikka, jota voidaan soveltaa ihmiskunnan hyväksi tai väärinkäyttää tuhoisilla seurauksilla. Sen sovellusten säätely on maailman hallitusten tehtävä, ja kiireellisyys on paljon suurempi kuin tarve sensuroida ChatGPT:n seuraava versio. The EU:n tekoälylaki on hyvin tehty, ytimekäs perusta, jonka tarkoituksena on estää väärinkäyttö tukahduttamatta innovaatioita. Yhdysvallat AI Bill of Rights ja äskettäinen tekoälyä koskeva toimeenpanomääräys ovat vähemmän tarkkoja ja näyttävät keskittyvän enemmän poliittiseen korrektisuuteen kuin asianmukaiseen mallin kehittämiseen, koulutukseen ja hillitsemiseen. Nämä toimenpiteet ovat kuitenkin vasta alkua. 

Yhteenveto

Tekoäly on tulossa kyberturvallisuuteen riippumatta siitä, haluavatko CISO:t sitä tai eivät, ja se tuo sekä huomattavia etuja että riskejä kyberturvallisuusalalle, etenkin kun postkvanttinen salaus. Vähintään CISO:n tulisi käyttää aikaa ymmärtääkseen tekoälyhypotettujen työkalujen edut ja tekoälyyn perustuvien hyökkäysten uhat. Se, sijoittavatko he rahaa tekoälyyn, riippuu suurelta osin tekoälyn tietoturvatuotteiden konkreettisista eduista, tekoälyhyökkäysten julkisista seurauksista ja jossain määrin heidän henkilökohtaisesta kokemuksestaan ​​ChatGPT:stä. 

CISO:n haasteena on, kuinka tekoäly voidaan toteuttaa tehokkaasti ja vastuullisesti.

Aikaleima:

Lisää aiheesta DATAVERSITEETTI