AI mõju küberturvalisusele – DATAVERSITY

AI mõju küberturvalisusele – DATAVERSITY

Allikasõlm: 2995031

Tehisintellekt on pälvinud palju meediatähelepanu kõigele, alates inimeste töökoha võtmisest kuni desinformatsiooni levitamiseni ja autoriõiguste rikkumiseni, kuid tehisintellekti mõju küberturvalisusele võib olla selle kõige pakilisem otsene probleem.

AI mõju turvameeskondadele on prognoositavalt kahekordne. Kui seda õigesti rakendatakse, võib see olla küberjulgeoleku praktikute jaoks võimas jõu kordistaja, kasutades selliseid vahendeid nagu tohutute andmemahtude töötlemine arvutikiirusel, sidemete leidmine kaugete andmepunktide vahel, mustrite avastamine, rünnakute tuvastamine ja rünnakute edenemise ennustamine. Kuid nagu turvatöötajad hästi teavad, ei rakendata tehisintellekti alati õigesti. See süvendab küberjulgeolekuohtude arvu, alates identiteedi kahjustamisest ja andmepüügist kuni lunavara ja tarneahela rünnakuteni.

CISO-d ja turvameeskonnad peavad mõistma nii tehisintellekti eeliseid kui ka riske, mis nõuab oskuste olulist tasakaalustamist. Näiteks turvainsenerid peavad mõistma masinõppe põhitõdesid, mudeli kvaliteeti ja eelarvamusi, usaldustasemeid ja jõudlusmõõdikuid. Andmeteadlased hübriidmeeskondadesse tõhusalt kaasa aitamiseks tuleb õppida küberturvalisuse põhialuseid, ründemustreid ja riskide modelleerimist.

AI mudelid vajavad küberturvalisuse abistamiseks korralikku koolitust

Tehisintellektist lähtuvate ohtude levikuga tegelemine raskendab väljakutseid CISO-dele ja juba ületöötanud turvameeskondadele, kes ei pea tegelema ainult uute keerukate andmepüügikampaaniatega, mille on koostanud suur keelemudel (LLM) nagu ChatGPT, kuid siiski tuleb muretseda DMZ-s oleva paigatamata serveri pärast, mis võib kujutada endast suuremat ohtu.

AI seevastu võib säästa meeskondadel palju aega ja vaeva riskide hindamisel ja ohtude tuvastamisel. See võib aidata ka reageerimisel – kuigi seda tuleb teha ettevaatlikult. Tehisintellekti mudel võib analüütikute käest surfata, et saada teada, kuidas nad intsidente eristavad, ja seejärel kas neid ülesandeid iseseisvalt täita või seada juhtumid tähtsuse järjekorda inimeste ülevaatamiseks. Kuid meeskonnad peavad olema kindlad, et tehisintellekti juhiseid annavad õiged inimesed.

Näiteks aastaid tagasi tegin katse, mille käigus lasin 10 erineva oskustasemega analüütikul läbi vaadata 100 kahtlustatavat andmete väljafiltreerimise juhtumit. Kaks vanemanalüütikut tuvastasid õigesti kõik positiivsed ja negatiivsed, kolm vähem kogenud analüütikut tegid peaaegu kõik juhtumid valesti ja ülejäänud viis said juhuslikud tulemused. Ükskõik kui hea tehisintellekti mudel ka poleks, oleks sellest kasutu, kui seda sellise meeskonna poolt koolitaks.

AI on nagu võimas auto: kogenud juhi käes võib see teha imesid või kogenematu käes palju kahju. See on üks valdkond, kus oskuste nappus võib mõjutada tehisintellekti küberturvalisuse mõju.

Kuidas saavad CTOd valida tehisintellekti lahenduse?

Arvestades tehisintellekti levitamist, võib organisatsioonidel tekkida kiusatus tehnoloogia kasutuselevõtuga lihtsalt kiirustada. Kuid lisaks tehisintellekti õigele koolitamisele peavad tehnoloogiajuhid vastama küsimustele, alustades sobivusprobleemidest:

  • Kas AI sobib organisatsiooni ökosüsteemi? See hõlmab platvormi, väliseid komponente, nagu andmebaas ja otsingumootor, tasuta ja avatud lähtekoodiga tarkvara ja litsentsimist, aga ka organisatsiooni turvalisust ja sertifikaate, varundust ja tõrkesiiret. 
  • Kas AI ulatub ettevõtte suuruseni?
  • Milliseid oskusi on turvameeskonnal vaja tehisintellekti hooldamiseks ja käitamiseks?

Tehnoloogiajuhid peavad käsitlema ka spetsiaalselt tehisintellekti lahenduse jaoks mõeldud küsimusi: 

  • Millised konkreetse tehisintellekti toote väidetavatest funktsioonidest on teie ärieesmärkidega kooskõlas?
  • Kas sama funktsionaalsust on võimalik saavutada olemasolevate vahenditega?
  • Kas lahendus tõesti tuvastab ohud?

Viimasele küsimusele võib olla raske vastata, kuna pahatahtlikke küberjulgeolekusündmusi esineb seadusliku tegevusega võrreldes vähesel määral. Piiratud kontseptsiooni tõestamise uuringus, mis kasutab reaalajas andmeid, ei pruugi AI-tööriist midagi tuvastada, kui midagi pole. Tarnijad kasutavad tehisintellekti võimekuse demonstreerimiseks sageli sünteetilisi andmeid või Red Teami rünnakuid, kuid jääb küsimus, kas see näitab tõelist tuvastamisvõimet või lihtsalt kinnitab eeldust, mille alusel indikaatorid loodi.

Raske on kindlaks teha, miks tehisintellekt arvab, et miski oli rünnak, sest tehisintellekti algoritmid on sisuliselt mustad kastid, mis ei suuda ikkagi selgitada, kuidas nad teatud järeldusele jõudsid – nagu näitas DARPA Seletav AI (XAI) programmi.

AI riskide maandamine

Tehisintellekti lahendus on täpselt nii hea kui andmed, millega see töötab. Eetilise käitumise tagamiseks tuleks tehisintellekti mudeleid koolitada eetiliste andmete, mitte ülemaailmses veebis leiduva prügi hulgikorjamise osas. Ja iga andmeteadlane teab, et mudeli koolitamiseks hästi tasakaalustatud, erapooletu ja puhta andmekogumi loomine on keeruline, tüütu ja ebaglamuurne ülesanne. 

Seetõttu võidakse tehisintellekti mudeleid, sealhulgas LLM-e, lõpuks hallata sarnaselt sellele, kuidas need kõige paremini küberjulgeolekut teeniksid – spetsialiseeritud mudelitena (erinevalt "kõikteadvatest" üldotstarbelistest mudelitest), mis teenindavad teatud valdkondi ja on koolitatud. valdkonna asjatundjate kureeritud andmed. 

Proovige AI tsenseerida vastuseks hetke meediakärale, ei lahenda probleemi. Seda saab teha ainult hoolas töö usaldusväärsete andmekogumite loomisel. Kuni tehisintellekti ettevõtted – ja neid toetavad riskikapitaliettevõtted – ei aktsepteeri seda lähenemisviisi auväärse sisu edastamise ainsa võimalusena, on see prügi sisse/välja. 

Kas AI arendus peaks olema rohkem reguleeritud?

AI areng on tekitanud palju õigustatud mured kõike alates sügavatest võltsingutest ja hääle kloonimisest kuni täiustatud andmepüügi/vishingu/smishingu, tapjarobotite ja isegi võimaluseni AI apokalüpsis. Eliezer Yudkowsky, tehisintellekti (AGI) üks hinnatumaid nimesid, tegi hiljuti üleskutse:pane see kõik kinni”, öeldes, et kuuekuulisest moratooriumist ei piisa.

Kuid te ei saa peatada uute tehnoloogiate arengut, see on tõsiasi, mis on ilmne juba iidsetest alkeemikute aegadest. Niisiis, mida saab praktilisest vaatenurgast teha, et tehisintellekt ei kasvaks kontrolli alt välja ja leevendaks tehisintellektist tingitud väljasuremisjuhtumi ohtu? Vastus on paljudes samades juhtelementides, mida kasutatakse muudes valdkondades, mis võivad relvastada: 

  • Läbipaistev uurimustöö. Avatud lähtekoodiga tehisintellekti arendamine mitte ainult ei ajenda innovatsiooni ja demokratiseerib juurdepääsu, vaid sellel on ka palju ohutusega seotud eeliseid, alates turvavigade ja ohtlike arendussuundade tuvastamisest kuni kaitse loomiseni võimaliku kuritarvitamise vastu. Big Tech toetab seni avatud lähtekoodiga jõupingutusi, kuid see võib muutuda, kui konkurents tiheneb. Avatud lähtekoodiga juurdepääsu säilitamiseks võib tekkida vajadus seadusandlike meetmete järele.
  • Sisaldab eksperimenteerimist. Kõik katsed piisavalt arenenud tehisintellektiga peavad olema liivakastis ning ohutus- ja turvaprotseduurid tuleb rangelt järgida. Need ei ole lollikindel meetmed, kuid võivad teha vahet kohaliku häire ja ülemaailmse katastroofi vahel.
  • Tapa lülitid. Sarnaselt antidootidele ja vaktsiinidele peavad arendusprotsessi lahutamatuks osaks olema ka põgenevate või hävitavate tehisintellekti variantide vastased vastumeetmed. Isegi lunavara loojad ehitavad sisse tapmislüliti. 
  • Reguleerige selle kasutamist. AI on tehnoloogia, mida saab rakendada inimkonna hüvanguks või kuritarvitada katastroofiliste tagajärgedega. Selle rakenduste reguleerimine on maailma valitsuste ülesanne ja kiireloomulisus on palju suurem kui vajadus ChatGPT järgmist versiooni tsenseerida. The EL AI seadus on läbimõeldud ja sisutihe alus, mille eesmärk on vältida väärkasutust ilma uuendusi lämmatamata. USA AI Bill of Rights ja hiljutine tehisintellekti käsitlev täidesaatev korraldus on vähem spetsiifiline ja näib keskenduvat rohkem poliitilisele korrektsusele kui mudeli nõuetekohase väljatöötamise, koolituse ja ohjeldamise küsimustele. Need meetmed on siiski alles algus. 

Järeldus

Tehisintellekt on jõudmas küberjulgeolekusse olenemata sellest, kas CISOd seda soovivad või mitte, ning see toob küberjulgeoleku valdkonnale nii olulist kasu kui ka riske, eriti seoses postkvantkrüptograafia. Vähemalt peaksid CISO-d investeerima aega, et mõista tehisintellekti levitatavate tööriistade eeliseid ja tehisintellekti juhitud rünnakute ohte. See, kas nad investeerivad tehisintellekti raha, sõltub suuresti tehisintellekti turbetoodete käegakatsutavast kasust, tehisintellekti rünnakute avalikustatud tagajärgedest ja teatud määral nende isiklikust kogemusest ChatGPT-ga. 

CISO-de väljakutse seisneb selles, kuidas tehisintellekti tõhusalt ja vastutustundlikult rakendada.

Ajatempel:

Veel alates ANDMED