Balancing Act: vrednost človeškega strokovnega znanja v dobi generativne umetne inteligence - DATAVERSITY

Balancing Act: vrednost človeškega strokovnega znanja v dobi generativne umetne inteligence – DATAVERSITY

Izvorno vozlišče: 3052574

Ljudje veljajo za najšibkejši člen v podjetju, ko gre za varnost. Upravičeno, saj več kot 95 % kibernetskih varnostnih incidentov povzroči človeška napaka. Ljudje smo nestanovitni, zmotljivi in ​​nepredvidljivi, zaradi česar so lahke tarče kibernetskih kriminalcev, ki želijo vstopiti v sisteme organizacij.  

Zaradi tega je naše zanašanje na stroje toliko pomembnejše. Do te točke smo lahko zaupali strojem, da delujejo s kodo kot resnico. Čeprav so lahko ogroženi zaradi ranljivosti v kodi ali zaradi socialnih pomanjkljivosti njihovih človeških operaterjev, se težave običajno rešijo z jasno rešitvijo. 

Vendar pa z vzponom generativni AI (GenAI) in veliki jezikovni modeli (LLM) se organizacije zdaj soočajo z napadi socialnega inženiringa, ki umetno inteligenco zavedejo, da počne stvari, ki jim ni bila namenjena. Ko bomo več preložili na AI, bo zanimivo videti, kako se ti novi vzorci napadov izvajajo.

Spričo te dileme je spet na ljudeh, da krmarijo po tem zapletenem in razvijajočem se varnostnem okolju umetne inteligence. To od CISO zahteva, da jasno sporočijo prednosti in pomanjkljivosti umetne inteligence ter prepoznajo dolg seznam varnostnih vprašanj, povezanih z izdelki in zmogljivostmi, ki jih poganja umetna inteligenca. 

Hitra implementacija generativne umetne inteligence prinaša nove izzive kibernetske varnosti

Za začetek, pogosta težava, ko gre za GenAI in LLM, je široko pretirano zanašanje na vsebino, ki jo ustvari umetna inteligenca. Zaupanje vsebini, ustvarjeni z umetno inteligenco, brez preverjanja ali preverjanja zavajajočih ali napačnih informacij brez človeškega vnosa ali nadzora, lahko privede do širjenja napačnih podatkov, ki vodijo k slabemu odločanju in zmanjšanemu kritičnemu razmišljanju. Znano je, da LLM halucinirajo, zato nekatere dezinformacije morda sploh niso posledica zlonamernih namenov.

V istem smislu bo količina nevarne kode, ki se uvaja po razvoju GenAI, prav tako postala pomemben izziv za CISO, če tega ne bomo proaktivno predvideli. Znano je, da motorji AI pišejo kodo z napakami in imajo varnostne ranljivosti. Brez ustreznega človeškega nadzora GenAI ljudem brez ustrezne tehnične podlage omogoča pošiljanje kode. To vodi do povečanega varnostnega tveganja v celotnem življenjskem ciklu razvoja programske opreme za organizacije, ki ta orodja uporabljajo nepravilno.

Uhajanje podatkov je še ena pogosta težava. V nekaterih primerih lahko napadalci uporabijo takojšnjo injekcijo, da izvlečejo občutljive informacije, ki jih je model AI izvedel od drugega uporabnika. Velikokrat je to lahko neškodljivo, vendar zlonamerna uporaba zagotovo ni izključena. Zlobni akterji bi lahko namerno preizkusili orodje AI z natančno izdelanimi pozivi, da bi izluščili občutljive informacije, ki si jih je orodje zapomnilo, kar bi povzročilo uhajanje občutljivih ali zaupnih informacij.

Umetna inteligenca lahko poveča nekatere vrzeli v kibernetski varnosti, vendar ima znaten potencial za zapolnitev drugih

Nazadnje se razume, da bo širjenje GenAI in LLM zmanjšalo del zmanjšanja napadalne površine v naši industriji iz nekaj razlogov. Prvič, zmožnost ustvarjanja kode z GenAI zniža letvico, kdo je lahko programski inženir, kar ima za posledico šibkejšo kodo in še šibkejše varnostne standarde. Drugič, GenAI zahteva ogromne količine podatkov, kar pomeni, da bosta obseg in vpliv kršitev podatkov eksponentno naraščala. Tretjič, kot pri kateri koli nastajajoči tehnologiji se razvijalci morda ne zavedajo popolnoma načinov, na katere je mogoče izkoristiti ali zlorabiti njihovo implementacijo. 

Kljub temu je bistveno sprejeti uravnoteženo perspektivo. Medtem ko lahko olajšanje Gen AI pri ustvarjanju kode vzbuja pomisleke, prinaša tudi pozitivne lastnosti v krajino kibernetske varnosti. Na primer, lahko učinkovito prepozna varnostne ranljivosti, kot sta skriptiranje med spletnimi mesti (XSS) ali vstavljanje SQL. Ta dvojna narava poudarja pomen niansiranega razumevanja. Namesto da bi umetno inteligenco obravnaval zgolj kot škodljivo, poudarja komplementarni odnos med umetno inteligenco in človeško vpletenostjo v kibernetsko varnost. CISO morajo razumeti povezana tveganja GenAI in LLM, hkrati pa raziskovati na človeka osredotočene pristope za implementacijo GenAI in krepitev svojih organizacij.

Ljudje poberemo tisto, kar umetna inteligenca pusti za seboj

CISO nimajo le naloge razkriti zapletenosti GenAI. Svoji organizaciji morajo utrti pot naprej in vodstvu pokazati, kako lahko njihova organizacija še naprej uspeva v svetu, v katerem prevladuje GenAI. 

Čeprav so končni uporabniki pogosto odgovorni za številne varnostne ranljivosti, ni boljše obrambe pred kibernetsko kriminaliteto kot dobro usposobljen in varnostno usmerjen človek. Ne glede na to, katera orodja za odkrivanje groženj ima organizacija, preprosto ni mogoče nadomestiti osebe za zaslonom, ko gre za testiranje programske opreme. 

Organizacije lahko prehitijo kibernetske kriminalce z uporabo moči etično hekanje. Medtem ko nekateri oklevajo povabiti hekerje v svoje omrežje zaradi zastarelih napačnih predstav, so ti strokovnjaki za kibernetsko varnost, ki spoštujejo zakone, najboljši kos slabim akterjem – ker lahko v nasprotju z umetno inteligenco pridejo v glave kibernetskih napadalcev.

Pravzaprav hekerji že dopolnjujejo avtomatizirana orodja v boju proti kibernetskim kriminalcem s 92% vseh etični hekerji pravijo, da lahko najdejo ranljivosti, ki jih skenerji ne morejo. Če dokončno odgrnejo tančico vdiranja, lahko poslovni voditelji sprejmejo etično vdiranje in človeško podporo, da dosežejo učinkovitejše ravnotežje med AI in človeškimi strokovnjaki v boju proti sodobnemu kibernetskemu kriminalu. Naš nedavni Varnostno poročilo, ki ga poganja heker poudarja to, pri čemer 91 % naših strank pravi, da hekerji zagotavljajo bolj vplivna in dragocena poročila o ranljivosti kot AI ali rešitve za skeniranje. Ker umetna inteligenca še naprej oblikuje našo prihodnost, bo skupnost etičnih hekerjev ostala zavezana zagotavljanju njene varne integracije.

Kombinacija avtomatizacije z mrežo visoko usposobljenih hekerjev pomeni, da lahko podjetja natančno odkrijejo kritične pomanjkljivosti aplikacij, preden jih izkoristijo. Ko organizacije učinkovito združijo avtomatizirana varnostna orodja z etičnimi hekanji, zapolnijo vrzeli v nenehno razvijajoči se površini digitalnih napadov. 

To je zato, ker lahko ljudje in AI sodelujejo pri izboljšanju produktivnosti varnostne ekipe: 

  1. Izvidovanje površin za napad: Sodobne organizacije lahko razvijejo obsežno in zapleteno infrastrukturo IT, ki obsega vrsto dovoljene in nedovoljene strojne in programske opreme. Razvoj vseobsegajočega indeksa sredstev IT, kot sta programska in strojna oprema, je pomemben za zmanjšanje ranljivosti, racionalizacijo upravljanja popravkov in pomoč pri skladnosti z zahtevami industrije. Pomaga tudi pri prepoznavanju in analizi točk, skozi katere lahko napadalec cilja na organizacijo.
  2. Stalne ocene: Če presežejo varnost v trenutku, lahko organizacije združijo iznajdljivost strokovnjakov za človeško varnost z vpogledi v površino napadov v realnem času, da dosežejo stalno testiranje digitalne krajine. Neprekinjeno testiranje penetracije omogoča ekipam IT, da si ogledajo rezultate nenehnih simulacij, ki prikazujejo, kako bi vdor izgledal v trenutnem okolju in morebitne šibke točke, kjer se lahko ekipe prilagodijo v realnem času.
  3. Izboljšave postopka: Zaupanja vredni hekerji lahko varnostnim ekipam predajo dragocene informacije o ranljivostih in sredstvih za pomoč pri izboljšavah procesov.

zaključek

Ker se generativna umetna inteligenca še naprej tako hitro razvija, morajo CISO izkoristiti svoje razumevanje, kako lahko ljudje sodelujejo, da izboljšajo varnost umetne inteligence in pridobijo podporo svojega odbora in vodstvene ekipe. Posledično imajo lahko organizacije ustrezno osebje in vire za učinkovito spopadanje s temi izzivi. Iskanje pravega ravnovesja med hitrim izvajanjem umetne inteligence in celovito varnostjo s sodelovanjem z etičnimi hekerji krepi argument za vlaganje v ustrezne rešitve, ki jih poganja umetna inteligenca.

Časovni žig:

Več od PODATKOVNOST