Skynet Ahoy? Kaj pričakovati glede varnostnih tveganj z umetno inteligenco naslednje generacije

Skynet Ahoy? Kaj pričakovati glede varnostnih tveganj z umetno inteligenco naslednje generacije

Izvorno vozlišče: 3037761

Ker se inovacije v umetni inteligenci (AI) hitro širijo, bo leto 2024 ključni čas za organizacije in vodstvene organe, da vzpostavijo varnostne standarde, protokole in druge zaščitne ograje, da bi preprečili, da bi jih umetna inteligenca prehitela, opozarjajo varnostni strokovnjaki.

Veliki jezikovni modeli (LLM), ki jih poganjajo sofisticirani algoritmi in obsežni nizi podatkov, izkazujejo izjemno razumevanje jezika in človeške pogovorne zmožnosti. Ena najbolj izpopolnjenih teh platform doslej je GPT-4 podjetja OpenAI, ki se ponaša z naprednimi zmožnostmi razmišljanja in reševanja problemov ter poganja bot podjetja ChatGPT. In podjetje je v sodelovanju z Microsoftom začelo delati na GPT-5, kar je povedal izvršni direktor Sam Altman bo šel veliko dlje — do te mere, da ima "superinteligenco".

Ti modeli predstavljajo ogromen potencial za znatno povečanje produktivnosti in učinkovitosti za organizacije, vendar se strokovnjaki strinjajo, da je prišel čas za industrijo kot celoto za obravnavo inherentnih varnostnih tveganj posledica njihovega razvoja in uporabe. Prav zares, nedavna raziskava Writerbuddy AI, ki ponuja orodje za pisanje vsebine, ki temelji na AI, je ugotovil, da ima ChatGPT že 14 milijard obiskov in se še povečuje.

Medtem ko se organizacije korakajo proti napredku na področju umetne inteligence, bi to »moralo biti povezano s strogimi etičnimi premisleki in ocenami tveganja,« pravi Gal Ringel, izvršni direktor podjetja MineOS za zasebnost in varnost, ki temelji na umetni inteligenci.

Je umetna inteligenca eksistencialna grožnja?

Pomisleki glede varnosti naslednje generacije umetne inteligence so se začeli pojavljati marca, ko je odprto pismo, ki ga je podpisalo skoraj 34,000 vrhunskih tehnologov, pozvalo k ustavitvi razvoja generativnih sistemov umetne inteligence, zmogljivejših od OpenAI-jev GPT-4. Pismo je navedlo "velika tveganja" za družbo, ki jih tehnologija predstavlja, in "izven nadzora dirko laboratorijev AI za razvoj in uvajanje vedno močnejših digitalnih umov, ki jih nihče - niti njihovi ustvarjalci - ne more razumeti, predvideti ali zanesljiv nadzor."

Kljub tem distopičnim strahovom večina varnostnih strokovnjakov ni tako zaskrbljena zaradi scenarija sodnega dne, v katerem stroji postanejo pametnejši od ljudi in prevzamejo svet.

»Odprto pismo je opozorilo na utemeljene pomisleke glede hitrega napredka in možnih aplikacij umetne inteligence v širšem smislu, ali je to dobro za človeštvo,« pravi Matt Wilson, direktor prodajnega inženiringa pri podjetju za kibernetsko varnost Netrix. "Čeprav so v določenih scenarijih impresivne, se javne različice orodij AI ne zdijo tako nevarne."

Zaskrbljujoče je dejstvo, da se napredek in sprejemanje umetne inteligence premikata prehitro, da bi bilo mogoče ustrezno obvladati tveganja, ugotavljajo raziskovalci. »Pandorine skrinjice ne moremo ponovno zapreti,« ugotavlja Patrick Harr, izvršni direktor ponudnika varnosti AI SlashNext.

Poleg tega zgolj "poskus zaustavitve stopnje inovacij v vesolju ne bo pomagal ublažiti" tveganj, ki jih predstavlja, in jih je treba obravnavati ločeno, ugotavlja Marcus Fowler, izvršni direktor varnostnega podjetja AI DarkTrace Federal. To ne pomeni, da bi se moral razvoj umetne inteligence nadaljevati brez nadzora, pravi. Ravno nasprotno, stopnja ocenjevanja tveganja in izvajanja ustreznih zaščitnih ukrepov bi se morala ujemati s stopnjo usposabljanja in razvoja LLM.

"Tehnologija umetne inteligence se hitro razvija, zato morajo vlade in organizacije, ki uporabljajo umetno inteligenco, prav tako pospešiti razprave o varnosti umetne inteligence," pojasnjuje Fowler.

Generativna AI tveganja

Obstaja več splošno priznanih tveganj za generativno umetno inteligenco, ki jih je treba upoštevati in bodo samo še hujša, ko bodo prihodnje generacije tehnologije pametnejše. Na srečo za ljudi nobeden od njih doslej ne predstavlja znanstvenofantastičnega scenarija konca sveta, v katerem AI načrtuje uničenje svojih ustvarjalcev.

Namesto tega vključujejo veliko bolj poznane grožnje, kot je uhajanje podatkov, potencialno poslovno občutljivih informacij; zloraba za zlonamerno dejavnost; in netočni izhodi, ki lahko zavedejo ali zmedejo uporabnike, kar na koncu povzroči negativne poslovne posledice.

Ker LLM-ji zahtevajo dostop do ogromnih količin podatkov za zagotavljanje natančnih in kontekstualno ustreznih rezultatov, se lahko občutljive informacije nenamerno razkrijejo ali zlorabijo.

»Glavno tveganje so zaposleni, ki ga hranijo s poslovno občutljivimi informacijami ko ga prosite, naj napiše načrt ali preoblikuje e-poštna sporočila ali poslovne pakete, ki vsebujejo lastniške informacije podjetja,« ugotavlja Ringel.

Z vidika kibernetskih napadov so akterji groženj že našli nešteto načinov, kako oborožiti ChatGPT in druge sisteme AI. Eden od načinov je bil uporaba modelov za ustvarjanje prefinjenega ogrožanja poslovne e-pošte (BEC) in drugih napadov z lažnim predstavljanjem, ki zahtevajo ustvarjanje družbeno zasnovanih osebnih sporočil, zasnovanih za uspeh.

»Z zlonamerno programsko opremo ChatGPT kiberkriminalcem omogoča neskončno spreminjanje kode, da ostanejo korak pred mehanizmi za odkrivanje zlonamerne programske opreme,« pravi Harr.

Halucinacije umetne inteligence predstavljajo tudi pomembno varnostno grožnjo in zlonamernim akterjem omogočajo, da na edinstven način oborožijo tehnologijo, ki temelji na LLM, kot je ChatGPT. Halucinacija umetne inteligence je verjeten odziv umetne inteligence, ki je nezadosten, pristranski ali povsem neresničen. »Izmišljeni ali drugi nezaželeni odzivi lahko usmerijo organizacije v napačno odločanje, procese in zavajajoče komunikacije,« opozarja Avivah Litan, podpredsednik Gartnerja.

Akterji groženj lahko te halucinacije uporabijo tudi za zastrupitev magistrov študija znanja in »ustvarjanje določenih napačnih informacij kot odgovor na vprašanje,« opaža Michael Rinehart, podpredsednik AI pri ponudniku varnosti podatkov Securiti. "To je mogoče razširiti na generiranje ranljive izvorne kode in po možnosti na modele klepeta, ki lahko uporabnike spletnega mesta usmerijo k nevarnim dejanjem."

Napadalci gredo lahko celo tako daleč, da objavljati zlonamerne različice programskih paketov ki bi ga LLM lahko priporočil razvijalcu programske opreme, saj verjame, da je to legitimna rešitev težave. Na ta način lahko napadalci dodatno oborožijo AI za izvedbo napadov na dobavno verigo.

Pot naprej

Strokovnjaki ugotavljajo, da bo obvladovanje teh tveganj zahtevalo odmerjeno in skupno ukrepanje, preden bodo inovacije umetne inteligence presegle zmožnost industrije, da jih nadzoruje. Imajo pa tudi ideje o tem, kako rešiti problem umetne inteligence.

Harr verjame v "boj proti AI z A«, v kateri se mora »napredek v varnostnih rešitvah in strategijah za preprečitev tveganj, ki jih spodbuja umetna inteligenca, razvijati enako ali hitreje.

"Zaščita kibernetske varnosti mora izkoristiti AI za uspešen boj proti kibernetskim grožnjam z uporabo tehnologije AI," dodaja. "Za primerjavo, podedovana varnostna tehnologija nima možnosti pred temi napadi."

Vendar bi morale organizacije sprejeti tudi premišljen pristop k sprejemanju umetne inteligence – vključno z Varnostne rešitve, ki temeljijo na AI — da ne bi vnesli več tveganj v svoje okolje, opozarja Netrixov Wilson.

»Razumite, kaj AI je in kaj ni,« svetuje. "Izzovite prodajalce, ki trdijo, da uporabljajo umetno inteligenco, da opišejo, kaj počne, kako izboljša njihovo rešitev in zakaj je to pomembno za vašo organizacijo."

Rinehart iz Securitija ponuja dvonivojski pristop k postopnemu uvajanju umetne inteligence v okolje z uvedbo osredotočenih rešitev in nato postavitvijo zaščitnih ograj, tik preden je organizacija izpostavljena nepotrebnemu tveganju.

»Najprej sprejmete modele, specifične za aplikacije, ki jih lahko nadgradijo baze znanja, ki so prilagojene za zagotavljanje vrednosti v posebnih primerih uporabe,« pravi. "Potem … implementirajte nadzorni sistem za zaščito teh modelov s pregledovanjem sporočil do in od njih glede zasebnosti in varnosti."

Strokovnjaki priporočajo tudi vzpostavitev varnostnih politik in postopkov v zvezi z umetno inteligenco, preden je uvedena, in ne kot naknadna misel za zmanjšanje tveganja. Lahko celo ustanovijo posebnega uradnika za tveganja umetne inteligence ali delovno skupino za nadzor nad skladnostjo.

Zunaj podjetja mora tudi industrija kot celota sprejeti ukrepe za vzpostavitev varnostnih standardov in praks v zvezi z umetno inteligenco, ki jih lahko sprejmejo vsi, ki razvijajo in uporabljajo tehnologijo – nekaj, kar bo zahtevalo skupno ukrepanje tako javnega kot zasebnega sektorja v svetovnem merilu. , pravi Fowler iz DarkTrace Federal.

On citira smernice za gradnjo varnih sistemov AI ki sta ga skupaj objavila Agencija ZDA za kibernetsko varnost in varnost infrastrukture (CISA) in Nacionalni center za kibernetsko varnost Združenega kraljestva (NCSC) kot primer vrste prizadevanj, ki bi morala spremljati nadaljnji razvoj umetne inteligence.

"V bistvu," pravi Rinehart iz Securitija, "bomo leto 2024 priča hitri prilagoditvi tako tradicionalne varnosti kot vrhunskih tehnik umetne inteligence za zaščito uporabnikov in podatkov v tej nastajajoči generativni dobi umetne inteligence."

Časovni žig:

Več od Temno branje