CISA, NCSC ponujata časovni načrt, ne pravil, v novih smernicah za varno umetno inteligenco

CISA, NCSC ponujata časovni načrt, ne pravil, v novih smernicah za varno umetno inteligenco

Izvorno vozlišče: 2982452

V nedeljo sta ameriška agencija za kibernetsko varnost in varnost infrastrukture (CISA) in nacionalni center za kibernetsko varnost Združenega kraljestva objavila novo Smernice za varen razvoj sistema AI.

Smernice, ki jih je sooblikovalo 23 domačih in mednarodnih organizacij za kibernetsko varnost, temeljijo na tekočem Prizadevanja Bele hiše za zmanjšanje tveganja umetne inteligence in filozofija varne zasnove. Zagotavljajo oris za vgradnjo varnosti v sisteme AI, vendar ne uvajajo kakršnih koli pravil ali predpisov za industrijo, v nasprotju z nedavni zakon Evropske unije o AI. Podjetja z umetno inteligenco imajo tako zdaj vodnik, ki mu po lastni presoji sledijo ali ga ne upoštevajo.

»Industrija išče veliko inovativnih načinov za trajno sprejetje umetne inteligence, a tudi na zlonamerne načine,« pravi Chris Hughes, glavni svetovalec za varnost pri Endor Labs in sodelavec za kibernetske inovacije pri CISA. "To je priznanje, da je umetna inteligenca tu, da ostane, in poskušati jo moramo prehiteti, da se izognemo kasnejšemu priklopu varnosti, namesto da bi jo vgradili zdaj."

Nove smernice za AI v ZDA, Združenem kraljestvu

CISA in NCSC sta svoje nove smernice razdelila na štiri glavne dele.

Prvi razdelek o varni zasnovi zajema možna tveganja in modeliranje groženj ter možne kompromise, ki jih je treba upoštevati v tej začetni fazi načrtovanja.

Varen razvoj, drugi del, pokriva življenjski cikel razvoja umetne inteligence, vključno z vprašanji varnosti dobavne verige, dokumentacije ter upravljanja sredstev in tehničnega dolga.

Nato smernice svetujejo organizacijam, kako varno uvesti – izogibanje kompromisom, izvajanje upravljanja incidentov itd.

Zadnji razdelek zajema vse stvari, povezane z delovanjem in vzdrževanjem tehnologij, ki podpirajo AI po uvedbi, vključno s spremljanjem, beleženjem, posodabljanjem in izmenjavo informacij.

"Ne želi poustvariti kolesa," pojasnjuje Hughes. Namesto tega, »kar mi je padlo v oči, je nadaljnji dialog, ki ga CISA vodi o sistemih in programski opremi, ki so varni po zasnovi. Nadaljuje trend in breme nalaga dobaviteljem in prodajalcem programske opreme – nekaj, kar ni poudaril le CISA, ampak tudi NCSC.«

Uredba: lažji ali težji dotik?

Junija je EU z veliko večino sprejela tako imenovani »Akt o umetni inteligenci«, ki opredeljuje nove zakone, namenjene zaupanju in odgovornosti za industrijo umetne inteligence.

Nasprotno pa sta CISA in NCSC le zagotovila priporočila za razvijalce umetne inteligence in podjetja, ki se zanašajo nanje.

»To je le smernica, le priporočilo. Uporablja besedo 'mora', mislim, da 51-krat,« poudarja Hughes.

Zaradi tega priznava, da je malo verjetno, da bodo imeli skoraj tolikšen učinek kot prava regulacija. »Kot vemo, ima varnost svojo ceno – včasih lahko upočasni stvari ali povzroči trenja. In ko imate na vrsti spodbude, kot so hitrost na trg, prihodki in podobne stvari, ljudje ponavadi ne naredijo tistega, kar se od njih ne zahteva.«

Toda ali je to slabo ali dobro, je predmet razprave. »Če k temu pristopite z vidika varnosti in zasebnosti za potrošnike in državljane, obstaja argument, da je ureditev boljša. Zahteva varnost, previdnost, upravljanje in zaščitne ukrepe za zasebnost in varnost. Toda hkrati ni mogoče zanikati, da so lahko skladnost in regulativni ukrepi okorni in birokratski ter lahko na nek način omejijo mlajša, moteča podjetja, kar vpliva na inovacije,« dodaja Hughes. "Upam, da bodo nekateri dobavitelji programske opreme to sprejeli in uporabili kot konkurenčno razliko."

Časovni žig:

Več od Temno branje