AI in varnost: je zapleteno, a ni nujno | Novice in poročila IoT Now

Umetna inteligenca in varnost: je zapleteno, a ni nujno | Novice in poročila IoT Now

Izvorno vozlišče: 3071147

Umetna inteligenca postaja vse bolj priljubljena in ta trend se bo le nadaljeval. To podpira Gartner ki pravi, da bo približno 80 % podjetij uporabljalo generativno umetno inteligenco (GenAI) vmesnike za programiranje aplikacij (API) ali modele do leta 2026. Vendar je AI širok in vseprisoten izraz in v mnogih primerih zajema vrsto tehnologij. Kljub temu umetna inteligenca predstavlja preboj v zmožnosti drugačne obdelave logike, kar pritegne pozornost tako podjetij kot potrošnikov, ki danes eksperimentirajo z različnimi oblikami umetne inteligence. Hkrati ta tehnologija pritegne podobno pozornost akterjev groženj, ki se zavedajo, da bi lahko bila šibkost v varnosti podjetja, hkrati pa bi lahko bila tudi orodje, ki podjetjem pomaga prepoznati te slabosti in jih odpraviti.

Varnostni izzivi AI

Eden od načinov, kako podjetja uporabljajo umetno inteligenco, je pregledovanje velikih podatkovnih nizov za prepoznavanje vzorcev in ustrezno zaporedje podatkov. To se doseže z ustvarjanjem tabelaričnih naborov podatkov, ki običajno vsebujejo vrstice in vrstice podatkov. Medtem ko ima to pomembne koristi za podjetja, od izboljšanja učinkovitosti do prepoznavanja vzorcev in vpogledov, povečuje tudi varnostna tveganja, saj so ti podatki razvrščeni na način, ki ga akterji groženj zlahka uporabljajo, če pride do vdora.

Nadaljnja grožnja se razvije pri uporabi tehnologij velikega jezikovnega modela (LLM), ki odpravlja varnostne ovire, saj so podatki javno dostopni za vsakogar, ki uporablja tehnologijo, da naleti nanjo in jo uporabi. Ker je LLM dejansko bot, ki ne razume podrobnosti, ustvari najverjetnejši odziv na podlagi verjetnosti z uporabo informacij, ki jih ima pri roki. Kot taka številna podjetja zaposlenim preprečujejo, da bi podatke o podjetju vnesli v orodja, kot je ChatGPT, da bi ohranili varnost podatkov v mejah podjetja.

Varnostne prednosti AI

Čeprav umetna inteligenca lahko predstavlja potencialno tveganje za podjetja, je lahko tudi del rešitve. Ker umetna inteligenca obdeluje informacije drugače kot ljudje, lahko na težave gleda drugače in najde prelomne rešitve. Umetna inteligenca na primer proizvaja boljše algoritme in lahko rešuje matematične probleme, s katerimi se ljudje spopadamo že vrsto let. Kot taki, ko gre za informacijsko varnost, so algoritmi kralj in AI, strojno učenje (ML) ali podobno kognitivno računalniško tehnologijo, bi lahko našli način za zaščito podatkov.

To je resnična prednost umetne inteligence, saj lahko ne samo prepozna in razvrsti ogromne količine informacij, ampak lahko prepozna tudi vzorce, ki organizacijam omogočajo, da vidijo stvari, ki jih prej niso opazile. To prinaša povsem nov element varnosti informacij. Medtem ko bodo akterji groženj AI uporabljali kot orodje za izboljšanje svoje učinkovitosti vdiranja v sisteme, ga bodo kot orodje uporabljali tudi etični hekerji, da bi poskušali ugotoviti, kako izboljšati varnost, kar bo zelo koristno za podjetja.

Izziv zaposlenih in varnost

Zaposleni, ki vidijo prednosti umetne inteligence v svojem osebnem življenju, uporabljajo orodja, kot so ChatGPT izboljšati svojo sposobnost opravljanja delovnih funkcij. Hkrati ti zaposleni dodatno zapletajo varnost podatkov. Podjetja se morajo zavedati, katere informacije zaposleni dajejo na te platforme in groženj, povezanih z njimi.

Ker bodo te rešitve prinesle koristi na delovnem mestu, lahko podjetja razmislijo o vnosu neobčutljivih podatkov v sisteme, da bi omejili izpostavljenost notranjih podatkovnih nizov, hkrati pa povečali učinkovitost v celotni organizaciji. Vendar se morajo organizacije zavedati, da ne morejo imeti obojega in da podatki, ki jih vnesejo v takšne sisteme, ne bodo ostali zasebni. Zaradi tega bodo morala podjetja pregledati svoje politike informacijske varnosti in ugotoviti, kako zaščititi občutljive podatke, hkrati pa zaposlenim zagotoviti dostop do kritičnih podatkov.

Ni občutljiv, a uporaben podatek

Podjetja se zavedajo vrednosti, ki jo lahko prinese umetna inteligenca, hkrati pa dodajajo varnostno tveganje v mešanico. Da bi pridobili vrednost te tehnologije in hkrati ohranili zasebnost podatkov, raziskujejo načine za implementacijo anonimiziranih podatkov z uporabo psevdonimizacije, ki na primer nadomesti določljive podatke s psevdonimom ali vrednostjo in ne omogoča neposredne identifikacije posameznika.

Drug način, kako lahko podjetja zaščitijo podatke, je generativni AI za sintetične podatke. Na primer, če ima podjetje nabor podatkov o strankah in ga mora deliti s tretjo osebo za analizo in vpoglede, na nabor podatkov usmeri sintetični model generiranja podatkov. Ta model bo izvedel vse o naboru podatkov, identificiral vzorce iz informacij in nato izdelal nabor podatkov z izmišljenimi posamezniki, ki v resničnih podatkih ne predstavljajo nikogar, vendar prejemniku omogočajo analizo celotnega nabora podatkov in zagotavljanje točnih informacij. To pomeni, da lahko podjetja delijo lažne, a točne informacije, ne da bi razkrila občutljive ali zasebne podatke. Tnjegov pristop omogoča, da modeli strojnega učenja uporabljajo ogromne količine informacij za analitiko in v nekaterih primerih za testiranje podatkov za razvoj.

Z več metodami zaščite podatkov, ki so danes na voljo podjetjem, je mogoče izkoristiti vrednost tehnologij umetne inteligence brez skrbi, da osebni podatki ostanejo varni in zavarovani. To je pomembno za podjetja, saj izkusijo resnične koristi, ki jih prinašajo podatki za izboljšanje učinkovitosti, sprejemanja odločitev in splošne uporabniške izkušnje.

Članek Clyda Williamsona, glavnega varnostnega arhitekta, in Nathana Vege, podpredsednika, trženja izdelkov in strategije pri Protegrity.

Komentirajte ta članek spodaj ali prek X: @IoTNow_

Časovni žig:

Več od IoT zdaj