AI ja turvalisus: see on keeruline, kuid ei pea olema | IoT Now uudised ja aruanded

AI ja turvalisus: see on keeruline, kuid ei pea olema | IoT Now uudised ja aruanded

Allikasõlm: 3071147

AI populaarsus kasvab ja see trend ainult jätkub. Seda toetab Gartner mis väidab, et ligikaudu 80% ettevõtetest on kasutanud generatiivset tehisintellekti (GenAI) 2026. aastaks rakenduste programmeerimisliidested (API-d) või mudelid. Tehisintellekt on aga lai ja üldlevinud mõiste ning paljudel juhtudel hõlmab see mitmesuguseid tehnoloogiaid. Sellegipoolest pakub tehisintellekt läbimurdeid loogika erineva töötlemise võimes, mis tõmbab tähelepanu nii ettevõtetele kui ka tarbijatele, kes tänapäeval katsetavad erinevaid AI vorme. Samal ajal äratab see tehnoloogia sarnast tähelepanu ohus osalejatelt, kes mõistavad, et see võib olla ettevõtte turvalisuse nõrkus, samas kui see võib olla ka tööriist, mis aitab ettevõtetel neid nõrkusi tuvastada ja nendega tegeleda.

AI turvaprobleemid

Üks viis, kuidas ettevõtted AI-d kasutavad, on suurte andmekogumite ülevaatamine, et tuvastada mustrid ja vastavalt järjestada andmed. See saavutatakse, luues tabeliandmekogumeid, mis tavaliselt sisaldavad andmeridu ja ridu. Kuigi see toob ettevõtetele märkimisväärset kasu, alates tõhususe suurendamisest kuni mustrite ja arusaamade tuvastamiseni, suurendab see ka turvariske, kuna rikkumine peaks toimuma, sorteeritakse need andmed viisil, mida ohus osalejad saavad hõlpsasti kasutada.

Suure keelemudeli (LLM) tehnoloogiate kasutamisel, mis eemaldavad turvabarjäärid, tekib edasine oht, kuna andmed paigutatakse avalikku omandisse kõigile, kes kasutavad seda tehnoloogiat komistamiseks ja kasutamiseks. Kuna LLM on tegelikult robot, mis ei mõista üksikasju, annab see kõige tõenäolisema vastuse, mis põhineb tõenäosusel, kasutades tal olevat teavet. Seetõttu takistavad paljud ettevõtted töötajatel ettevõtte andmeid sisestamast sellistesse tööriistadesse nagu ChatGPT, et hoida andmeid ettevõtte piires turvaliselt.

AI turvalisuse eelised

Kuigi tehisintellekt võib ettevõtetele potentsiaalset ohtu kujutada, võib see olla ka osa lahendusest. Kuna tehisintellekt töötleb teavet inimesest erinevalt, võib see vaadata probleeme erinevalt ja leida murrangulisi lahendusi. Näiteks AI toodab paremaid algoritme ja suudab lahendada matemaatilisi probleeme, millega inimesed on aastaid vaeva näinud. Sellisena on infoturbe osas algoritmid kuningas ja AI, masinõpe (ML) või sarnane kognitiivne andmetöötlustehnoloogia, võiks välja pakkuda viisi andmete kaitsmiseks.

See on tehisintellekti tõeline kasu, kuna see ei suuda mitte ainult tuvastada ja sortida tohutul hulgal teavet, vaid see suudab tuvastada mustreid, mis võimaldavad organisatsioonidel näha asju, mida nad pole varem märganud. See toob infoturbesse täiesti uue elemendi. Kuigi ohus osalejad hakkavad AI-d kasutama vahendina süsteemidesse häkkimise tõhususe parandamiseks, kasutavad seda ka eetilised häkkerid, et leida, kuidas turvalisust parandada, mis on ettevõtetele väga kasulik.

Töötajate ja turvalisuse väljakutse

Töötajad, kes näevad tehisintellekti eeliseid oma isiklikus elus, kasutavad selliseid tööriistu nagu ChatGPT parandada nende võimet täita tööülesandeid. Samal ajal muudavad need töötajad andmeturbe keerukamaks. Ettevõtted peavad olema teadlikud sellest, millist teavet töötajad nendele platvormidele panevad ja millised on nendega seotud ohud.

Kuna need lahendused toovad kasu töökohale, võivad ettevõtted kaaluda mittetundlike andmete sisestamist süsteemidesse, et piirata kokkupuudet sisemiste andmekogumitega, suurendades samal ajal kogu organisatsiooni tõhusust. Organisatsioonid peavad aga mõistma, et neil ei saa seda mõlemal viisil kasutada ja nendesse süsteemidesse sisestatud andmed ei jää privaatseks. Sel põhjusel peavad ettevõtted üle vaatama oma teabeturbepoliitikad ja leidma, kuidas kaitsta tundlikke andmeid, tagades samal ajal töötajatele juurdepääsu kriitilistele andmetele.

Mitte tundlikud, kuid kasulikud andmed

Ettevõtted on teadlikud väärtusest, mida tehisintellekt võib tuua, lisades samal ajal a turvarisk segu sisse. Et sellest tehnoloogiast kasu saada, säilitades samal ajal andmed privaatsena, uurivad nad võimalusi anonüümseks muudetud andmete rakendamiseks, kasutades näiteks pseudonüümi, mis asendab tuvastatava teabe pseudonüümi või väärtusega ega võimalda isikut otse tuvastada.

Teine viis, kuidas ettevõtted saavad andmeid kaitsta, on sünteetiliste andmete generatiivne AI. Näiteks kui ettevõttel on kliendiandmete kogum ja ta peab seda analüüsi ja ülevaate saamiseks kolmanda osapoolega jagama, suunavad nad andmekogumile sünteetiliste andmete genereerimise mudeli. See mudel õpib kogu andmekogumi kohta, tuvastab teabe põhjal mustrid ja loob seejärel andmestiku väljamõeldud isikutega, kes ei esinda tegelikes andmetes kedagi, kuid võimaldavad adressaadil analüüsida kogu andmekogumit ja esitada täpset teavet. See tähendab, et ettevõtted saavad jagada võltsitud, kuid täpset teavet ilma tundlikke või privaatseid andmeid paljastamata. Ttema lähenemisviis võimaldab masinõppemudelites kasutada tohutul hulgal teavet analüütika jaoks ja mõnel juhul ka andmete testimiseks arendamiseks.

Tänapäeval on ettevõtetele saadaval mitmed andmekaitsemeetodid, mille abil saab tehisintellekti tehnoloogiate väärtust südamerahuga ära kasutada, et isikuandmed oleksid turvalised ja kaitstud. See on ettevõtete jaoks oluline, kuna nad kogevad tõelist kasu, mida andmed toovad tõhususe, otsuste tegemise ja üldise kliendikogemuse parandamisel.

Artikkel, mille autorid on Clyde Williamson, turvaarhitekt ja Nathan Vega, Protegrity tooteturunduse ja strateegia asepresident.

Kommenteerige seda artiklit allpool või X kaudu: @IoTNow_

Ajatempel:

Veel alates IoT nüüd