Upravljanje podatkov v dobi generativne umetne inteligence - DATAVERSITY

Upravljanje podatkov v dobi generativne umetne inteligence – DATAVERSITY

Izvorno vozlišče: 2887173

Na umetni inteligenci temelječi poslovni modeli in izdelki, ki uporabljajo generativno umetno inteligenco (GenAI), se širijo v številnih panogah. Trenutni val umetne inteligence ustvarja nove načine dela in raziskave kažejo, da so vodje podjetij optimistični glede potenciala za merljivo produktivnost in izboljšave storitev za stranke ter preobrazbe v načinu ustvarjanja in distribucije izdelkov in storitev.

Po podatkih mojega podjetja večina (90 %) podjetij zaposlenim omogoča določeno stopnjo sprejemanja umetne inteligence Poročilo o upravljanju nestrukturiranih podatkov za leto 2023. V istem duhu Salesforce Stanje IT Poročilo je pokazalo, da 86 % vodij IT meni, da bo generativna umetna inteligenca kmalu imela vidno vlogo v njihovi organizaciji.

Vendar pa obstaja veliko potencialnih nevarnosti, povezanih s to novo obliko umetne inteligence, od tveganj za zasebnost in varnost do etičnih pomislekov, netočnosti, pristranskosti podatkov in zlonamernih akterjev. Vladni in poslovni voditelji analizirajo težave in tehtajo rešitve za varno in uspešno sprejetje umetne inteligence.

Ta članek pregleduje najnovejše raziskave o umetni inteligenci, kar zadeva nestrukturirani podatki upravljanje in IT načrti podjetja. 

Poudarki:

  • Danes je generativna umetna inteligenca vrhunska poslovna in tehnološka strategija, a tudi vodilna prednostna naloga za upravitelje shranjevanja podatkov.
  • Čeprav ima generativna umetna inteligenca velik potencial, predstavlja tudi vrsto pomislekov glede upravljanja podatkov v zvezi z zasebnostjo, varnostjo in etiko, kar ovira sprejetje.
  • Podjetja dovoljujejo uporabo generativne umetne inteligence, vendar pogosto postavljajo zaščitne ograje, ki urejajo aplikacije in podatke, ki jih zaposleni lahko uporabljajo.
  • Večina organizacij si prizadeva za večstranski pristop, ki vključuje shranjevanje, upravljanje podatkov in varnostna orodja, za zaščito pred generativnimi tveganji umetne inteligence.

Vodilni pomisleki podjetij glede generativne umetne inteligence 

Skrbi in tveganja, povezana z generativno umetno inteligenco, grozijo, da bodo izničila številne prednosti tehnologije in škodovala podjetjem, njihovim zaposlenim in strankam. Kršitev zasebnosti in varnosti je glavna skrb vodilnih IT pri uporabi umetne inteligence v podjetjih (28 %), sledita ji pomanjkanje preglednosti vira podatkov in tveganja zaradi netočnih ali pristranskih podatkov (21 %), glede na raziskavo mojega podjetja. 

Druge raziskave razkrivajo dodatne pomisleke:

  • Tri največja tveganja generativne umetne inteligence po mnenju vodstvenih delavcev, ki so jih anketirali KPMG, so kibernetska varnost, pomisleki glede zasebnosti osebnih podatkov in odgovornost.
  • Glavni pomisleki, navedeni v nedavnem Harrisova anketa so bili kakovost in nadzor (51 %), varnostna in varnostna tveganja (49 %), omejevanje človeških inovacij (39 %) in človeška napaka zaradi pomanjkanja razumevanja uporabe orodja in naključnih vdorov v organizacijske podatke (38 %). . 
  • 64 % vodij IT, ki jih je anketiral Salesforce, je zaskrbljenih zaradi etike generativne umetne inteligence.
  • Približno polovica (49 %) vprašanih v an Beli papir IDC opozoril na pomisleke glede izdajanja lastniške vsebine svoje organizacije v velike jezikovne modele ponudnikov generativne tehnologije umetne inteligence.

Poglobimo se v ta skrb vzbujajoča področja. Zasebnost in varnost je najbolj očitna. Brez zaščitnih ograj za uporabo podatkov lahko zaposleni nehote delijo občutljive podatke podjetja, kot so IP, skrivnosti blagovnih znamk, časovni načrti izdelkov, lastniške slike in podatki o strankah, skriti v datotekah, ki jih posredujejo orodju AI. 

Generativno orodje AI model učenja jezikov (LLM) bi nato vseboval te občutljive podatke, ki bi se lahko kasneje znašli v delih, ki so jih naročili drugi z uporabo istega orodja. Ti podatki bi lahko celo prišli v javno domeno in tam ostali za nedoločen čas. Novejše funkcije umetne inteligence, kot so »povezave v skupni rabi« pogovorov, ki jih ustvarijo orodja, še olajšajo nenamerno razkritje občutljivih informacij, če povezava pride v napačne roke. Nasprotno pa se lahko podjetje sooči z odgovornostjo, če zaposleni ustvari izpeljano delo v AI, ki vsebuje zaščitene podatke, uhajajoče iz druge organizacije. 

Druga glavna težava je možnost netočnih ali škodljivih rezultatov, če so podatki v modelu pristranski, klevetniški ali nepreverjeni. Prišlo je tudi do tožb umetnikov in pisateljev v zvezi z uporabo njihovih del pri urjenju modelov. 

Organizacije so lahko nehote odgovorne za različne morebitne zahtevke pri uporabi splošnih modelov usposabljanja AI. To lahko dolgoročno škoduje odnosom podjetja s strankami, ugledu blagovne znamke in tokovom prihodkov. Skladno s tem je raziskava KPMG pokazala, da je 45 % vodilnih menilo, da bi umetna inteligenca lahko negativno vplivala na zaupanje v organizaciji, če ne bi bila uvedena ustrezna orodja za obvladovanje tveganja.

Priprava na AI

Ko se komercialne tehnologije umetne inteligence hitro razvijajo, organizacije IT razmišljajo o strategijah in politikah umetne inteligence ter jih uvajajo. Glede na raziskavo mojega podjetja je priprava na umetno inteligenco pravzaprav vodilna prednostna naloga vodij IT v letu 2023 pri shranjevanju podatkov, v primerjavi s primarnim poudarkom na migracijah v oblak v letu 2022. Samo 26 % vodij IT je izjavilo, da nimajo vzpostavljene politike za upravljanje umetne inteligence, le 21 % pa jih dovoljuje umetno inteligenco brez omejitev glede podatkov ali aplikacij, ki jih zaposleni lahko uporabljajo. 

Priprave na umetno inteligenco lahko vključujejo naslednje naložbe in strategije: 

Izberite pravo orodje: Glavni ponudniki oblakov, skupaj z uglednimi ponudniki programske opreme za podjetja, vsi sproščajo svoj okus generativnih rešitev, povezanih z umetno inteligenco, da bi izpolnili različne primere uporabe in poslovne zahteve. Vzemite si čas, da razumete cilje in profil tveganja vaše organizacije. Del izbirnega postopka vključuje določitev, ali boste uporabili model umetne inteligence, pripravljen za splošno uporabo, kot je ChatGPT ali Google Baird, ali boste ustvarili model po meri. Ta objava v spletnem dnevniku podrobno opisuje dva različna pristopa. Organizacija s strogimi zahtevami glede varnosti in skladnosti lahko izbere razvojni pristop po meri, vendar bo to zahtevalo velike naložbe v tehnologijo in strokovno znanje.

Investirajte v infrastrukturo za shranjevanje, pripravljeno na AI: Izvajanje generativnih aplikacij AI zahteva veliko konjskih moči. Računalniški sklad z umetno inteligenco je običajno sestavljen iz visoko zmogljive računalniške zmogljivosti (CPE in GPE), učinkovitega bliskovnega pomnilnika podjetij, kot sta Vast in Pure Storage, ter ustreznih varnostnih sistemov za zaščito vseh občutljivih podatkov IP, ki se uporabljajo v LLM. Najboljši ponudniki oblakov AWS, Azure in Google so izdali več novih storitev za izvajanje generativnih projektov umetne inteligence in zmanjšanje stroškov, porabe energije in kompleksnosti za IT organizacije.

Razmislite o posledicah upravljanja podatkov: Za uporabo upravljanja nestrukturiranih podatkov v orodjih AI je treba upoštevati pet ključnih področij, ki zajemajo varnost, zasebnost, poreklo, lastništvo in upravljanje nestrukturiranih podatkov ali SPLOG. Obravnava se začne z pridobitvijo temeljitega vpogleda v podatke o datotekah in objektih v lokalni shrambi, na robu in v oblaku. Taktika vključuje:

  • Ločite občutljive in lastniške podatke v zasebno, varno domeno, ki omejuje skupno rabo s komercialnimi aplikacijami AI. 
  • Ohranite revizijsko sled o tem, kdo je vnesel katere podatke podjetja v aplikacije AI.
  • Razumite, kakšna jamstva, če sploh, bodo dali vaši prodajalci glede uporabe vaših podatkov v svojih algoritmih AI. To presega prodajalce umetne inteligence, saj druge aplikacije poslovne programske opreme zdaj vključujejo umetno inteligenco v svoje platforme.
  • Prosite prodajalce AI, da delijo informacije o virih podatkov, kuriranih za LLM, in o tem, kako bodo zaščitili vašo organizacijo pred morebitnimi škodljivimi rezultati ali obveznostmi, povezanimi z modelom usposabljanja.

Štirideset odstotkov vodij IT v raziskavi mojega podjetja pravi, da bodo sledili večstranskemu pristopu, ki bo vključeval shranjevanje, upravljanje podatkov in varnostna orodja, da bi ustrezno zaščitili pred generativnimi tveganji umetne inteligence. S tem povezane ugotovitve vključujejo: 35 % bo sodelovalo s svojimi obstoječimi ponudniki varnosti/upravljanja, da bi ublažili tveganje; 32 % pravi, da imajo zmožnosti zmanjševanja tveganja v svojih rešitvah za shranjevanje podatkov in/ali upravljanje nestrukturiranih podatkov; 31 % jih je ustanovilo notranjo delovno skupino za razvoj in izvajanje strategije; 26 % pa jih bo sodelovalo le s prodajalcem umetne inteligence, ki ima ustrezno zaščito in nadzor.

Poleg tehnologije bi morali vodje IT in podjetij vlagati v usposabljanje in izobraževanje zaposlenih o tem, kako pravilno in varno uporabljati tehnologije umetne inteligence za doseganje ciljev podjetja in preprečiti številne težave z zasebnostjo, varnostjo, etiko in netočnostjo, ki se lahko pojavijo. Kljub 20-kratnemu povečanju vlog, ki zahtevajo veščine umetne inteligence, so delodajalci v zadnjem letu le 13 % delavcev ponudili kakršno koli usposabljanje na področju umetne inteligence, kaže raziskava, ki jo je naročil Randstad.

Leto 2023 bo zapisano kot leto preobrazbe umetne inteligence iz eksperimentalnega pojma v strateško prednostno nalogo za večino podjetij, proračuni pa se bodo ustrezno prilagodili. Od tega, kako bodo vodje IT in podjetij izvajali umetno inteligenco z vidika upravljanja podatkov in obvladovanja tveganj, bo odvisno, ali bo to na splošno pozitiven razvoj za človeštvo ali ne.

Časovni žig:

Več od PODATKOVNOST