Uporaba lastnih podatkov za ublažitev težav z zasebnostjo AI in izboljšanje zaupanja AI | Novice in poročila IoT Now

Uporaba lastnih podatkov za ublažitev težav z zasebnostjo AI in izboljšanje zaupanja AI | Novice in poročila IoT Now

Izvorno vozlišče: 3068504

Z modeli AI, ki lahko zaznavajo vzorce in dajejo napovedi, ki bi jih človek težko ali nemogoče naredil ročno, so možne aplikacije za orodja, kot je npr. ChatGPT v zdravstvu, financah in industriji storitev za stranke so ogromni.

Medtem ko bi morale biti prednostne naloge organizacij v zvezi z umetno inteligenco ocenjevanje priložnosti, ki jih generativna orodja umetne inteligence ponujajo njihovim podjetjem v smislu konkurenčne prednosti, je tema zasebnosti podatkov postala glavna skrb. Upravljanje odgovorne uporabe umetne inteligence, ki ima potencial za ustvarjanje pristranskih rezultatov, zahteva skrbno preučitev. 

Medtem ko so možne koristi teh modelov ogromne, bi morale organizacije skrbno preučiti etične in praktične vidike uporabe umetne inteligence na odgovoren način z varno zaščito podatkov z umetno inteligenco. Z optimizacijo svoje splošne uporabniške izkušnje s ChatGPT lahko organizacije izboljšajo svoje Zanesljivost AI

Pomisleki glede zasebnosti AI 

Tako kot mnoge druge vrhunske tehnologije bo umetna inteligenca nedvomno sprožila nekaj vprašanj in izzivov za tiste, ki jo želijo uporabiti v svojih tehnoloških nizih. Pravzaprav je raziskava avtorja Napredek je razkrilo, da 65 % podjetij in vodij IT trenutno meni, da v njihovih organizacijah obstaja pristranskost podatkov, 78 % pa jih pravi, da se bo to poslabšalo, ko se bo umetna inteligenca povečala. 

Verjetno je največja skrb glede zasebnosti uporaba zasebnih podatkov podjetja v tandemu z javnimi in notranjimi platformami umetne inteligence. To je lahko na primer zdravstvena organizacija, ki hrani zaupne podatke o pacientih ali podatke o plačilnih listah zaposlenih velike korporacije. 

Da bo umetna inteligenca najučinkovitejša, potrebujete veliko velikost vzorca visokokakovostnih javnih in/ali zasebnih podatkov, organizacije z dostopom do zaupnih podatkov, kot so zdravstvena podjetja z zdravstvenimi kartotekami, pa imajo konkurenčno prednost pri gradnji rešitev, ki temeljijo na umetni inteligenci. Predvsem pa morajo te organizacije s tako občutljivimi podatki upoštevati etične in regulativne zahteve v zvezi s tem zasebnost podatkov, poštenost, razložljivost, preglednost, robustnost in dostop.  

Veliki jezikovni modeli (LLM) so zmogljivi modeli umetne inteligence, usposobljeni za besedilne podatke za izvajanje različnih nalog obdelave naravnega jezika, vključno s prevajanjem jezika, odgovarjanjem na vprašanja, povzemanjem in analizo občutkov. Ti modeli so zasnovani za analizo jezika na način, ki posnema človeško inteligenco, kar jim omogoča obdelavo, razumevanje in ustvarjanje človeškega govora. 

Tveganja za zasebne podatke pri uporabi AI 

Vendar s temi zapletenimi modeli prihajajo etični in tehnični izzivi, ki lahko predstavljajo tveganje za točnost podatkov, kršitev avtorskih pravic in morebitne primere obrekovanja. Nekateri izzivi pri učinkoviti uporabi umetne inteligence chatbotov vključujejo: 

  • Halucinacije – V umetni inteligenci je halucinacija, ko uporabniku sporoči odgovore z napakami, ti pa so prepogosti. Način, na katerega LLM-ji napovedujejo naslednjo besedo, poskrbi, da odgovori zvenijo verodostojno, medtem ko so informacije lahko nepopolne ali napačne. Na primer, če uporabnik povpraša klepetalnega robota o povprečnem prihodku konkurenta, so lahko te številke precej zanemarljive.  
  • Pristranskost podatkov – LLM lahko tudi razstavljajo pristranskosti, kar pomeni, da lahko ustvarijo rezultate, ki odražajo pristranskost podatkov o usposabljanju in ne objektivne resničnosti. Na primer, jezikovni model, usposobljen na pretežno moškem naboru podatkov, lahko povzroči pristranske rezultate glede tem, povezanih s spolom. 
  • Utemeljitev/razumevanje – LLM morda potrebujejo pomoč tudi pri nalogah, ki zahtevajo globlje razmišljanje ali razumevanje kompleksnih konceptov. LLM se lahko usposobi za odgovarjanje na vprašanja, ki zahtevajo niansirano razumevanje kulture ali zgodovine. Možno je, da modeli ohranjajo stereotipe ali posredujejo napačne informacije, če niso usposobljeni in učinkovito nadzorovani. 

Poleg teh lahko druga tveganja vključujejo prekinitve podatkov, ko je pomnilnik modela ponavadi zastarel. Drug možen izziv je razumeti, kako je LLM ustvaril svoj odziv, saj umetna inteligenca ni usposobljena za učinkovito prikazovanje svojega razmišljanja, ki se uporablja za oblikovanje odgovora. 

Uporaba semantičnega znanja za zagotavljanje zanesljivih podatkov 

Tehnične ekipe iščejo pomoč pri uporabi zasebnih podatkov za ChatGPT. Kljub povečanju natančnosti in učinkovitosti lahko LLM-ji, da ne omenjamo njihovih uporabnikov, še vedno potrebujejo pomoč pri odgovorih. Še posebej, ker lahko podatki nimajo konteksta in pomena. Močna, varna, pregledna, upravljana rešitev za upravljanje znanja z umetno inteligenco je odgovor. S semantično podatkovno platformo lahko uporabniki povečajo natančnost in učinkovitost ter hkrati uvedejo upravljanje.  

Z doseganjem odgovora, ki je kombinacija odgovora ChatGPT, potrjenega s semantičnim znanjem iz platforme semantičnih podatkov, bodo združeni rezultati omogočili LLM-jem in uporabnikom enostaven dostop in preverjanje dejstev glede na izvorno vsebino in zajeto znanje MSP. 

To orodju z umetno inteligenco omogoča shranjevanje in poizvedovanje po strukturiranih in nestrukturiranih podatkih ter zajemanje vsebine strokovnjakov (SME) prek intuitivnega GUI. Z ekstrakcijo dejstev, najdenih v podatkih, in označevanjem zasebnih podatkov s semantičnim znanjem je mogoče s tem znanjem označiti tudi uporabniška vprašanja ali vnose in specifične odgovore ChatGPT.  

Zaščita občutljivih podatkov lahko sprosti pravi potencial umetne inteligence 

Kot pri vseh tehnologijah je zaščita pred nepričakovanimi vnosi ali situacijami še pomembnejša pri LLM. Pri uspešnem soočanju s temi izzivi se bo povečala zanesljivost naših rešitev skupaj z zadovoljstvom uporabnikov, kar bo na koncu pripeljalo do uspeha rešitve. 

Kot prvi korak pri raziskovanju uporabe umetne inteligence za svojo organizacijo morajo strokovnjaki za IT in varnost poiskati načine za zaščito občutljivih podatkov, hkrati pa jih izkoristiti za optimizacijo rezultatov za svojo organizacijo in stranke. 

Matthieu Jonglez, podpredsednik tehnologije – aplikacijska in podatkovna platforma pri Progressu.Matthieu Jonglez, podpredsednik tehnologije – aplikacijska in podatkovna platforma pri Progressu.

Članek Matthieuja Jongleza, podpredsednika tehnologije – aplikacijska in podatkovna platforma pri napredekss

Komentirajte ta članek spodaj ali prek X: @IoTNow_

Časovni žig:

Več od IoT zdaj