Pomen raznolikosti v AI ni mnenje, temveč matematika - IBM-ov blog

Pomen raznolikosti v AI ni mnenje, temveč matematika – IBM-ov blog

Izvorno vozlišče: 3084301


Pomen raznolikosti v AI ni mnenje, temveč matematika – IBM-ov blog




Vsi želimo videti naše idealne človeške vrednote, ki se odražajo v naših tehnologijah. Pričakujemo, da nam tehnologije, kot je umetna inteligenca (AI), ne bodo lagale, ne bodo diskriminirale in bodo varne za uporabo za nas in naše otroke. Kljub temu se številni ustvarjalci umetne inteligence trenutno soočajo z nasprotovanjem zaradi pristranskosti, netočnosti in problematičnih podatkovnih praks, ki so izpostavljene v njihovih modelih. Ta vprašanja zahtevajo več kot le tehnično, algoritemsko rešitev ali rešitev, ki temelji na umetni inteligenci. V resnici je potreben celovit, družbeno-tehnični pristop.

Matematika razkriva močno resnico

Vsi napovedni modeli, vključno z AI, so natančnejši, če vključujejo raznoliko človeško inteligenco in izkušnje. To ni mnenje; ima empirično veljavo. Upoštevajte izrek o napovedi raznolikosti. Preprosto povedano, ko je raznolikost v skupini velika, je napaka množice majhna – kar podpira koncept »modrosti množice«. V vplivni študiji je bilo dokazano, da lahko različne skupine reševalcev težav z nizkimi sposobnostmi prekašajo skupine reševalcev težav z visokimi sposobnostmi (Hong & Page, 2004).

V matematičnem jeziku: širša kot je vaša varianca, bolj standardno je vaše povprečje. Enačba izgleda takole:

A nadaljni študij zagotovil več izračunov, ki izpopolnjujejo statistične definicije modre množice, vključno z nepoznavanjem napovedi drugih članov in vključitvijo tistih z maksimalno drugačna (negativno korelirane) napovedi ali presoje. Napovedi torej ne izboljšujejo le obseg, temveč tudi raznolikost. Kako lahko ta vpogled vpliva na oceno modelov AI?

(Ne)natančnost modela

Če citiram pogost aforizem, so vsi modeli napačni. To velja za področja statistike, znanosti in umetne inteligence. Modeli, ustvarjeni s pomanjkanjem strokovnega znanja o domeni, lahko vodijo do zmotno rezultatov.

Danes majhna homogena skupina ljudi določa, katere podatke uporabiti za usposabljanje generativnih modelov umetne inteligence, ki so črpani iz virov, ki v veliki meri predstavljajo angleščino. »Za večino od več kot 6,000 jezikov na svetu razpoložljivi besedilni podatki ne zadoščajo za usposabljanje obsežnega temeljnega modela« (iz »O priložnostih in tveganjih temeljnih modelov,« Bommasani et al., 2022).

Poleg tega so modeli sami ustvarjeni iz omejenih arhitektur: »Skoraj vsi najsodobnejši modeli NLP so zdaj prilagojeni iz enega od nekaj temeljnih modelov, kot so BERT, RoBERTa, BART, T5 itd. Medtem ko ta homogenizacija proizvaja izjemno visok finančni vzvod (kakršne koli izboljšave temeljnih modelov lahko vodijo do takojšnjih koristi v celotnem NLP), je tudi odgovornost; vsi sistemi AI lahko podedujejo iste problematične pristranskosti nekaj temeljnih modelov (Bommasani et al.) "

Da bi generativna umetna inteligenca bolje odražala raznolike skupnosti, ki jim služi, mora biti v modelih predstavljen veliko več različnih podatkov o ljudeh.

Ocenjevanje točnosti modela gre z roko v roki z ocenjevanjem pristranskosti. Vprašati se moramo, kakšen je namen modela in za koga je optimiziran? Razmislite na primer o tem, kdo ima največ koristi od algoritmov za priporočanje vsebine in algoritmov iskalnikov. Zainteresirane strani imajo lahko zelo različne interese in cilje. Algoritmi in modeli zahtevajo cilje ali posrednike za Bayesovo napako: najmanjšo napako, ki jo mora model izboljšati. Ta posrednik je pogosto oseba, na primer strokovnjak za določeno področje s strokovnim znanjem na tem področju.

Zelo človeški izziv: ocena tveganja pred nabavo ali razvojem modela

Nastajajoči predpisi in akcijski načrti o umetni inteligenci vse bolj poudarjajo pomen algoritemskih obrazcev za oceno učinka. Cilj teh obrazcev je zajeti ključne informacije o modelih umetne inteligence, tako da lahko skupine za upravljanje ocenijo in obravnavajo svoja tveganja, preden jih uvedejo. Tipična vprašanja vključujejo:

  • Kakšen je primer uporabe vašega modela?
  • Kakšna so tveganja za različne učinke?
  • Kako ocenjujete pravičnost?
  • Kako naredite svoj model razložljiv?

Čeprav je zasnovan z dobrimi nameni, je težava v tem, da večina lastnikov modelov AI ne razume, kako oceniti tveganja za svoj primer uporabe. Pogost refren bi lahko bil: "Kako je lahko moj model nepošten, če ne zbira osebno določljivih podatkov (PII)?" Zato so obrazci redko izpolnjeni s premišljenostjo, ki je potrebna za sisteme upravljanja za natančno označevanje dejavnikov tveganja.

Tako je poudarjena socialno-tehnična narava rešitve. Lastniku modela – posamezniku – ni mogoče preprosto dati seznama potrditvenih polj, da bi ocenil, ali bo njihov primer uporabe povzročil škodo. Namesto tega so potrebne skupine ljudi z zelo različnimi življenjskimi izkušnjami, ki se zberejo v skupnostih, ki nudijo psihološko varnost za težke pogovore o različnih učinkih.

Pozdravljanje širših perspektiv za zaupanja vredno umetno inteligenco

IBM® verjame v pristop »ničelne stranke«, implementacijo priporočil in sistemov, ki bi jih izdelal za lastne stranke v okviru svetovanja in rešitev, ki temeljijo na izdelkih. Ta pristop se razširi na etične prakse, zato je IBM ustvaril zaupanja vreden center odličnosti AI (COE).

Kot je razloženo zgoraj, je raznolikost izkušenj in spretnosti ključnega pomena za pravilno ovrednotenje učinkov umetne inteligence. Toda možnost sodelovanja v centru odličnosti bi lahko bila zastrašujoča v podjetju, polnem inovatorjev, strokovnjakov in uglednih inženirjev, zato je treba gojiti skupnost psihološke varnosti. IBM to jasno sporoča z besedami: »Vas zanima AI? Vas zanima etika umetne inteligence? Imate sedež za to mizo."

COE ponuja usposabljanje o etiki umetne inteligence za praktike na vseh ravneh. Na voljo so tako sinhrono učenje (učitelj in učenci v razredu) kot asinhroni (samovodeni) programi.

Ampak to je COE uporabna usposabljanje, ki daje našim izvajalcem najgloblji vpogled, saj delajo z globalnimi, raznolikimi, multidisciplinarnimi ekipami na resničnih projektih, da bi bolje razumeli različne učinke. Prav tako izkoriščajo okvire oblikovalskega razmišljanja IBM-a Oblikovanje za AI skupina uporablja interno in s strankami za ocenjevanje nenamernih učinkov modelov umetne inteligence, pri čemer ohranja tiste, ki so pogosto marginalizirani, na prvem mestu. (Glej Sylvia Duckworth Kolo moči in privilegijev za primere, kako se osebne lastnosti prepletajo, da privilegirajo ali marginalizirajo ljudi.) IBM je veliko ogrodij podaril tudi skupnosti odprtokodnih virov. Oblikujte etično.

Spodaj je nekaj poročil, ki jih je IBM javno objavil o teh projektih:

Samodejna orodja za upravljanje modela AI so potrebna za pridobivanje pomembnih vpogledov o tem, kako deluje vaš model AI. Vendar upoštevajte, da je optimalno zajeti tveganje veliko preden je bil vaš model razvit in v proizvodnji. Z ustvarjanjem skupnosti raznolikih multidisciplinarnih strokovnjakov, ki ljudem ponujajo varen prostor za težke pogovore o različnih vplivih, lahko začnete svojo pot k operacionalizaciji svojih načel in odgovornemu razvoju umetne inteligence.

V praksi, ko najemate izvajalce umetne inteligence, upoštevajte, da je več kot 70 % truda pri ustvarjanju modelov namenjeno kuriranju pravih podatkov. Želite najeti ljudi, ki vedo, kako zbrati podatke, ki so reprezentativni in se zbirajo tudi s soglasjem. Prav tako želite, da ljudje, ki vedo, tesno sodelujejo s strokovnjaki za področje, da se prepričate, ali imajo pravilen pristop. Ključnega pomena je zagotoviti, da imajo ti izvajalci čustveno inteligenco, da pristopijo k izzivu odgovornega kuriranja AI s ponižnostjo in razsodnostjo. Namerno se moramo naučiti, kako prepoznati, kako in kdaj lahko sistemi umetne inteligence povečajo neenakost prav toliko, kot lahko povečajo človeško inteligenco.

Ponovno odkrijte, kako vaše podjetje deluje z AI

Je bil ta članek v pomoč?

DaNe


Več od Umetna inteligenca




Umetna inteligenca za uravnoteženje: delaj dobro in se izogibaj škodi

5 min branja - Moj oče je med odraščanjem vedno govoril, "delaj dobro." Kot otrok sem mislil, da je to grozljiva slovnica, in bi ga popravil in vztrajal, da bi moralo biti "delaj dobro". Celo moji otroci me zbadajo, ko slišijo njegov nasvet »naredi dobro«, in priznam, da sem mu pustil, da se je prepustil slovnici. V primeru odgovorne umetne inteligence (AI) bi morale organizacije dati prednost sposobnosti izogibanja škodi kot osrednjemu poudarku. Nekatere organizacije morda želijo uporabiti tudi ...




Kako zavarovalnice sodelujejo z IBM pri izvajanju generativnih rešitev, ki temeljijo na AI

7 min branja - IBM sodeluje z našimi zavarovalniškimi strankami na različnih frontah in podatki IBM Institute for Business Value (IBV) so opredelili tri ključne imperative, ki usmerjajo odločitve vodstva zavarovalnice: Sprejeti digitalno preobrazbo, da bi zavarovalnicam omogočili zagotavljanje novih izdelkov, spodbujanje rasti prihodkov in izboljšanje strank izkušnje. Izboljšajte osnovno produktivnost (posel in IT) in hkrati zmanjšajte stroške. Sprejmite inkrementalno posodobitev aplikacij in podatkov z uporabo varnega hibridnega oblaka in umetne inteligence. Zavarovalnice morajo izpolniti naslednje ključne imperative, da olajšajo preoblikovanje svojih ...




Odklepanje moči chatbotov: ključne prednosti za podjetja in stranke

6 min branja - Klepetalni roboti lahko pomagajo vašim strankam in potencialnim strankam hitro najti ali vnesti informacije tako, da se takoj odzovejo na zahteve, ki uporabljajo zvočni vnos, vnos besedila ali kombinacijo obojega, s čimer odpravijo potrebo po človeškem posredovanju ali ročnem raziskovanju. Klepetalni roboti so povsod, zagotavljajo podporo strankam in pomagajo zaposlenim, ki doma uporabljajo pametne zvočnike, SMS, WhatsApp, Facebook Messenger, Slack in številne druge aplikacije. Najnovejši klepetalni roboti z umetno inteligenco (AI), znani tudi kot inteligentni virtualni pomočniki ali virtualni agenti, ne samo...




Pridružite se nam v ospredju AI za podjetja: Think 2024

<1 min branja - Želite uporabiti AI za pospešitev produktivnosti in inovacij za vaše podjetje. Morate preseči eksperimentiranje k obsegu. Premikati se moraš hitro. Pridružite se nam v Bostonu na Think 2024, edinstveni in privlačni izkušnji, ki vas bo vodila na vašem poslovnem potovanju z umetno inteligenco, ne glede na to, kje na poti ste. Od gradnje pripravljenosti na AI s premišljenim hibridnim pristopom v oblaku, do prilagajanja AI v ključnih poslovnih funkcijah in potrebah industrije, do vdelave AI v ...

IBM-ove novice

Prejemajte naša glasila in posodobitve tem, ki prinašajo najnovejše miselno vodstvo in vpogled v nastajajoče trende.

Naročite zdaj

Več glasil

Časovni žig:

Več od IBM IoT