Razložljivost podatkov: Protipostavka razložljivosti modela - DATAVERSITY

Razložljivost podatkov: Protipostavka razložljivosti modela – DATAVERSITY

Izvorno vozlišče: 2658143

Danes sta AI in ML povsod. 

Ne glede na to, ali se vsi igrajo z ChatGPT (najhitrejši sprejeta aplikacija v zgodovini) ali nedavni predlog za dodajanje četrta barva za semaforje Da bi bil prehod na samovozeče avtomobile varnejši, je umetna inteligenca dodobra prepojila naša življenja. Medtem ko se zdi, da je umetna inteligenca bolj dostopna kot kdaj koli prej, se je kompleksnost modelov umetne inteligence eksponentno povečala. 

Modeli AI spadajo v glavne kategorije modelov črne skrinjice in modelov bele skrinjice. Modeli črne skrinjice sprejmejo odločitev brez pojasnila, medtem ko modeli bele skrinjice zagotavljajo rezultat na podlagi pravil, ki so ta rezultat ustvarila. 

Medtem ko se še naprej pomikamo v svet celovitih metod globokega učenja, večina v veliki meri gravitira k modelom črne skrinjice. 

Težava s tem pristopom? Modelov črne skrinjice (kot so tisti, vgrajeni v računalniški vid) ni mogoče neposredno uporabiti. To se pogosto imenuje problem črne skrinjice. Medtem ko lahko prekvalificiranje modelov črne skrinjice uporabnikom omogoči hiter začetek, postane interpretacija modela in razumevanje rezultatov modela črne skrinjice težje, ko modeli postajajo vse kompleksnejši.

Ena od taktik za reševanje uganke črne skrinjice je izdelava zelo prilagojenega in razložljivega modela. 

Vendar to ni smer, v katero se svet premika. 

Kjer se konča razložljivost modela, se začne razložljivost podatkov

Razložljivost je ključnega pomena, ker izboljša preglednost, natančnost in poštenost modela ter lahko izboljša tudi zaupanje v AI. Čeprav je razložljivost modela običajen pristop, se zdaj pojavlja tudi potreba po novem tipu: razložljivost podatkov.

Razložljivost modela pomeni razumevanje algoritma, da bi razumeli končni rezultat. Na primer, če je model, ki se uporablja v onkološki enoti, zasnovan za preizkušanje, ali je tvorba rakava, mora izvajalec zdravstvenih storitev razumeti spremenljivke, ki ustvarjajo končne rezultate. Čeprav se to v teoriji sliši odlično, razložljivost modela ne obravnava povsem problema črne skrinjice. 

Ker postajajo modeli vedno bolj zapleteni, večina praktikov ne bo mogla natančno določiti transformacij in interpretirati izračunov v notranjih plasteh modela. V veliki meri se zanašajo na to, kar lahko nadzorujejo, tj. na nabore podatkov o usposabljanju in na to, kar opazujejo, rezultate in ukrepe napovedi.  

Uporabimo primer podatkovnega znanstvenika, ki gradi model za zaznavanje fotografij kavnih vrčkov iz tisočih fotografij – vendar model začne zaznavati tudi slike kozarcev za pitje in pivskih vrčkov, na primer. Medtem ko so stekleni in pivski vrčki morda nekoliko podobni vrčkom za kavo, obstajajo izrazite razlike, kot so značilni materiali, barva, neprozornost in strukturna razmerja.

Da bi model zaznal skodelice za kavo z večjo zanesljivostjo, mora imeti podatkovni znanstvenik odgovore na vprašanja, kot so:

  • Kakšne slike je model pobral namesto skodelic za kavo? 
  • Je model spodletel, ker mu nisem priskrbel dovolj ali pravih primerkov skodelic za kavo?
  • Ali je ta model sploh dovolj dober za to, kar sem poskušal doseči?
  • Ali moram izpodbijati svoj pogled na model?
  • Kaj lahko dokončno ugotovim, da je vzrok za neuspeh modela? 
  • Ali naj ustvarim nove predpostavke modela?
  • Ali sem za začetek izbral napačen model za delo?

Kot lahko vidite, je zagotavljanje tovrstnega vpogleda, razumevanja in razložljivosti modela vsakič, ko pride do težave, zelo malo verjetno.

Razložljivost podatkov je razumevanje datum uporablja se za usposabljanje in vnos v model, da bi razumeli, kako je dosežen končni rezultat modela. Ker postajajo algoritmi ML vse bolj zapleteni, a vse bolj razširjeni v poklicih in panogah, bo razložljivost podatkov ključ do hitrega odklepanja in reševanja pogostih težav, kot je naš primer skodelice za kavo.

Povečanje pravičnosti in preglednosti v ML z razložljivostjo podatkov

Poštenost znotraj modelov ML je vroča tema, ki jo lahko naredimo še bolj vročo z uporabo razložljivosti podatkov.

Zakaj hrup? Pristranskost v umetni inteligenci lahko povzroči predsodke za eno skupino. Eden najbolj dobro dokumentiranih primerov tega so pristranskosti v primerih rasne uporabe. Poglejmo si primer. 

Recimo, da velika, znana potrošniška platforma zaposluje novo mesto direktorja trženja. Za obravnavo množice dnevno prejetih življenjepisov kadrovski oddelek uvede model AI/ML za poenostavitev postopka prijave in zaposlovanja z izbiro ključnih značilnosti ali kvalificiranih kandidatov. 

Za izvedbo te naloge ter razločevanje in razvrščanje vsakega življenjepisa bo model to storil tako, da bo osmislil ključne prevladujoče značilnosti. Na žalost, to Prav tako pomeni, da bi model lahko implicitno zaznal tudi splošne rasne pristranskosti pri kandidatih. Kako natančno bi se to zgodilo? Če skupina prosilcev vključuje manjši odstotek ene rase, bo stroj mislil, da ima organizacija raje člane druge rase ali prevladujočega nabora podatkov.

Če model odpove, tudi če je nenamerno, mora podjetje odpraviti napako. V bistvu mora biti tisti, ki je uporabil model, sposoben braniti uporabo modela.

V primeru zaposlovanja in rasne pristranskosti bi moral biti zagovornik jezni javnosti in/ali skupini aplikacij sposoben razložiti uporabo naborov podatkov za usposabljanje modela, začetne uspešne rezultate modela, ki temelji na tem usposabljanju, neuspeh model pobrati na primeru v kotu in kako je to privedlo do nenamernega neravnovesja podatkov, ki je na koncu ustvarilo rasno pristranski postopek filtriranja.

Za večino tovrstnih drobnih podrobnosti o umetni inteligenci, naborih podatkov o neravnovesju, usposabljanju modelov in morebitnem neuspehu zaradi nadzora nad podatki ne bo dobro sprejetih ali celo razumljenih. Toda kaj se bo iz te zgodbe razumelo in ostalo? Podjetje XYZ pri zaposlovanju uporablja rasno pristranskost. 

Morala tega vse preveč pogostega primera je, da se nenamerne napake zelo pametnega modela zgodijo in lahko negativno vplivajo na ljudi ter imajo hude posledice. 

Kam nas pripelje razložljivost podatkov

Namesto prevajanja rezultatov z razumevanjem kompleksnega modela strojnega učenja razložljivost podatkov uporablja podatke za razlago napovedi in napak.

Razložljivost podatkov je torej kombinacija ogleda testnih podatkov in razumevanje, kaj bo model pobral iz teh podatkov. To vključuje razumevanje premalo zastopanih vzorcev podatkov, preveč zastopanih vzorcev (kot v primeru zaposlovanja) in preglednost zaznavanja modela za natančno razumevanje napovedi in napačnih napovedi.

To razumevanje razložljivosti podatkov ne bo samo izboljšalo natančnosti in poštenosti modela, ampak bo tudi tisto, kar bo pomagalo modelom pospeševati hitreje.

Ker se še naprej zanašamo na kompleksne programe AI in ML ter jih vključujemo v naše vsakdanje življenje, postane reševanje problema črne skrinjice ključnega pomena, zlasti za napake in napačne napovedi. 

Čeprav bo razložljivost modela vedno imela svoje mesto, potrebuje še eno plast. Potrebujemo razložljivost podatkov, saj razumevanje tega, kar model vidi in bere, ne bo nikoli pokrito s klasično razložljivostjo modela.

Časovni žig:

Več od PODATKOVNOST