Datan selitettävyys: Mallin selitettävyyden vastine - DATAVERSITY

Datan selitettävyys: Mallin selitettävyyden vastine – DATAVERSITY

Lähdesolmu: 2658143

Nykyään tekoäly ja ML ovat kaikkialla. 

Leikkiikö kaikki ChatGPT (nopein hyväksytty sovellus historiassa) tai äskettäinen lisäysehdotus neljäs väri liikennevaloihin Tekoäly on kyllästtänyt elämämme perusteellisesti, jotta siirtyminen itseohjautuviin autoihin olisi turvallisempaa. Vaikka tekoäly saattaa tuntua helpommalta kuin koskaan, tekoälymallien monimutkaisuus on kasvanut eksponentiaalisesti. 

Tekoälymallit kuuluvat pääkategorioihin musta laatikko ja valkoinen laatikko. Mustat laatikkomallit tekevät päätöksen ilman selitystä, kun taas valkoiset laatikkomallit tuottavat tuloksen tuloksen tuottaneiden sääntöjen perusteella. 

Kun jatkamme siirtymistä kohti kokonaisten syvän oppimismenetelmien maailmaa, useimmat ovat suurelta osin vetovoimaisia ​​kohti black box -malleja. 

Ongelma tässä lähestymistavassa? Black box -malleja (kuten tietokonenäköön rakennettuja) ei voi käyttää suoraan. Tätä kutsutaan usein mustan laatikon ongelmaksi. Vaikka mustan laatikon mallien uudelleenkoulutus voi antaa käyttäjille hypyn, mallin tulkitseminen ja mustan laatikon mallin tulosten ymmärtäminen vaikeutuu mallien monimutkaistuessa.

Yksi taktiikka mustan laatikon ongelman ratkaisemiseksi on valmistaa hyvin räätälöity ja selitettävissä oleva malli. 

Mutta tämä ei ole se suunta, johon maailma on menossa. 

Missä mallin selitettävyys loppuu, datan selitettävyys alkaa

Selittävyys on ratkaisevan tärkeää, koska se parantaa mallin läpinäkyvyyttä, tarkkuutta ja oikeudenmukaisuutta ja voi myös parantaa luottamusta tekoälyyn. Vaikka mallin selitettävyys on perinteinen lähestymistapa, nyt syntyy myös tarve uudelle tyypille: tietojen selitettävyys.

Mallin selitettävyys tarkoittaa algoritmin ymmärtämistä lopputuloksen ymmärtämiseksi. Jos esimerkiksi onkologisessa yksikössä käytettävä malli on suunniteltu testaamaan, onko kasvu syöpäsairaus, terveydenhuollon tarjoajan tulee ymmärtää muuttujat, jotka luovat lopputuloksen. Vaikka tämä kuulostaa teoriassa hyvältä, mallin selitettävyys ei aivan ratkaise mustan laatikon ongelmaa. 

Kun malleista tulee yhä monimutkaisempia, useimmat harjoittajat eivät pysty paikantamaan muunnoksia ja tulkitsemaan laskelmia mallin sisäkerroksissa. He luottavat suurelta osin siihen, mitä he voivat hallita, eli harjoitustietosarjoihin ja siihen, mitä he havaitsevat, tuloksiin ja ennustetoimiin.  

Otetaan mallia rakentavan datatieteilijän esimerkkiä tunnistamaan tuhansista valokuvista kuvia kahvimukeista – mutta malli alkaa havaita myös kuvia esimerkiksi juomalaseista ja olutmukeista. Vaikka lasi- ja olutmukeilla saattaa olla jonkin verran samankaltaisuutta kahvimukejen kanssa, niissä on selviä eroja, kuten tyypilliset materiaalit, väri, läpikuultamattomuus ja rakenteelliset mittasuhteet.

Jotta malli havaitsee kahvimukit luotettavammin, datatutkijalla on oltava vastaukset seuraaviin kysymyksiin:

  • Mitä kuvia malli poimi kahvimukien sijaan? 
  • Epäonnistuiko malli, koska en antanut sille tarpeeksi tai oikeita esimerkkejä kahvimukeista?
  • Onko tämä malli edes tarpeeksi hyvä siihen, mitä yritin saavuttaa?
  • Pitääkö minun haastaa näkemykseni mallista?
  • Mistä voin lopullisesti määrittää, mikä aiheuttaa mallin epäonnistumisen? 
  • Pitäisikö minun luoda uusia oletuksia mallista?
  • Valitsinko vain väärän mallin työhön aluksi?

Kuten näet, tällaisen näkemyksen, ymmärryksen ja mallin selitettävyyden tarjoaminen joka kerta, kun ongelma ilmenee, on erittäin epätodennäköistä.

Tietojen selitettävyys on ymmärtämistä tiedot käytetään koulutukseen ja malliin syöttämiseen, jotta ymmärrettäisiin kuinka mallin lopputulos saavutetaan. Kun ML-algoritmeista tulee yhä monimutkaisempia, mutta niitä käytetään yhä enemmän eri ammateissa ja toimialoilla, tietojen selitettävyys on avain yleisten ongelmien nopeaan avaamiseen ja ratkaisemiseen, kuten kahvimukiesimerkkimme.

Lisää oikeudenmukaisuutta ja läpinäkyvyyttä ML:ssä tietojen selitettävyyden avulla

Oikeudenmukaisuus ML-malleissa on kuuma aihe, jota voidaan vielä kuumentaa soveltamalla tiedon selitettävyyttä.

Miksi surina? Tekoälyn harha voi luoda ennakkoluuloisia tuloksia yhdelle ryhmälle. Yksi parhaiten dokumentoiduista tapauksista on puolueellisuus rotujen käyttötapauksissa. Katsotaanpa esimerkkiä. 

Oletetaan, että suuri, tunnettu kuluttajaalusta hakee uutta markkinointijohtajan paikkaa. Käsitelläkseen päivittäin vastaanotettavien ansioluetteloiden massaa HR-osasto käyttää AI/ML-mallia virtaviivaistaakseen haku- ja rekrytointiprosessia valitsemalla avainominaisuudet tai pätevät hakijat. 

Tämän tehtävän suorittamiseksi ja kunkin ansioluettelon erottamiseksi ja ryhmittelemiseksi malli tekee sen ymmärtämällä tärkeimmät hallitsevat ominaisuudet. Valitettavasti tämä Myös tarkoittaa, että malli voisi implisiittisesti poimia myös ehdokkaiden yleiset rodulliset ennakkoluulot. Miten tämä tarkalleen ottaen tapahtuisi? Jos hakijajoukossa on pienempi prosenttiosuus yhdestä rodusta, kone luulee, että organisaatio suosii eri rodun tai hallitsevan tietojoukon jäseniä.

Jos malli epäonnistuu, vaikka se olisi tahatonta, yrityksen on puututtava vikaan. Pohjimmiltaan mallin käyttöönottaneen on kyettävä puolustamaan mallin käyttöä.

Palkkaus- ja rotuharhaasioissa puolustajan olisi kyettävä selittämään vihaiselle yleisölle ja/tai sovellusjoukolle tietojoukkojen käyttö mallin kouluttamiseen, tähän koulutukseen perustuvan mallin ensimmäiset onnistuneet tulokset, kulmatapauksen malli ja kuinka tämä johti tahattomaan tietojen epätasapainoon, joka lopulta loi rodullisesti puolueellisen suodatusprosessin.

Useimmille tällaisia ​​tekoälyn, epätasapainon tietojoukkojen, mallikoulutuksen ja mahdollisten tietojen valvonnan aiheuttamien epäonnistumisten yksityiskohtia ei oteta hyvin vastaan ​​tai edes ymmärretään. Mutta mitä tästä tarinasta ymmärretään ja säilytetään? Yritys XYZ harjoittaa rotuun perustuvaa puoluetta palkkaamisessa. 

Tämän aivan liian yleisen esimerkin moraali on, että erittäin älykkään mallin tahattomia virheitä tapahtuu ja ne voivat vaikuttaa kielteisesti ihmisiin ja niillä voi olla vakavia seurauksia. 

Minne datan selitettävyys vie

Sen sijaan, että tuloksia muutetaan monimutkaisen koneoppimismallin ymmärtämisen kautta, datan selitettävyys käyttää dataa ennusteiden ja epäonnistumisten selittämiseen.

Tietojen selitettävyys on silloin yhdistelmä testidatan näkemistä ja ymmärtää, mitä malli poimii tiedoista. Tämä sisältää aliedustettujen tietonäytteiden, yliedustettujen näytteiden (kuten palkkausesimerkissä) ymmärtämisen ja mallin havaitsemisen läpinäkyvyyden, jotta ennusteet ja väärät ennusteet voidaan ymmärtää tarkasti.

Tämä tietojen selitettävyyden ymmärtäminen ei ainoastaan ​​paranna mallin tarkkuutta ja oikeudenmukaisuutta, vaan se auttaa myös malleja kiihtymään nopeammin.

Koska luotamme edelleen monimutkaisiin tekoäly- ja ML-ohjelmiin ja sisällytämme niitä jokapäiväiseen elämäämme, mustan laatikon ongelman ratkaisemisesta tulee kriittistä, etenkin epäonnistumisten ja virheellisten ennusteiden yhteydessä. 

Vaikka mallin selitettävyydellä on aina paikkansa, se vaatii toisen kerroksen. Tarvitsemme datan selitettävyyttä, koska sen ymmärtäminen, mitä malli näkee ja lukee, ei koskaan kata klassisen mallin selitettävyyttä.

Aikaleima:

Lisää aiheesta DATAVERSITEETTI