Yleistetyt ja skaalautuvat optimaaliset harvat päätöspuut (GOSDT)

Yleistetyt ja skaalautuvat optimaaliset harvat päätöspuut (GOSDT)

Lähdesolmu: 1963826

Yleistetyt ja skaalautuvat optimaaliset harvat päätöspuut (GOSDT)
Kuva fabrikasimf Freepikissä
 

Puhun usein selitettävistä tekoälymenetelmistä (XAI) ja siitä, kuinka niitä voidaan mukauttaa käsittelemään muutamia kipukohtia, jotka estävät yrityksiä rakentamasta ja ottamasta käyttöön tekoälyratkaisuja. Voit tarkistaa minun blogi jos tarvitset nopeaa päivitystä XAI-menetelmistä.

Yksi tällainen XAI-menetelmä on päätöspuut. Ne ovat saavuttaneet historiallisesti merkittävää vetovoimaa tulkittavuutensa ja yksinkertaisuutensa ansiosta. Monet kuitenkin ajattelevat, että päätöspuut eivät voi olla tarkkoja, koska ne näyttävät yksinkertaisilta, ja ahneet algoritmit, kuten C4.5 ja CART, eivät optimoi niitä hyvin. 

Väite on osittain pätevä, koska joillakin päätöspuiden muunnelmilla, kuten C4.5 ja CART, on seuraavat haitat:

  1. Altis istua liikaa, varsinkin kun puusta tulee liian syvä ja liian monta oksaa. Tämä voi heikentää suorituskykyä uusilla, näkymättömillä tiedoilla.
  2. Suurilla tietojoukoilla arvioiminen ja ennusteiden tekeminen voi olla hitaampaa, koska ne edellyttävät useiden päätösten tekemistä syöteominaisuuksien arvojen perusteella. 
  3. Heidän voi olla vaikeaa käsitellä jatkuvia muuttujia, koska ne vaativat puun jakamaan muuttujan useisiin pienempiin aikaväleihin, mikä voi lisätä puun monimutkaisuutta ja vaikeuttaa merkityksellisten kuvioiden tunnistamista tiedoista.
  4. Usein "ahneeksi" algoritmiksi kutsuttu se tekee paikallisesti optimaalisen päätöksen jokaisessa vaiheessa ottamatta huomioon näiden päätösten seurauksia tuleviin vaiheisiin. Suboptimaaliset puut ovat CARTin tulos, mutta sen mittaamiseen ei ole olemassa "todellista" mittaria.

Näiden ongelmien ratkaisemiseksi on saatavilla kehittyneempiä algoritmeja, kuten Ensemble Learning Methods -menetelmät. Mutta usein sitä voidaan pitää "mustana laatikona" algoritmien alleviivatun toiminnan vuoksi. 

Viimeaikaiset työt ovat kuitenkin osoittaneet, että jos optimoit päätöspuita (sen sijaan, että käytät ahneita menetelmiä, kuten C4.5 ja CART), ne voivat olla yllättävän tarkkoja, monissa tapauksissa yhtä tarkkoja kuin musta laatikko. Yksi tällainen algoritmi, joka voi auttaa optimoimaan ja korjaamaan joitain edellä mainituista haitoista, on GOSDT. GOSDT on algoritmi harvalukuisten optimaalisten päätöspuiden tuottamiseksi.

Blogin tarkoituksena on antaa lempeä johdatus GOSDT:hen ja esitellä esimerkki siitä, kuinka se voidaan toteuttaa tietojoukossa. 

Tämä blogi perustuu muutamien fantastisten ihmisten julkaisemaan tutkimuspaperiin. Voit lukea lehden tätä. Tämä blogi ei korvaa tätä paperia, eikä se koske äärimmäisen matemaattisia yksityiskohtia. Tämä on opas datatieteen ammattilaisille, jotka voivat oppia tästä algoritmista ja hyödyntää sitä päivittäisessä käytössään.

Lyhyesti sanottuna GOSDT käsittelee muutamia tärkeitä kysymyksiä:

  1. Käsittele epätasapainoisia tietojoukkoja hyvin ja optimoi erilaisia ​​tavoitefunktioita (ei vain tarkkuutta).
  2. Optimoi puut täysin eikä rakenna niitä ahneesti.
  3. Se on melkein yhtä nopea kuin ahneet algoritmit, koska se ratkaisee NP-kovia optimointiongelmia päätöspuille.
  1. GOSDT-puut käyttävät dynaamista hakuavaruutta hash-puiden kautta mallin tehokkuuden parantamiseksi. Rajoittamalla hakuavaruutta ja käyttämällä rajoja samanlaisten muuttujien tunnistamiseen, GOSDT-puut voivat vähentää optimaalisen jaon löytämiseen tarvittavien laskelmien määrää. Tämä voi merkittävästi parantaa laskenta-aikaa, lähinnä jatkuvien muuttujien kanssa työskennellessä.
  2. GOSDT-puissa halkaisun rajoja sovelletaan osittaisiin puihin, ja niitä käytetään poistamaan monia puita hakuavaruudesta. Tämä antaa mallille mahdollisuuden keskittyä yhteen jäljellä olevista puista (joka voi olla osittainen puu) ja arvioida sitä tehokkaammin. Vähentämällä hakutilaa GOSDT-puut voivat nopeasti löytää optimaalisen jaon ja luoda tarkemman ja tulkittavissa olevan mallin.
  3. GOSDT-puut on suunniteltu käsittelemään epätasapainoista dataa, joka on yleinen haaste monissa tosielämän sovelluksissa. GOSDT-puut käsittelevät epätasapainoista tietoa käyttämällä painotettua tarkkuusmetriikkaa, joka ottaa huomioon tietojoukon eri luokkien suhteellisen merkityksen. Tämä voi olla erityisen hyödyllistä, kun halutulle tarkkuustasolle on ennalta määrätty kynnys, koska sen avulla malli voi keskittyä sovelluksen kannalta kriittisempien näytteiden oikeaan luokitteluun.
  1. Nämä puut optimoivat suoraan harjoituksen tarkkuuden ja lehtien määrän välisen kompromissin. 
  2. Tuottaa erinomaisen harjoitus- ja testitarkkuuden kohtuullisella määrällä lehtiä
  3. Täydellinen erittäin ei-kupereihin ongelmiin
  4. Tehokkain pienille tai keskisuurille ominaisuuksille. Mutta se pystyy käsittelemään jopa kymmeniä tuhansia havaintoja säilyttäen samalla nopeudensa ja tarkkuutensa.

Aika nähdä kaikki toiminnassa!! Edellisessä blogissani ratkaisin lainahakemuksen hyväksymisongelman Keras-luokituksen avulla. Käytämme samaa tietojoukkoa luokittelupuun rakentamiseen GOSDT:n avulla.

  

Kirjoittajan koodi

 
 
Supreet Kaur on AVP Morgan Stanleyssä. Hän on fitness- ja tekniikan ystävä. Hän on DataBuzz-nimisen yhteisön perustaja.
 

Aikaleima:

Lisää aiheesta KDnuggets