kokkuvõte
Selles koodimustris saate parema ülevaate ja selgitatavuse, õppides kasutama AI 360 seletatavuse tööriistakomplekte, et demüstifitseerida masinõppemudeliga tehtud otsuseid. See mitte ainult ei aita poliitikakujundajatel ja andmeteadlastel arendada usaldusväärseid ja seletatavaid tehisintellekti rakendusi, vaid aitab tagada ka läbipaistvuse kõigi jaoks. AI Explainability 360 tööriistakomplekti kasutamise demonstreerimiseks kasutame olemasolevat pettuse tuvastamise koodi muster selgitades AIX360 algoritme.
Kirjeldus
Kujutage ette stsenaariumi, kus külastate panka, kus soovite võtta 1 miljoni dollari laenu. Laenuhaldur kasutab tehisintellektil töötavat süsteemi, mis ennustab või soovitab, kas teil on õigus laenu saada ja kui suur see laen võib olla. Selles näites soovitab tehisintellekti süsteem, et teil ei ole õigust laenu saada. Seega võib teil tekkida paar küsimust, millele peaksite mõtlema:
- Kas jääte kliendina teenusega rahule?
- Kas soovite AI-süsteemi tehtud otsuse põhjendust?
- Kas laenuametnik peaks tehisintellektisüsteemi tehtud otsust üle kontrollima ja kas soovite, et nad teaksid tehisintellekti mudeli aluseks olevat mehhanismi?
- Kas pank peaks AI-toega süsteemi täielikult usaldama ja sellele tuginema?
Võite nõustuda, et ainult ennustamisest ei piisa. Mõnikord peab teil olema sügav arusaam, miks selline otsus tehti. Põhjuseid, miks peate mõistma masinõppemudelite aluseks olevat mehhanismi, on palju. Need sisaldavad:
- Inimese loetavus
- Eelarvamuste leevendamine
- Põhjendatavus
- Tõlgendatavus
- Usalduse ja usalduse suurendamine AI-süsteemide vastu
Selles koodimustris demonstreerime, kuidas kolm seletatavusalgoritmi töötavad:
- Kontrastiivsete selgituste meetodi (CEM) algoritm, mis on saadaval AI Explainability 360 tööriistakomplektis.
- AI Explainability 360 – ProtoDash töötab koos olemasoleva ennustava mudeliga, et näidata, kuidas klient on võrreldav teistega, kellel on sarnased profiilid ja sarnased tagasimaksekirjed mudeli prognoosiga praegusele kliendile. See aitab hinnata ja prognoosida taotleja riski. Tuginedes mudeli ennustusele ja selgitusele, kuidas see soovituseni jõudis, saab laenuhaldur teha teadlikuma otsuse.
- AI Explainability 360 tööriistakomplektis olev Generalized Linear Rule Model (GLRM) algoritm annab andmeteadlasele parema selgitatavuse, kas mudelit saab kasutusele võtta.
voolama
- Logige sisse Sparki toel töötavasse IBM Watson® Studiosse, käivitage IBM Cloud Object Storage ja looge projekt.
- Laadige .csv-andmefail üles IBM Cloud Object Storage'i.
- Laadige andmefail Watson Studio sülearvutisse.
- Installige Watson Studio sülearvutisse AI Explainability 360 Toolkit ja Adversarial Robustness Toolbox.
- Saate visualiseerida AI mudeli seletatavust ja tõlgendatavust kolme erinevat tüüpi kasutaja jaoks.
Juhised
Üksikasjalikud juhised leiate jaotisest README faili. Need sammud selgitavad, kuidas:
- Looge IBM Cloudiga konto.
- Looge uus Watson Studio projekt.
- Andmete lisamine.
- Loo märkmik.
- Sisestage andmed DataFrame'ina.
- Käivitage märkmik.
- Analüüsige tulemusi.
See koodimuster on osa AI 360 tööriistakomplekt: AI mudelite selgitus kasutusjuhtumite seeriad, mis aitavad sidusrühmadel ja arendajatel mõista tehisintellekti mudeli elutsüklit täielikult ja aidata neil teha teadlikke otsuseid.
Allikas: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- konto
- AI
- algoritm
- algoritme
- rakendused
- arhitektuur
- Pank
- keha
- Cloud
- kood
- usaldus
- sisu
- Praegune
- andmed
- andmeteadlane
- Detection
- arendama
- Arendajad
- Seletatavus
- Seletatav tehisintellekt
- voog
- pettus
- Kuidas
- Kuidas
- HTTPS
- IBM
- IBM Cloud
- teadmisi
- IT
- õppimine
- Tase
- laen
- masinõpe
- mudel
- Objekti salvestamine
- Ohvitser
- teised
- Muster
- ennustus
- Ennustused
- profiilid
- projekt
- põhjustel
- andmed
- Tulemused
- Oht
- teadlased
- Seeria
- So
- ladustamine
- süsteem
- läbipaistvus
- Usalda
- Kasutajad
- visualiseerimine
- Watson
- Watsoni stuudio
- WHO
- Töö
- töötab