Oppsummering
I dette kodemønsteret får du bedre innsikt og forklarbarhet ved å lære hvordan du bruker AI 360 Explainability Toolkits for å avmystifisere avgjørelsene som tas av en maskinlæringsmodell. Dette hjelper ikke bare beslutningstakere og dataforskere med å utvikle pålitelige forklarbare AI-applikasjoner, men hjelper også med åpenhet for alle. For å demonstrere bruken av AI Explainability 360 Toolkit bruker vi det eksisterende kodemønster for svindeloppdagelse som forklarer AIX360-algoritmene.
Beskrivelse
Se for deg et scenario der du besøker en bank der du ønsker å ta opp et lån på 1 millioner dollar. Låneansvarlig bruker et AI-drevet system som forutsier eller anbefaler om du er kvalifisert for et lån og hvor mye lånet kan være. I dette eksemplet anbefaler AI-systemet at du ikke er kvalifisert for et lån. Så det kan hende du har noen spørsmål du må tenke på:
- Vil du som kunde være fornøyd med tjenesten?
- Vil du ha begrunnelse for avgjørelsen tatt av AI-systemet?
- Bør låneansvarlig dobbeltsjekke avgjørelsen tatt av AI-systemet, og vil du at de skal vite den underliggende mekanismen til AI-modellen?
- Bør banken stole fullstendig på og stole på det AI-drevne systemet?
Du er kanskje enig i at det ikke er nok å bare gi spådommer. Noen ganger må du ha en dyp forståelse av hvorfor avgjørelsen ble tatt. Det er mange grunner til at du trenger å forstå den underliggende mekanismen til maskinlæringsmodellene. Disse inkluderer:
- Menneskelig lesbarhet
- Skjevhetsdemping
- Forsvarlighet
- interpretability
- Fremme tillit og tillit til AI-systemer
I dette kodemønsteret viser vi hvordan de tre forklaringsalgoritmene fungerer:
- Algoritmen for Contrastive Explanations Method (CEM) som er tilgjengelig i AI Explainability 360 Toolkit.
- AI Explainability 360 – ProtoDash fungerer med en eksisterende prediktiv modell for å vise hvordan kunden sammenligner seg med andre som har lignende profiler og hadde lignende tilbakebetalingsposter som modellens prediksjon for den nåværende kunden. Dette bidrar til å evaluere og forutsi søkerens risiko. Basert på modellens prediksjon og forklaringen på hvordan den kom til den anbefalingen, kan låneansvarlig ta en mer informert beslutning.
- Algoritmen for generalisert lineær regelmodell (GLRM) i AI Explainability 360 Toolkit gir et forbedret nivå av forklarbarhet for en dataforsker om modellen kan distribueres.
Flow
- Logg på IBM Watson® Studio drevet av Spark, start IBM Cloud Object Storage og lag et prosjekt.
- Last opp .csv-datafilen til IBM Cloud Object Storage.
- Legg datafilen i notatboken Watson Studio.
- Installer AI Explainability 360 Toolkit og Adversarial Robustness Toolbox i Watson Studio-notisboken.
- Få visualisering for forklarbarhet og tolkbarhet av AI-modellen for de tre forskjellige typene brukere.
Instruksjoner
Finn de detaljerte trinnene i README fil. Disse trinnene forklarer hvordan du:
- Opprett en konto med IBM Cloud.
- Lag et nytt Watson Studio-prosjekt.
- Legg til data.
- Lag notatboken.
- Sett inn dataene som DataFrame.
- Kjør notatboken.
- Analyser resultatene.
Dette kodemønsteret er en del av AI 360 Toolkit: AI-modeller forklart bruk saksserier, som hjelper interessenter og utviklere til å forstå livssyklusen til AI-modellen og å hjelpe dem med å ta informerte beslutninger.
Kilde: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Logg inn
- AI
- algoritme
- algoritmer
- søknader
- arkitektur
- Bank
- kroppen
- Cloud
- kode
- selvtillit
- innhold
- Gjeldende
- dato
- dataforsker
- Gjenkjenning
- utvikle
- utviklere
- Forklarbarhet
- Forklarbar AI
- flyten
- svindel
- Hvordan
- Hvordan
- HTTPS
- IBM
- IBM Cloud
- innsikt
- IT
- læring
- Nivå
- lån
- maskinlæring
- modell
- Objektlagring
- Offiser
- andre
- Mønster
- prediksjon
- Spådommer
- Profiler
- prosjekt
- grunner
- poster
- Resultater
- Risiko
- forskere
- Serien
- So
- lagring
- system
- Åpenhet
- Stol
- Brukere
- visualisering
- Watson
- Watson Studio
- HVEM
- Arbeid
- virker