Sammanfattning
I detta kodmönster får du bättre insikter och förklarbarhet genom att lära dig hur du använder AI 360 Explainability Toolkits för att avmystifiera de beslut som fattas av en maskininlärningsmodell. Detta hjälper inte bara beslutsfattare och datavetare att utveckla pålitliga förklarbara AI-applikationer utan hjälper också till med öppenhet för alla. För att demonstrera användningen av AI Explainability 360 Toolkit använder vi det befintliga kodmönster för upptäckt av bedrägerier förklara AIX360-algoritmerna.
Beskrivning
Tänk dig ett scenario där du besöker en bank där du vill ta ett lån på 1 miljon dollar. Låneansvarig använder ett AI-driven system som förutsäger eller rekommenderar om du är berättigad till ett lån och hur mycket det lånet kan vara. I det här exemplet rekommenderar AI-systemet att du inte är berättigad till ett lån. Så du kanske har några frågor du behöver tänka på:
- Kommer du som kund att vara nöjd med tjänsten?
- Vill du motivera beslutet från AI-systemet?
- Bör låneansvarig dubbelkontrollera beslutet från AI-systemet och vill du att de ska känna till den underliggande mekanismen för AI-modellen?
- Ska banken helt lita på och lita på det AI-drivna systemet?
Du kanske håller med om att det inte räcker att bara göra förutsägelser. Ibland måste du ha en djup förståelse för varför beslutet togs. Det finns många anledningar till varför du behöver förstå den bakomliggande mekanismen för maskininlärningsmodellerna. Dessa inkluderar:
- Mänsklig läsbarhet
- Biasreducering
- Motiverbarhet
- tolkningsbarhet
- Främja förtroende för AI-system
I detta kodmönster visar vi hur de tre förklaringsalgoritmerna fungerar:
- CEM-algoritmen (Contrastive Explanations Method) som finns i AI Explainability 360 Toolkit.
- AI Explainability 360 — ProtoDash arbetar med en befintlig förutsägbar modell för att visa hur kunden jämför med andra som har liknande profiler och som har liknande återbetalningsposter som modellens förutsägelse för den nuvarande kunden. Detta hjälper till att utvärdera och förutsäga sökandens risk. Baserat på modellens förutsägelse och förklaringen för hur den kom till den rekommendationen kan låneansvarig fatta ett mer informerat beslut.
- Den generaliserade linjära regelmodellen (GLRM) -algoritmen i AI Explainability 360 Toolkit ger en förbättrad nivå av förklarbarhet för en datavetare om modellen kan distribueras.
Flöde
- Logga in på IBM Watson® Studio som drivs av Spark, initiera IBM Cloud Object Storage och skapa ett projekt.
- Ladda upp .csv-datafilen till IBM Cloud Object Storage.
- Ladda datafilen i anteckningsboken Watson Studio.
- Installera AI Explainability 360 Toolkit och Adversarial Robustness Toolbox i Watson Studio-anteckningsboken.
- Få visualisering för förklarbarhet och tolkning av AI-modellen för de tre olika typerna av användare.
Instruktioner
Hitta de detaljerade stegen i README fil. Dessa steg förklarar hur du:
- Skapa ett konto med IBM Cloud.
- Skapa ett nytt Watson Studio-projekt.
- Lägg till data.
- Skapa anteckningsboken.
- Infoga data som DataFrame.
- Kör anteckningsboken.
- Analysera resultaten.
Detta kodmönster är en del av AI 360 Toolkit: AI-modeller förklarade använda fallserier, som hjälper intressenter och utvecklare att förstå AI-modellens livscykel helt och att hjälpa dem att fatta välgrundade beslut.
Källa: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Konto
- AI
- algoritm
- algoritmer
- tillämpningar
- arkitektur
- Bank
- kropp
- cloud
- koda
- förtroende
- innehåll
- Aktuella
- datum
- datavetare
- Detektering
- utveckla
- utvecklare
- Förklarbarhet
- Förklarbar AI
- flöda
- bedrägeri
- Hur ser din drömresa ut
- How To
- HTTPS
- IBM
- IBM Cloud
- insikter
- IT
- inlärning
- Nivå
- lån
- maskininlärning
- modell
- Objektförvaring
- Officer
- Övrigt
- Mönster
- förutsägelse
- Förutsägelser
- Profiler
- projektet
- skäl
- register
- Resultat
- Risk
- vetenskapsmän
- Serier
- So
- förvaring
- system
- Öppenhet
- Litar
- användare
- visualisering
- Watson
- Watson Studio
- VEM
- Arbete
- fungerar