Samengevat
In dit codepatroon krijgt u betere inzichten en uitlegbaarheid door te leren hoe u de AI 360 Explainability Toolkits kunt gebruiken om de beslissingen die door een machine learning-model worden genomen, te demystificeren. Dit helpt beleidsmakers en datawetenschappers niet alleen om betrouwbare verklaarbare AI-toepassingen te ontwikkelen, maar helpt ook bij de transparantie voor iedereen. Om het gebruik van de AI Explainability 360 Toolkit te demonstreren, gebruiken we de bestaande fraudedetectie codepatroon uitleg van de AIX360-algoritmen.
Omschrijving
Stel je een scenario voor waarin je een bank bezoekt waar je een lening van $ 1 miljoen wilt afsluiten. De leningfunctionaris gebruikt een AI-aangedreven systeem dat voorspelt of aanbeveelt of u in aanmerking komt voor een lening en hoeveel die lening kan zijn. In dit voorbeeld adviseert het AI-systeem dat u niet in aanmerking komt voor een lening. Het kan dus zijn dat u enkele vragen heeft waar u dan over na moet denken:
- Bent u als klant tevreden over de service?
- Zou u een rechtvaardiging willen voor de beslissing van het AI-systeem?
- Moet de kredietfunctionaris de beslissing van het AI-systeem dubbel controleren en zou je willen dat hij het onderliggende mechanisme van het AI-model kent?
- Moet de bank volledig vertrouwen en vertrouwen op het AI-aangedreven systeem?
U bent het er misschien mee eens dat het niet voldoende is om alleen voorspellingen te doen. Soms moet u een goed begrip hebben van waarom de beslissing is genomen. Er zijn veel redenen waarom u het onderliggende mechanisme van de machine learning-modellen moet begrijpen. Deze omvatten:
- Menselijke leesbaarheid
- Vermindering van bias
- Gerechtvaardigheid
- Interpreteerbaarheid
- Vertrouwen en vertrouwen in AI-systemen bevorderen
In dit codepatroon laten we zien hoe de drie verklaarbaarheidsalgoritmen werken:
- Het Contrastive Explanations Method (CEM) -algoritme dat beschikbaar is in de AI Explainability 360 Toolkit.
- De AI Explainability 360 — ProtoDash werkt met een bestaand voorspellend model om te laten zien hoe de klant zich verhoudt tot anderen die vergelijkbare profielen hebben en vergelijkbare terugbetalingsrecords hadden als de voorspelling van het model voor de huidige klant. Dit helpt om het risico van de aanvrager te evalueren en te voorspellen. Op basis van de voorspelling van het model en de uitleg over hoe het tot die aanbeveling kwam, kan de kredietfunctionaris een beter geïnformeerde beslissing nemen.
- Het Generalized Linear Rule Model (GLRM) -algoritme in de AI Explainability 360 Toolkit biedt een verbeterd niveau van uitlegbaarheid aan een datawetenschapper of het model kan worden geïmplementeerd.
Stroom
- Log in bij IBM Watson Studio, mogelijk gemaakt door Spark, start IBM Cloud Object Storage en maak een project.
- Upload het .csv-gegevensbestand naar IBM Cloud Object Storage.
- Laad het gegevensbestand in het Watson Studio-notebook.
- Installeer de AI Explainability 360 Toolkit en de Adversarial Robustness Toolbox in de Watson Studio-notebook.
- Krijg visualisatie voor uitlegbaarheid en interpreteerbaarheid van het AI-model voor de drie verschillende soorten gebruikers.
Instructies
Vind de gedetailleerde stappen in de README het dossier. Deze stappen leggen uit hoe u:
- Maak een account aan bij IBM Cloud.
- Maak een nieuw Watson Studio-project.
- Voeg gegevens toe.
- Maak het notitieboek.
- Voeg de gegevens in als DataFrame.
- Voer de notebook uit.
- Analyseer de resultaten.
Dit codepatroon maakt deel uit van de De AI 360 Toolkit: AI-modellen uitgelegd use case series, die belanghebbenden en ontwikkelaars helpen de levenscyclus van het AI-model volledig te begrijpen en hen te helpen weloverwogen beslissingen te nemen.
Bron: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Account
- AI
- algoritme
- algoritmen
- toepassingen
- architectuur
- Bank
- lichaam
- Cloud
- code
- vertrouwen
- content
- Actueel
- gegevens
- data scientist
- Opsporing
- ontwikkelen
- ontwikkelaars
- Uitlegbaarheid
- Uitleg over AI
- stroom
- bedrog
- Hoe
- How To
- HTTPS
- IBM
- IBM Cloud
- inzichten
- IT
- leren
- Niveau
- lening
- machine learning
- model
- Object Opslag
- Officier
- Overig
- Patronen
- voorspelling
- Voorspellingen
- Profielen
- project
- redenen
- archief
- Resultaten
- Risico
- wetenschappers
- -Series
- So
- mediaopslag
- system
- Transparantie
- Trust
- gebruikers
- visualisatie
- Watson
- Watson Studio
- WIE
- Mijn werk
- Bedrijven