Zusammenfassung
Gewinnen Sie in diesem Codemuster bessere Einblicke und Erklärbarkeit, indem Sie lernen, wie Sie die AI 360 Explainability Toolkits verwenden, um die Entscheidungen zu entmystifizieren, die von einem Modell für maschinelles Lernen getroffen werden. Dies hilft nicht nur politischen Entscheidungsträgern und Datenwissenschaftlern, vertrauenswürdige erklärbare KI-Anwendungen zu entwickeln, sondern hilft auch bei der Transparenz für alle. Um die Verwendung des AI Explainability 360 Toolkit zu demonstrieren, verwenden wir das vorhandene Codemuster zur Betrugserkennung Erläuterung der AIX360-Algorithmen.
Beschreibung
Stellen Sie sich ein Szenario vor, in dem Sie eine Bank besuchen, wo Sie einen Kredit in Höhe von 1 Million US-Dollar aufnehmen möchten. Der Kreditsachbearbeiter verwendet ein KI-gestütztes System, das vorhersagt oder empfiehlt, ob Sie für einen Kredit in Frage kommen und wie hoch dieser Kredit sein kann. In diesem Beispiel empfiehlt das KI-System, dass Sie keinen Anspruch auf einen Kredit haben. Vielleicht haben Sie also einige Fragen, über die Sie nachdenken müssen:
- Werden Sie als Kunde mit dem Service zufrieden sein?
- Möchten Sie die Entscheidung des KI-Systems begründen?
- Sollte der Kreditsachbearbeiter die Entscheidung des KI-Systems noch einmal überprüfen und möchten Sie, dass er den zugrunde liegenden Mechanismus des KI-Modells kennt?
- Sollte die Bank dem KI-gestützten System vollständig vertrauen und sich darauf verlassen?
Sie werden vielleicht zustimmen, dass es nicht ausreicht, nur Vorhersagen zu treffen. Manchmal müssen Sie ein tiefes Verständnis dafür haben, warum die Entscheidung getroffen wurde. Es gibt viele Gründe, warum Sie den zugrunde liegenden Mechanismus der Modelle des maschinellen Lernens verstehen müssen. Diese beinhalten:
- Menschliche Lesbarkeit
- Abschwächung von Verzerrungen
- Berechtigung
- Interpretierbarkeit
- Vertrauen und Vertrauen in KI-Systeme stärken
In diesem Codemuster demonstrieren wir, wie die drei Erklärbarkeitsalgorithmen funktionieren:
- Der Algorithmus der Contrastive Explanations Method (CEM), der im AI Explainability 360 Toolkit verfügbar ist.
- Die AI Explainability 360 – ProtoDash arbeitet mit einem vorhandenen Vorhersagemodell, um zu zeigen, wie der Kunde im Vergleich zu anderen abschneidet, die ähnliche Profile und ähnliche Rückzahlungsdatensätze wie die Vorhersage des Modells für den aktuellen Kunden aufweisen. Dies hilft, das Risiko des Antragstellers zu bewerten und vorherzusagen. Basierend auf der Vorhersage des Modells und der Erklärung, wie es zu dieser Empfehlung kam, kann der Kreditsachbearbeiter eine fundiertere Entscheidung treffen.
- Der Algorithmus des Generalized Linear Rule Model (GLRM) im AI Explainability 360 Toolkit bietet einem Datenwissenschaftler ein verbessertes Maß an Erklärbarkeit, ob das Modell bereitgestellt werden kann.
Flow
- Melden Sie sich bei IBM Watson® Studio powered by Spark an, starten Sie IBM Cloud Object Storage und erstellen Sie ein Projekt.
- Laden Sie die CSV-Datendatei in IBM Cloud Object Storage hoch.
- Laden Sie die Datendatei in das Watson Studio-Notizbuch.
- Installieren Sie das AI Explainability 360 Toolkit und die Adversarial Robustness Toolbox im Watson Studio-Notebook.
- Holen Sie sich eine Visualisierung zur Erklärbarkeit und Interpretierbarkeit des KI-Modells für die drei verschiedenen Benutzertypen.
Anweisungen
Die detaillierten Schritte finden Sie in der README Datei. Diese Schritte erklären, wie man:
- Erstellen Sie ein Konto bei IBM Cloud.
- Erstellen Sie ein neues Watson Studio-Projekt.
- Daten hinzufügen.
- Erstellen Sie das Notizbuch.
- Fügen Sie die Daten als DataFrame ein.
- Führen Sie das Notizbuch aus.
- Analysieren Sie die Ergebnisse.
Dieses Codemuster ist Teil des Das AI 360 Toolkit: AI-Modelle erklärt Anwendungsfallreihen, die Stakeholdern und Entwicklern helfen, den Lebenszyklus des KI-Modells vollständig zu verstehen und fundierte Entscheidungen zu treffen.
Quelle: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Konto
- AI
- Algorithmus
- Algorithmen
- Anwendungen
- Architektur
- Bank
- Körper
- Cloud
- Code
- Vertrauen
- Inhalt
- Strom
- technische Daten
- Datenwissenschaftler
- Entdeckung
- entwickeln
- Entwickler
- Erklärbarkeit
- Erklärbare KI
- Fluss
- Betrug
- Ultraschall
- Hilfe
- HTTPS
- IBM
- IBM Cloud
- Einblicke
- IT
- lernen
- Niveau
- Darlehen
- Maschinelles Lernen
- Modell
- Objektspeicher
- Offizier
- Anders
- Schnittmuster
- Prognose
- Prognosen
- Profil
- Projekt
- Gründe
- Aufzeichnungen
- Die Ergebnisse
- Risiko
- Wissenschaftler
- Modellreihe
- So
- Lagerung
- System
- Transparenz
- Vertrauen
- Nutzer
- Visualisierung
- Watson
- Watson-Studio
- WHO
- Arbeiten
- Werk