Zusammenfassung
In diesem Codemuster erfahren Sie, wie Sie mithilfe eines Diabetes-Datensatzes vorhersagen, ob eine Person anfällig für Diabetes ist. Das Codemuster untersucht Fairness, Erklärbarkeit und Robustheit der Vorhersagemodelle und verbessert die Wirksamkeit des KI-Vorhersagesystems. Das Codemuster demonstriert die End-to-End-Lösung und zeigt, wie man:
- Überprüfen Sie die Fairness des Diabetes-Datensatzes mit dem AI 360 Fairness Toolkit
- Entwickeln Sie das Modell
- Erklären Sie das Modell mit dem AI 360 Explainability Toolkit
Das Codemuster teilt die generische Codevorlage für den gesamten End-to-End-Prozess der vorherigen Schritte. Daher kann es verwendet werden, um jeden Datensatz einzubinden, dessen Fairness und Erklärbarkeit untersucht werden soll.
Beschreibung
Unter Fairness versteht man den Prozess des Verstehens der durch Ihre Daten verursachten Verzerrungen und des Sicherstellens, dass Ihr Modell für alle demografischen Gruppen gerechte Vorhersagen liefert. Die Erklärbarkeit zeigt, wie ein maschinelles Lernmodell seine Vorhersagen trifft. Es vermittelt ein besseres Verständnis des Modells, indem es klarstellt, wie das Modell funktioniert.
In diesem Codemuster verwenden Sie einen Diabetes-Datensatz, um vorherzusagen, ob eine Person anfällig für Diabetes ist. Sie verwenden IBM Watson® Studio, IBM Cloud Object Storage, das AI Explainability 360 Toolkit und das AI Fairness 360 Toolkit, um die Daten zu erstellen, wenden den Bias-Minderungsalgorithmus an und analysieren dann die Ergebnisse.
Nachdem Sie dieses Codemuster ausgefüllt haben, verstehen Sie Folgendes:
- Erstellen Sie ein Projekt mit Watson Studio
- Nutzen Sie das AI Explainability 360 Toolkit
- Verwenden Sie das AI Fairness 360 Toolkit
Flow
- Melden Sie sich bei IBM Watson Studio mit Spark an, initiieren Sie IBM Cloud Object Storage und erstellen Sie ein Projekt.
- Laden Sie die CSV-Datendatei in IBM Cloud Object Storage hoch.
- Laden Sie die Datendatei in das Watson Studio-Notizbuch.
- Installieren Sie das AI Explainability 360 Toolkit und das AI Fairness 360 Toolkit im Watson Studio-Notebook.
- Analysieren Sie die Ergebnisse, nachdem Sie den Bias-Mitigation-Algorithmus während der Vorverarbeitungs-, In-Processing- und Nachverarbeitungsphasen angewendet haben.
Anweisungen
Die detaillierten Schritte für dieses Muster finden Sie in der readme Datei. Die Schritte zeigen Ihnen, wie Sie:
- Erstellen Sie ein Konto bei IBM Cloud.
- Erstellen Sie ein neues Watson Studio-Projekt.
- Daten hinzufügen.
- Erstellen Sie das Notizbuch.
- Fügen Sie die Daten als DataFrame ein.
- Führen Sie das Notizbuch aus.
- Analysieren Sie die Ergebnisse.
Dieses Codemuster ist Teil des Das AI 360 Toolkit: AI-Modelle erklärt Anwendungsfallreihen, die Stakeholdern und Entwicklern helfen, den Lebenszyklus des KI-Modells vollständig zu verstehen und fundierte Entscheidungen zu treffen.
Quelle: https://developer.ibm.com/patterns/predict-an-event-with-fairness-explainability-robustness/- Konto
- AI
- Algorithmus
- Körper
- Cloud
- Code
- Inhalt
- technische Daten
- Datensatz
- demographisch
- Entwickler
- Diabetes
- Event
- Erklärbarkeit
- Fluss
- Ultraschall
- Hilfe
- HTTPS
- IBM
- IBM Cloud
- IBM Watson
- IT
- LERNEN
- lernen
- Maschinelles Lernen
- Modell
- Objektspeicher
- Schnittmuster
- Prognosen
- Projekt
- Die Ergebnisse
- Modellreihe
- kompensieren
- Shares
- storage
- System
- Watson
- Watson-Studio
- Werk