Resumé
Hvordan fjerner man bias fra maskinlæringsmodellerne og sikrer, at forudsigelserne er retfærdige? Hvad er de tre stadier, hvor bias-reduktionsløsningen kan anvendes? Dette kodemønster besvarer disse spørgsmål for at hjælpe dig med at træffe informerede beslutninger ved at forbruge resultaterne af prædiktive modeller.
Hvis du har spørgsmål om dette kodemønster, så spørg dem eller søg efter svar i den tilhørende forum.
Beskrivelse
Retfærdighed i data- og maskinlæringsalgoritmer er afgørende for at bygge sikre og ansvarlige AI-systemer. Mens nøjagtighed er en metrik til at evaluere nøjagtigheden af en maskinlæringsmodel, giver retfærdighed dig en måde at forstå de praktiske implikationer af at implementere modellen i en situation i den virkelige verden.
I dette kodemønster bruger du et diabetesdatasæt til at forudsige, om en person er tilbøjelig til at have diabetes. Du skal bruge IBM Watson® Studio, IBM Cloud Object Storage og AI Fairness 360 Toolkit til at oprette dataene, anvende algoritmen for bias-reduktion og derefter analysere resultaterne.
Når du har gennemført dette kodemønster, forstår du, hvordan du:
- Opret et projekt ved hjælp af Watson Studio
- Brug AI Fairness 360 Toolkit
Flow
- Log ind på IBM Watson Studio drevet af Spark, start IBM Cloud Object Storage, og opret et projekt.
- Upload .csv-datafilen til IBM Cloud Object Storage.
- Indlæs datafilen i Watson Studios notesbog.
- Installer AI Fairness 360 Toolkit i Watson Studios notesbog.
- Analyser resultaterne efter anvendelse af bias-reduktionsalgoritmen under for-, under- og efterbehandlingsstadier.
Instruktioner
Find de detaljerede trin til dette mønster i readme fil. Trinene viser dig, hvordan du:
- Opret en konto hos IBM Cloud.
- Opret et nyt Watson Studio-projekt.
- Tilføj data.
- Opret notesbogen.
- Indsæt dataene som DataFrame.
- Kør notesbogen.
- Analyser resultaterne.
Dette kodemønster er en del af AI 360 Toolkit: AI-modeller forklaret use case-serier, som hjælper interessenter og udviklere med at forstå AI-modellens livscyklus fuldstændigt og hjælpe dem med at træffe informerede beslutninger.
Kilde: https://developer.ibm.com/patterns/identify-and-remove-bias-from-ai-models/