Oppsummering
Hvordan fjerner du skjevhet fra maskinlæringsmodellene og sørger for at spådommene er rettferdige? Hva er de tre trinnene der biasreduksjonsløsningen kan brukes? Dette kodemønsteret svarer på disse spørsmålene for å hjelpe deg med å ta en informert beslutning ved å konsumere resultatene av prediktive modeller.
Hvis du har spørsmål om dette kodemønsteret, spør dem eller se etter svar i den tilhørende forum.
Beskrivelse
Rettferdighet i data- og maskinlæringsalgoritmer er avgjørende for å bygge sikre og ansvarlige AI-systemer. Selv om nøyaktighet er en beregning for å evaluere nøyaktigheten til en maskinlæringsmodell, gir rettferdighet deg en måte å forstå de praktiske implikasjonene av å distribuere modellen i en reell situasjon.
I dette kodemønsteret bruker du et datasett for diabetes for å forutsi om en person er utsatt for diabetes. Du bruker IBM Watson® Studio, IBM Cloud Object Storage og AI Fairness 360 Toolkit til å lage dataene, bruke biasreduksjonsalgoritmen og deretter analysere resultatene.
Etter å ha fullført dette kodemønsteret forstår du hvordan du:
- Opprett et prosjekt ved hjelp av Watson Studio
- Bruk AI Fairness 360 Toolkit
Flow
- Logg deg på IBM Watson Studio drevet av Spark, start IBM Cloud Object Storage og opprett et prosjekt.
- Last opp .csv-datafilen til IBM Cloud Object Storage.
- Legg datafilen i notatboken Watson Studio.
- Installer AI Fairness 360 Toolkit i notatboken Watson Studio.
- Analyser resultatene etter å ha brukt algoritmen for begrensningsdemping under forbehandling, i prosessering og etterbehandling.
Instruksjoner
Finn de detaljerte trinnene for dette mønsteret i readme fil. Trinnene viser deg hvordan du gjør:
- Opprett en konto med IBM Cloud.
- Lag et nytt Watson Studio-prosjekt.
- Legg til data.
- Lag notatboken.
- Sett inn dataene som DataFrame.
- Kjør notatboken.
- Analyser resultatene.
Dette kodemønsteret er en del av AI 360 Toolkit: AI-modeller forklart bruk saksserier, som hjelper interessenter og utviklere til å forstå livssyklusen til AI-modellen og å hjelpe dem med å ta informerte beslutninger.
Kilde: https://developer.ibm.com/patterns/identify-and-remove-bias-from-ai-models/