Rezumat
Cum eliminați părtinirea modelelor de învățare automată și cum vă asigurați că predicțiile sunt corecte? Care sunt cele trei etape în care poate fi aplicată soluția de atenuare a părtinirii? Acest model de cod răspunde la aceste întrebări pentru a vă ajuta să luați decizii informate, consumând rezultatele modelelor predictive.
Dacă aveți întrebări despre acest model de cod, întrebați-le sau căutați răspunsuri în fișierele asociate Forum.
Descriere
Corectitudinea în algoritmii de învățare automată și de date este esențială pentru construirea de sisteme AI sigure și responsabile. În timp ce acuratețea este o măsură pentru evaluarea acurateței unui model de învățare automată, corectitudinea vă oferă o modalitate de a înțelege implicațiile practice ale implementării modelului într-o situație reală.
În acest model de cod, utilizați un set de date despre diabet pentru a prezice dacă o persoană este predispusă la diabet. Veți folosi IBM Watson® Studio, IBM Cloud Object Storage și AI Fairness 360 Toolkit pentru a crea datele, a aplica algoritmul de atenuare a părtinirii, apoi veți analiza rezultatele.
După finalizarea acestui model de cod, înțelegeți cum să:
- Creați un proiect folosind Watson Studio
- Utilizați setul de instrumente AI Fairness 360
Debit
- Conectați-vă la IBM Watson Studio alimentat de Spark, inițiați IBM Cloud Object Storage și creați un proiect.
- Încărcați fișierul de date .csv în IBM Cloud Object Storage.
- Încărcați fișierul de date în notebook-ul Watson Studio.
- Instalați setul de instrumente AI Fairness 360 în notebook-ul Watson Studio.
- Analizați rezultatele după aplicarea algoritmului de atenuare a părtinirii în timpul etapelor de pre-procesare, în curs de procesare și post-procesare.
Instrucțiuni
Găsiți pașii detaliate pentru acest model în Readme fişier. Pașii vă vor arăta cum să:
- Creați un cont cu IBM Cloud.
- Creați un nou proiect Watson Studio.
- Adăugați date.
- Creați caietul.
- Introduceți datele ca DataFrame.
- Rulați caietul.
- Analizează rezultatele.
Acest model de cod este parte a Setul de instrumente AI 360: modelele AI explicate serii de cazuri de utilizare, care ajută părțile interesate și dezvoltatorii să înțeleagă complet ciclul de viață al modelului AI și să-i ajute să ia decizii informate.
Sursa: https://developer.ibm.com/patterns/identify-and-remove-bias-from-ai-models/