Rezumat
În acest model de cod, obțineți mai multe perspective și explicabilitate învățând cum să utilizați seturile de instrumente de explicabilitate AI 360 pentru a demistifica deciziile luate de un model de învățare automată. Acest lucru nu numai că ajută factorii de decizie politică și oamenii de știință de date să dezvolte aplicații AI explicabile de încredere, dar ajută și la transparență pentru toată lumea. Pentru a demonstra utilizarea setului de instrumente AI Explainability 360, folosim cel existent model de cod de detectare a fraudei explicând algoritmii AIX360.
Descriere
Imaginați-vă un scenariu în care vizitați o bancă în care doriți să obțineți un împrumut de 1 milion de dolari. Ofițerul de credite folosește un sistem bazat pe inteligență artificială care prezice sau recomandă dacă sunteți eligibil pentru un împrumut și cât de mult poate fi acel împrumut. În acest exemplu, sistemul AI vă recomandă să nu fiți eligibil pentru un împrumut. Deci, este posibil să aveți câteva întrebări la care trebuie să vă gândiți:
- Veți fi mulțumit de serviciu, ca client?
- Doriți o justificare pentru decizia luată de sistemul AI?
- Ar trebui ca ofițerul de credite să verifice din nou decizia luată de sistemul AI și ați dori ca ei să cunoască mecanismul de bază al modelului AI?
- Banca ar trebui să aibă total încredere și să se bazeze pe sistemul alimentat de AI?
S-ar putea să fiți de acord că nu este suficient doar să faceți predicții. Uneori, trebuie să înțelegeți profund motivul pentru care a fost luată decizia. Există multe motive pentru care trebuie să înțelegeți mecanismul de bază al modelelor de învățare automată. Acestea includ:
- Lizibilitatea umană
- Atenuarea părtinirii
- Justificare
- interpretabilitate
- Stimularea încrederii și încrederii în sistemele AI
În acest model de cod, demonstrăm cum funcționează cei trei algoritmi de explicabilitate:
- Algoritmul Metodei explicațiilor contrastante (CEM) care este disponibil în setul de instrumente AI Explainability 360.
- AI Explainability 360—ProtoDash funcționează cu un model predictiv existent pentru a arăta cum se compară clientul cu alții care au profiluri similare și au avut înregistrări de rambursare similare cu predicția modelului pentru clientul actual. Acest lucru ajută la evaluarea și estimarea riscului solicitantului. Pe baza predicției modelului și a explicației pentru cum s-a ajuns la acea recomandare, ofițerul de credite poate lua o decizie mai informată.
- Algoritmul Generalized Linear Rule Model (GLRM) din AI Explainability 360 Toolkit oferă un nivel îmbunătățit de explicabilitate unui om de știință de date dacă modelul poate fi implementat.
Debit
- Conectați-vă la IBM Watson® Studio dezvoltat de Spark, inițiați IBM Cloud Object Storage și creați un proiect.
- Încărcați fișierul de date .csv în IBM Cloud Object Storage.
- Încărcați fișierul de date în notebook-ul Watson Studio.
- Instalați setul de instrumente AI Explainability 360 și Adversarial Robustness Toolbox în notebook-ul Watson Studio.
- Obțineți vizualizare pentru explicabilitatea și interpretarea modelului AI pentru cele trei tipuri diferite de utilizatori.
Instrucțiuni
Găsiți pașii detaliați în README fişier. Acești pași explică cum se face:
- Creați un cont cu IBM Cloud.
- Creați un nou proiect Watson Studio.
- Adăugați date.
- Creați caietul.
- Introduceți datele ca DataFrame.
- Rulați caietul.
- Analizează rezultatele.
Acest model de cod este parte a Setul de instrumente AI 360: modelele AI explicate serii de cazuri de utilizare, care ajută părțile interesate și dezvoltatorii să înțeleagă complet ciclul de viață al modelului AI și să-i ajute să ia decizii informate.
Sursa: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Cont
- AI
- Algoritmul
- algoritmi
- aplicatii
- arhitectură
- Bancă
- corp
- Cloud
- cod
- încredere
- conţinut
- Curent
- de date
- om de știință de date
- Detectare
- dezvolta
- Dezvoltatorii
- Explicabilitate
- AI explicabilă
- debit
- fraudă
- Cum
- Cum Pentru a
- HTTPS
- IBM
- IBM Cloud
- perspective
- IT
- învăţare
- Nivel
- împrumut
- masina de învățare
- model
- Depozitarea obiectelor
- Ofiţer
- Altele
- Model
- prezicere
- Predictii
- Profiluri
- proiect
- motive
- înregistrări
- REZULTATE
- Risc
- oamenii de stiinta
- serie
- So
- depozitare
- sistem
- Transparență
- Încredere
- utilizatorii
- vizualizare
- Watson
- Studio Watson
- OMS
- Apartamente
- fabrică