Podsumowanie
W tym wzorcu kodu uzyskaj lepszy wgląd i możliwość wyjaśnienia, ucząc się, jak korzystać z zestawów narzędzi AI 360 Explainability Toolkis do wyjaśniania decyzji podejmowanych przez model uczenia maszynowego. Pomaga to nie tylko decydentom i analitykom danych w opracowywaniu zaufanych, możliwych do wyjaśnienia aplikacji AI, ale także zapewnia przejrzystość dla wszystkich. Aby zademonstrować korzystanie z zestawu narzędzi AI Explainability 360, korzystamy z istniejącego wzór kodu wykrywania oszustw wyjaśnienie algorytmów AIX360.
Opis
Wyobraź sobie scenariusz, w którym odwiedzasz bank, w którym chcesz zaciągnąć pożyczkę w wysokości 1 miliona dolarów. Specjalista ds. pożyczek korzysta z systemu opartego na sztucznej inteligencji, który przewiduje lub zaleca, czy kwalifikujesz się do pożyczki i ile ta pożyczka może być. W tym przykładzie system AI zaleca, że nie kwalifikujesz się do pożyczki. Możesz więc mieć kilka pytań, o których musisz pomyśleć:
- Czy jako klient będziesz zadowolony z usługi?
- Czy chciałbyś uzasadnić decyzję podjętą przez system AI?
- Czy urzędnik ds. pożyczek powinien dwukrotnie sprawdzić decyzję podjętą przez system AI i czy chciałbyś, aby znali mechanizm leżący u podstaw modelu AI?
- Czy bank powinien całkowicie ufać i polegać na systemie opartym na sztucznej inteligencji?
Możesz zgodzić się, że nie wystarczy tylko przewidywać. Czasami musisz mieć głębokie zrozumienie, dlaczego została podjęta decyzja. Istnieje wiele powodów, dla których musisz zrozumieć mechanizm leżący u podstaw modeli uczenia maszynowego. Obejmują one:
- Czytelność dla człowieka
- Łagodzenie uprzedzeń
- zasadność
- Interpretowalność
- Wzmacnianie zaufania i zaufania do systemów AI
W tym wzorcu kodu pokazujemy, jak działają trzy algorytmy wyjaśniania:
- Algorytm metody wyjaśnień kontrastowych (CEM) dostępny w zestawie AI Explainability 360 Toolkit.
- AI Explainability 360 — ProtoDash współpracuje z istniejącym modelem predykcyjnym, aby pokazać, jak klient porównuje się z innymi, którzy mają podobne profile i mają podobne rekordy spłat do prognoz modelu dla bieżącego klienta. Pomaga to ocenić i przewidzieć ryzyko wnioskodawcy. Na podstawie przewidywań modelu i wyjaśnienia, w jaki sposób doszło do tego zalecenia, specjalista ds. Pożyczek może podjąć bardziej świadomą decyzję.
- Algorytm Generalized Linear Rule Model (GLRM) w zestawie AI Explainability 360 Toolkit zapewnia naukowcom zajmującym się danymi wyższy poziom wyjaśnienia, czy model może zostać wdrożony.
Przepływ
- Zaloguj się do IBM Watson® Studio w technologii Spark, zainicjuj IBM Cloud Object Storage i utwórz projekt.
- Prześlij plik danych .csv do IBM Cloud Object Storage.
- Załaduj plik danych do notatnika Watson Studio.
- Zainstaluj AI Explainability 360 Toolkit i Adversarial Robustness Toolbox w notebooku Watson Studio.
- Uzyskaj wizualizację, aby wyjaśnić i zinterpretować model AI dla trzech różnych typów użytkowników.
Instrukcje
Znajdź szczegółowe kroki w README plik. Te kroki wyjaśniają, jak:
- Utwórz konto w IBM Cloud.
- Utwórz nowy projekt Watson Studio.
- Dodaj dane.
- Utwórz notatnik.
- Wstaw dane jako DataFrame.
- Uruchom notatnik.
- Przeanalizuj wyniki.
Ten wzorzec kodu jest częścią Zestaw narzędzi AI 360: wyjaśniono modele AI serie przypadków użycia, które pomagają interesariuszom i programistom w pełnym zrozumieniu cyklu życia modelu sztucznej inteligencji i pomagają im podejmować świadome decyzje.
Źródło: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Konto
- AI
- algorytm
- Algorytmy
- aplikacje
- architektura
- Bank
- ciało
- Chmura
- kod
- pewność siebie
- zawartość
- Aktualny
- dane
- naukowiec danych
- Wykrywanie
- rozwijać
- deweloperzy
- Wyjaśnialność
- Wytłumaczalne AI
- pływ
- oszustwo
- W jaki sposób
- How To
- HTTPS
- IBM
- IBM Cloud
- spostrzeżenia
- IT
- nauka
- poziom
- pożyczka
- uczenie maszynowe
- model
- Przechowywanie obiektów
- Oficer
- Pozostałe
- Wzór
- przepowiednia
- Przewidywania
- profile
- projekt
- Przyczyny
- dokumentacja
- Efekt
- Ryzyko
- Naukowcy
- Serie
- So
- przechowywanie
- system
- Przezroczystość
- Zaufaj
- Użytkownicy
- wyobrażanie sobie
- Watson
- Studio Watsona
- KIM
- Praca
- działa