Resumo
Neste padrão de código, obtenha melhores insights e explicabilidade ao aprender como usar os kits de ferramentas de explicabilidade do AI 360 para desmistificar as decisões tomadas por um modelo de aprendizado de máquina. Isso não apenas ajuda os formuladores de políticas e cientistas de dados a desenvolver aplicativos confiáveis de IA explicáveis, mas também ajuda com transparência para todos. Para demonstrar o uso do AI Explainability 360 Toolkit, usamos o existente padrão de código de detecção de fraude explicando os algoritmos do AIX360.
Descrição
Imagine um cenário em que você visita um banco onde deseja fazer um empréstimo de $ 1 milhão. O oficial de crédito usa um sistema alimentado por IA que prevê ou recomenda se você é elegível para um empréstimo e quanto esse empréstimo pode custar. Neste exemplo, o sistema de IA recomenda que você não seja elegível para um empréstimo. Então, você pode ter algumas perguntas sobre as quais precisa pensar:
- Você, como cliente, ficará satisfeito com o serviço?
- Você gostaria de uma justificativa para a decisão tomada pelo sistema de IA?
- O oficial de crédito deve verificar novamente a decisão tomada pelo sistema de IA e você gostaria que eles conhecessem o mecanismo subjacente do modelo de IA?
- O banco deve confiar totalmente no sistema alimentado por IA?
Você pode concordar que não basta apenas fazer previsões. Às vezes, você deve ter uma compreensão profunda de por que a decisão foi tomada. Há muitos motivos pelos quais você precisa entender o mecanismo subjacente dos modelos de aprendizado de máquina. Esses incluem:
- Legibilidade humana
- Mitigação de preconceito
- Justificabilidade
- Interpretabilidade
- Promover a confiança nos sistemas de IA
Neste padrão de código, demonstramos como os três algoritmos de explicabilidade funcionam:
- O algoritmo Contrastive Explanations Method (CEM) que está disponível no AI Explainability 360 Toolkit.
- O AI Explainability 360 — ProtoDash trabalha com um modelo preditivo existente para mostrar como o cliente se compara a outros que têm perfis semelhantes e tiveram registros de reembolso semelhantes à previsão do modelo para o cliente atual. Isso ajuda a avaliar e prever o risco do candidato. Com base na previsão do modelo e na explicação de como chegou a essa recomendação, o oficial de crédito pode tomar uma decisão mais informada.
- O algoritmo Generalized Linear Rule Model (GLRM) no AI Explainability 360 Toolkit fornece um nível aprimorado de explicabilidade para um cientista de dados se o modelo pode ser implantado.
Fluxo
- Efetue login no IBM Watson® Studio desenvolvido por Spark, inicie o IBM Cloud Object Storage e crie um projeto.
- Faça upload do arquivo de dados .csv para o IBM Cloud Object Storage.
- Carregue o arquivo de dados no bloco de notas do Watson Studio.
- Instale o AI Explainability 360 Toolkit e o Adversarial Robustness Toolbox no bloco de notas Watson Studio.
- Obtenha visualização para explicabilidade e interpretabilidade do modelo de IA para os três diferentes tipos de usuários.
Instruções
Encontre as etapas detalhadas no README Arquivo. Essas etapas explicam como:
- Crie uma conta com IBM Cloud.
- Crie um novo projeto do Watson Studio.
- Adicione dados.
- Crie o bloco de notas.
- Insira os dados como DataFrame.
- Execute o notebook.
- Analise os resultados.
Este padrão de código é parte do O kit de ferramentas AI 360: modelos de AI explicados série de casos de uso, que ajuda as partes interessadas e desenvolvedores a entender completamente o ciclo de vida do modelo de IA e ajudá-los a tomar decisões informadas.
Fonte: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Conta
- AI
- algoritmo
- algoritmos
- aplicações
- arquitetura
- Bank
- corpo
- Na nuvem
- código
- confiança
- conteúdo
- Atual
- dados,
- cientista de dados
- Detecção
- desenvolver
- desenvolvedores
- Explicação
- IA explicável
- fluxo
- fraude
- Como funciona o dobrador de carta de canal
- Como Negociar
- HTTPS
- IBM
- IBM Cloud
- insights
- IT
- aprendizagem
- Nível
- empréstimo
- aprendizado de máquina
- modelo
- Armazenamento de objetos
- Oficial
- Outros
- padrão
- predição
- Previsões
- Perfis
- projeto
- razões
- registros
- Resultados
- Risco
- cientistas
- Série
- So
- armazenamento
- .
- Transparência
- Confiança
- usuários
- visualização
- Watson
- Estúdio Watson
- QUEM
- Atividades:
- trabalho