Resumen
En este patrón de código, obtenga mejores conocimientos y explicabilidad aprendiendo a usar los kits de herramientas de explicación de AI 360 para desmitificar las decisiones que toma un modelo de aprendizaje automático. Esto no solo ayuda a los legisladores y científicos de datos a desarrollar aplicaciones de inteligencia artificial explicables y confiables, sino que también ayuda a la transparencia para todos. Para demostrar el uso de AI Explainability 360 Toolkit, utilizamos el patrón de código de detección de fraude explicando los algoritmos AIX360.
Descripción
Imagine un escenario en el que visita un banco en el que desea obtener un préstamo de $ 1 millón. El oficial de préstamos usa un sistema impulsado por IA que predice o recomienda si usted es elegible para un préstamo y cuánto puede ser ese préstamo. En este ejemplo, el sistema de inteligencia artificial recomienda que no sea elegible para un préstamo. Por lo tanto, es posible que tenga algunas preguntas en las que deba pensar:
- ¿Estará usted como cliente satisfecho con el servicio?
- ¿Querría justificar la decisión tomada por el sistema de IA?
- ¿Debería el oficial de préstamos volver a verificar la decisión tomada por el sistema de IA y le gustaría que conocieran el mecanismo subyacente del modelo de IA?
- ¿Debería el banco confiar y confiar completamente en el sistema impulsado por IA?
Quizás esté de acuerdo en que no basta con hacer predicciones. A veces, debe tener una comprensión profunda de por qué se tomó la decisión. Hay muchas razones por las que necesita comprender el mecanismo subyacente de los modelos de aprendizaje automático. Éstos incluyen:
- Legibilidad humana
- Mitigación de sesgos
- Justificabilidad
- Interpretabilidad
- Fomentar la confianza y la seguridad en los sistemas de IA
En este patrón de código, demostramos cómo funcionan los tres algoritmos de explicabilidad:
- El algoritmo del método de explicaciones contrastantes (CEM) que está disponible en el kit de herramientas AI Explainability 360.
- AI Explainability 360 — ProtoDash funciona con un modelo predictivo existente para mostrar cómo el cliente se compara con otros que tienen perfiles similares y tenían registros de pago similares a la predicción del modelo para el cliente actual. Esto ayuda a evaluar y predecir el riesgo del solicitante. Según la predicción del modelo y la explicación de cómo llegó a esa recomendación, el oficial de préstamos puede tomar una decisión más informada.
- El algoritmo del Modelo de reglas lineales generalizadas (GLRM) en AI Explainability 360 Toolkit proporciona un nivel mejorado de explicabilidad a un científico de datos si el modelo se puede implementar.
Flujo
- Inicie sesión en IBM Watson® Studio con tecnología Spark, inicie IBM Cloud Object Storage y cree un proyecto.
- Cargue el archivo de datos .csv en IBM Cloud Object Storage.
- Cargue el archivo de datos en el cuaderno Watson Studio.
- Instale AI Explainability 360 Toolkit y Adversarial Robustness Toolbox en el cuaderno Watson Studio.
- Obtenga visualización para la explicabilidad e interpretabilidad del modelo de IA para los tres tipos diferentes de usuarios.
Instrucciones
Encuentre los pasos detallados en el README expediente. Esos pasos explican cómo:
- Cree una cuenta con IBM Cloud.
- Crea un nuevo proyecto de Watson Studio.
- Agregar datos.
- Crea el cuaderno.
- Inserte los datos como DataFrame.
- Ejecute el cuaderno.
- Analiza los resultados.
Este patrón de código es parte del El kit de herramientas AI 360: modelos de AI explicados Serie de casos de uso, que ayuda a las partes interesadas y a los desarrolladores a comprender completamente el ciclo de vida del modelo de IA y a tomar decisiones informadas.
Fuente: https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/- Mi Cuenta
- AI
- algoritmo
- algoritmos
- aplicaciones
- arquitectura
- Banca
- cuerpo
- Soluciones
- código
- confianza
- contenido
- Current
- datos
- científico de datos
- Detección
- desarrollar
- desarrolladores
- Explicabilidad
- IA explicable
- de tus señales
- fraude
- Cómo
- Como Hacer
- HTTPS
- IBM
- Nube de IBM
- Insights
- IT
- aprendizaje
- Nivel
- préstamo
- máquina de aprendizaje
- modelo
- Almacenamiento de objetos
- Oficial
- Otros
- Patrón de Costura
- predicción
- Predicciones
- Perfiles
- proyecto
- razones
- archivos
- Resultados
- Riesgo
- los científicos
- Serie
- So
- STORAGE
- te
- Transparencia
- Confía en
- usuarios
- visualización
- Watson
- Estudio Watson
- QUIENES
- Actividades:
- funciona