总结
在此 Code Pattern 中,通过学习如何使用 AI 360 Explainability Toolkits 揭开机器学习模型做出的决策的神秘面纱,获得更好的洞察力和可解释性。 这不仅有助于政策制定者和数据科学家开发可信的可解释人工智能应用程序,还有助于提高每个人的透明度。 为了演示 AI Explainability 360 工具包的使用,我们使用现有的 欺诈检测代码模式 解释 AIX360 算法。
产品描述
想象一下这样一个场景,您去一家银行想要获得 1 万美元的贷款。 信贷员使用人工智能系统预测或推荐您是否有资格获得贷款以及贷款额度。 在此示例中,AI 系统建议您不符合贷款条件。 因此,您可能需要考虑几个问题:
- 作为客户,您会对服务感到满意吗?
- 你想要人工智能系统做出的决定的理由吗?
- 信贷员是否应该仔细检查人工智能系统做出的决定,你想让他们知道人工智能模型的底层机制吗?
- 银行应该完全信任并依赖人工智能系统吗?
您可能同意仅仅做出预测是不够的。 有时候,你必须深刻理解为什么做出这个决定。 您需要了解机器学习模型的底层机制的原因有很多。 这些包括:
- 人类可读性
- 偏差缓解
- 合理
- 可解释性
- 培养对人工智能系统的信任和信心
在此 Code Pattern 中,我们演示了三种可解释性算法的工作原理:
- AI Explainability 360 工具包中提供的对比解释方法 (CEM) 算法。
- AI Explainability 360—ProtoDash 与现有的预测模型一起工作,以显示客户与具有相似资料和还款记录的其他人相比如何与模型对当前客户的预测进行比较。 这有助于评估和预测申请人的风险。 根据模型的预测和对如何得出该建议的解释,信贷员可以做出更明智的决定。
- AI Explainability 360 Toolkit 中的广义线性规则模型 (GLRM) 算法为数据科学家提供了更高级别的可解释性,无论该模型是否可以部署。
自动化流程
- 登录到由 Spark 提供支持的 IBM Watson® Studio,启动 IBM Cloud Object Storage,然后创建一个项目。
- 将.csv数据文件上传到IBM Cloud Object Storage。
- 将数据文件加载到Watson Studio笔记本中。
- 在 Watson Studio 笔记本中安装 AI Explainability 360 Toolkit 和 Adversarial Robustness Toolbox。
- 获得针对三种不同类型用户的AI模型的可解释性和可解释性的可视化。
说明
在中找到详细步骤 读我 文件。 这些步骤说明了如何:
- 使用IBM Cloud创建一个帐户。
- 创建一个新的Watson Studio项目。
- 添加数据。
- 创建笔记本。
- 将数据作为DataFrame插入。
- 运行笔记本。
- 分析结果。
此代码模式是 AI 360工具包:解释了AI模型 用例系列,可帮助利益相关者和开发人员完全理解AI模型的生命周期,并帮助他们做出明智的决策。
来源:https://developer.ibm.com/patterns/analyzing-fraud-prediction-ai-models/