总结
您如何消除机器学习模型中的偏见并确保预测是公平的? 可以应用偏差缓解解决方案的三个阶段是什么? 此代码模式回答了这些问题,以通过使用预测模型的结果来帮助您做出明智的决策。
如果您对此代码模式有疑问,请询问他们或在相关的 论坛.
课程描述
数据和机器学习算法的公平性对于构建安全,负责的AI系统至关重要。 准确性是评估机器学习模型准确性的一项指标,而公平性则为您提供了一种了解在现实环境中部署模型的实际含义的方法。
在此代码模式中,您使用糖尿病数据集来预测一个人是否容易患糖尿病。 您将使用IBMWatson®Studio,IBM Cloud Object Storage和AI Fairness 360 Toolkit来创建数据,应用偏差缓解算法,然后分析结果。
完成此代码模式后,您将了解如何:
- 使用Watson Studio创建项目
- 使用AI Fairness 360 Toolkit
自动化流程
- 登录到由Spark支持的IBM Watson Studio,启动IBM Cloud Object Storage,并创建一个项目。
- 将.csv数据文件上传到IBM Cloud Object Storage。
- 将数据文件加载到Watson Studio笔记本中。
- 在Watson Studio笔记本中安装AI Fairness 360 Toolkit。
- 在预处理,处理中和后处理阶段应用偏差缓解算法后,分析结果。
说明
在中找到此模式的详细步骤 自述 文件。 这些步骤将向您展示如何:
- 使用IBM Cloud创建一个帐户。
- 创建一个新的Watson Studio项目。
- 添加数据。
- 创建笔记本。
- 将数据作为DataFrame插入。
- 运行笔记本。
- 分析结果。
此代码模式是 AI 360工具包:解释了AI模型 用例系列,可帮助利益相关者和开发人员完全理解AI模型的生命周期,并帮助他们做出明智的决策。
资料来源:https://developer.ibm.com/patterns/identify-and-remove-bias-from-ai-models/