人工智能隐私:加拿大负责任的人工智能开发方法

人工智能隐私:加拿大负责任的人工智能开发方法

源节点: 3016471

加拿大联邦、省和地区的隐私监管机构已经引入了隐私原则。 这些原则侧重于生成人工智能 (AI) 技术的负责任和私人开发。 这来自联邦政府发布的针对高效人工智能系统的网络安全指南。

加拿大议会的 是提议的 人工智能与数据法 (阿依达)。 该立法旨在为被评为高风险的人工智能系统制定强制性法规。 同时,这些隐私原则已被应用为应用程序开发人员、企业和政府部门的指导,提供负责任的人工智能开发实践。

尽管缺乏具体的人工智能相关法律,但参与开发、提供或使用生成式人工智能技术的组织必须遵守加拿大现有的隐私法律和法规。

人工智能开发的基本隐私原则

联邦隐私专员 Philippe Dufresne 介绍 隐私和生成人工智能研讨会期间的隐私原则,重点关注生成人工智能模型和工具的负责任的开发和使用。 这些原则强调在人工智能系统中收集和使用个人数据需要法律依据和有效同意,确保同意是有意义的。

透明度被强调为至关重要,需要就信息的使用方式以及潜在的隐私风险进行清晰的沟通 AI。 可解释性也是一个关键原则,要求设计人工智能工具,以便用户能够理解他们的流程和决策。

此外,这些原则还要求采取强有力的隐私保护措施来保护个人权利和数据,并建议在人工智能系统内有限地共享个人、敏感或机密信息。 该文件解释了生成式人工智能工具对群体(尤其是儿童)的影响。 它提供了实际示例,将“设计保护隐私”原则融入开发过程,并为生成式人工智能生成的内容采用标签。

促进负责任的人工智能发展

本篇 公告 显示了加拿大对人工智能发展的责任以及隐私在技术中的地位。 在国家等待人工智能具体法规之际,这些原则指导着不同行业的利益相关者。

此外,该 加拿大政府 表示还有八家公司加入了人工智能行为准则。 这些公司采取措施,促进在开发和管理先进的生成人工智能系统方面采取负责任的做法。 AltaML、BlueDot、CGI、Kama.ai、IBM、Protexxa、Resemble AI 和 Scale AI 的参与代表了人工智能领域迈向行业自律的一步。 行业负责人工智能实践并为人工智能开发和使用制定标准。

时间戳记:

更多来自 元新闻