如何建立一个有责任的AI系统?微软负责任AI标准或是启示|苏仲成
人工智慧 (AI) 已经成为现代社会的一个重要推动力,它可以帮助我们解决各种问题,提高效率,创造价值,甚至拯救生命。然而,AI 也带来了一些挑战和风险,例如资料隐私,系统安全,算法偏见,社会影响等。如何确保 AI 的发展和应用是符合道德,可信赖,并尊重人类的价值和权利呢?
文:Michael C.S. So(岭南大学研究生院客席助理教授)
微软是一家致力于推动负责任 AI 的公司,它在 2017 年提出了六项 AI 原则,分别是公平性,可靠性与安全性,隐私权与安全性,包容性,透明度,和责任性。这些原则是微软在设计,开发,部署,和使用 AI 系统时的指导方针,也是与其他组织和利益相关者共同推动 AI 治理的基础。
为了将这些原则落实到实际的产品和服务中,微软在 2022 年发布了第一版的负责任 AI 标准,并在 2023 年更新了第二版。这个标准是一个框架,定义了产品开发过程中需要遵守的要求,以确保 AI 系统符合微软的 AI 原则。这个标准涵盖了 17 个目标,分别对应于六项原则,并提供了一些具体的指标和测量方法,以帮助评估和改进 AI 系统的表现。
例如,为了实现公平性的目标,微软的负责任 AI 标准要求产品团队在开发 AI 系统时,要识别和管理潜在的不公平风险,并采取适当的措施来减少或消除这些风险。这些措施包括使用多元化的资料集,进行公平性分析和测试,提供公平性工具和指导,以及与使用者和社区进行沟通和回馈。
微软的负责任 AI 标准不仅是一个内部的规范,也是一个开放的资源,供其他组织和个人参考和学习。微软表示,这个标准是一个不断演进的文件,会根据新的研究,技术,法律,和从内部和外部的学习而进行调整。微软也欢迎其他对负责任 AI 有兴趣的人士提供意见和反馈,以共同推动 AI 的发展和治理。
负责任 AI 是一个重要而复杂的议题,需要多方的合作和努力。微软的负责任 AI 标准是一个有价值的贡献,它提供了一个实用而全面的方法,来帮助建立一个有责任的 AI 系统,并促进 AI 的正面影响。