【TECH】忍受还是面对?人类如何解决“AI偏见”

撰文: 薛子遥
出版:更新:

有些人担心,有一天AI(人工智能)将变得比人类更聪明并反过来对付我们。但专家们警告说,这些担心是基于误解:真正的敌人不是某种未来的“未来战士”,而是我们自己。
AI变得有利或有害取决于我们如何构建、训练和应用它们。在上一篇关于“AI偏见”的文章中,我们发现AI就像一面镜子,它再现我们自己的缺点,放大整个社会的不平等。理解和消除AI偏见是一项重要而艰巨的任务:我们首先要看清我们自己隐藏的偏见。
科学家、政府或公司可以做些什么来实现这一目标?领先的研究人员有什么建议呢?如果我们没有或无法解决AI偏见,又会发生什么?

其记录将分为上下两篇刊布。本篇为第二篇。

上篇:【TECH】AI将改变世界 但“AI偏见”亦会

Facebook最近宣布成立新的团队,专门负责寻找算法中的种族偏见。这是一件大事:该公司的管理层此前一直拒绝这样做。

Facebook为什么会拒绝研究AI偏见?很简单,目前没有人真正知道如何解决AI偏见。如果没有明确的解决方案,确定自己算法中有偏见只能是很尴尬的。

为什么AI偏见难以解决?

研究人员可能不会意识到AI的下游负面影响,直到算法已经被大规模应用在注意到。

在人工智能领域,人们愈来愈清楚地认识到,偏见是个大问题,应该避免。但是,“AI偏见研究”仍然是一个年轻的领域。

主要挑战是当代大多数AI应用背后的“深度学习”(deep learning)算法的复杂性。深度学习算法因其可以从数据中“学习”的能力而吸引了研究人员的注意,算法会自我调整内部代码,直到能够实现我们赋予它的任务。然而,这种惊人的适应性也意味着算法的大部分都隐藏在一个由数百万个参数组成的“黑匣子”中,令数据专家难以理解。

深度学习是机器学习的一个子集,而机器学习是人工智能的一个子集 。(维基百科,Avimanyu786)

无法理解算法的每一步计算,就不会清楚算法的调整会对机器的整体功能产生什么影响。研究人员可能不会意识到他们数据和选择的下游负面影响,直到算法已经被大规模应用在注意到。

而当他们确实看到AI偏见的影响时,可能很难准确地指出到底是哪里出了问题:是在他们构思目标、收集数据,还是选择考虑什么属性的时候?还是仅仅因为其应用方式的问题?

修复AI数据

在大多数情况下,偏见会通过训练数据被引入算法中。这在使用历史数据时很常见,例如关于银行的数据经常被用来训练人工智能算法,旨在帮助银行决定对某个客户要否提供信用卡或贷款。

但这些数据往往带有针对弱势群体的隐性偏见,譬如在香港,有研究指出,银行向少数族裔发放贷款的可能性比其他人要小,如果用他们过去的决定训练AI,这种现实可能会在不知不觉中延续到算法中。

对于有数百万个变量的数据集,或者当我们不确定问题出在数据的哪个方面时,手动修复就不可能。

问题是,当涉及到训练数据中的偏见时,并没有约定俗成的好办法来消除它。有时固然可以手动修复数据,但对于有数百万个变量的数据集,或者当我们不确定问题出在数据的哪个方面时,手动修复就不可能。

一种解决方案是让算法要调整其结果,以补偿任何被意识到的偏见。譬如,如果一个银行算法不利于少数族裔,我们可以让它降低少数族裔申请贷款的标准。然而,这相当于一种有争议的“算法平权行为”(algorithmic affirmative action),而且只是将“公平”问题转移到别的地方上去,而没有解决问题。

虽然研究正在开发的算法可能会帮助检测或减轻算法数据或AI结果中的偏见,但到目前为止,还没有可靠的方法。在此期间,数据科学家能做的主要事情还是反思自己的实践。

【TECH】是一个正在进行的关于技术和社会的系列报道,其目的是在历史、社会、经济、政治的背景下解释科技新闻。从人工智能到纳米药物,从人类的改进到工作的未来,01国际【TECH】系列探讨破坏性科技创新如何被商业化、规管、滥用和再利用——不仅解释科技是如何改变世界,也分析世界是如何塑造科技。

修复AI实践

AI偏见研究人员正在鼓励电脑科学家重新思考他们处理问题的方式,尤其考虑自己工作上的偏见和盲点。

数据专家在设计人工智能时,ying ga倾听将会受这个AI影响的社区。

这种偏见可以在电脑科学实践的不同阶段进行,从设定算法的目标到将它应用于现实世界。但通常归结为一个简单的建议:数据专家在设计人工智能时,要倾听将会受这个AI影响的社区。

在电脑科学这个技术性的领域中,设计一个可以在不同环境下使用的系统被认为是好的做法。但对于影响人类社会的AI工具来说,这是糟糕的想法,每个人、每个社区的背景都是不同的,电脑科学家在开发AI产品之前应该和那些真正会使用这个产品的人交谈,了解这个算法最后要被怎样使用,人们对它会有什么样的要求。

这也意味着数据专家的工作并不是在他们构建算法后就结束了。研究AI偏见的专家认为,在把它丢到某个政府或某个公司手中之前,数据专家应该在真实的生活环境中进行测试。

修复AI社区

AI偏见研究在电脑科学中发现的上述漏洞,使整个领域思考可能需要重新组织。

有些人认为,该领域需要成立新的专业,通过形成“收集数据”或“无偏数据加工”的专家。今天,在电脑科学的专业等级制度,算法开发被美化得高于一切;因此,对保持人工智能的公平性关注不够。

有些电脑科学家们一直鼓励人工智能机构雇用和晋升来自不同背景的研究人员。

另一个强烈的呼声是,在从事人工智能的团队中,要有更多元化的人工。特别是美国,因处于前沿人工智能研究和正在进行的种族平等运动的交叉点,一直是这一趋势的领导者。

像加纳裔美国麻州理工Media Lab电脑科学家Joy Buolamwini这样的年轻研究人员一直在挑战软件中的偏见,并鼓励人工智能机构雇用和晋升来自不同背景的研究人员。Buolamwini的研究涉及到展示美国领先人脸识别系统是如何在识别深色皮肤人的面孔和性别方面失败率高。

AI偏见究竟为什么很重要?

AI不是未来的技术,今天已经有社交媒体平台、人力资源经理、法官、警察局长和国会议员依靠深度学习算法做出的推荐来进行决策。然而,这些机器是由不完美的人类打造的工具。

如果不控制AI算数的偏见,我们就会将它嵌入到我们的经济、社会和政治体系。

这就是为什么检测或减轻我们的偏见是如此重要:这些AI工具对谁能获得贷款、谁能进入顶级学校或谁能出狱的决策影响已经很大,并在变得愈来愈大。如果我们不能控制我们给予它们的偏见,我们就会将它们嵌入到我们的经济、社会和政治体系。

Facebook终于决定认真审视他们的算法,这是解决社交平台这几年出现的重要问题的第一步:选举干预、用户私隐不安全和社会两极化。换句话说,Facebook第一次将在其AI镜子里锐利地盯住自己。

AI偏见的问题提醒我们的是,如果我们不想成为自己发明的奴隶,那么引领人类社会变革的不应该是技术,而是人类应该引领技术应用的变革。

相关文章

【TECH】AI将改变世界 但“AI偏见”亦会

【TECH】世界将变成“一国一网”?开放的互联网终只是浪漫想象?

【科技.未来】突破AI运算瓶颈 芯片研发竞赛展开

【科技.未来】用人工智能请人 是消除还是延续偏见?