欧盟人工智能法案能否填补“AI空白”?|TECH

撰文: 薛子遥
出版:更新:

上个月,4月21日,欧盟委员会公布了“有史以来第一个人工智能法律框架”,这是世界上首次尝试通过一套全面和统一的法规来应对智能计算机系统在全社会传播的影响。而且,虽然批评者关注的是该法规将扼杀创新的风险,但围绕“AI法”的制订其实还有很多更深层次的问题。

尽管自2015年以来,各国政府发布了大量的“人工智能指南”——根据史丹福大学2021年人工智能指数报告,拥有已发布或正在准备的国家级人工智能政策的国家数量从2017年的3个激增到今年的54个国家——但世界上没有一个国家建立了统一的法律框架专门来应对人工智能带来的各种社会和道德挑战。

法律中的“AI空白”?

然而,立法者很难忽视人工智能对社会产生的各种影响。最近,人工智能技术已被广泛应用于医疗保健、执法、物流、媒体、电子商务以及我们日常生活的许多方面。在中国、欧洲或美国,围绕人工智能的偏见和歧视、面部识别和私隐、或“智能法庭”和自动法律裁决等问题的辩论,都在公众舆论中引起巨大波澜。

人工智能立法关注度上升的一个例子是:在2005年至2016年期间,美国国会记录中提到“人工智能”在每个立法会期上平均只得约15次(美国国会的一个立法会议持续两年)。在最近的一届会期上(2019年至2020年),国会记录显示,“人工智能”被提到486次,而在立法案中被提到173次。

2001-2020年美国国会记录中提及“人工智能”的次数图,按立法会期划分。(2021年人工智能指数报告)

当然,目前人工智能技术并不属于法律之外。然而,今天被用来控制人工智能的法律并不是专门针对人工智能技术而起草的。相反,这些法律来自对于数据库、个人信息保护、自动驾驶、算法交易等方面的立法。因此,这些规则并没有形成一个全面的法律框架。

最近,欧盟试图改变这种情况。上个月,4月21日,欧盟委员会公布了其“人工智能法案”(Artificial Intelligence Act,全称是:“关于制定人工智能统一规则的条例提案”Proposal for a Regulation laying down harmonised rules on artificial intelligence)。欧盟委员会称这一提案是 “有史以来第一个人工智能法律框架”,并表示它将使欧盟成为全球人工智能规则的主导者。

到目前为止,与人工智能有关的法律都集中在技术发展和竞争方面,而不是监管,包括为人工智能研究和产业提供资金,或建立新的人工智能政府机构。尽管一些国家试图建立人工智能原则——譬如,中国科技部专家小组的8点《新一代人工智能治理原则》或美国政府的10页《人工智能应用监管指南》(Guidance for Regulation of Artificial Intelligence Applications)——但这些原则仍然过于空泛,无法形成法规的基础。

根据波士顿的人工智能伦理实验室(AI Ethics Lab),在2015年至2020年期间,全世界有超过20个政府发布了与人工智能原则有关的文件。然而,这些原则仍然非常简短和抽象。(aiethicslab.com/big-picture)

相比之下,欧盟的提案因其长度和雄心而脱颖而出。该提案长达100多页,是目前为止世界上为提供一个全面的、具有法律约束力的人工智能监管框架所做的最佳法律尝试。该文本只是一个开始,此后还要经过多年咨询、游说和修正的过程,才有可能通过成为欧盟法律。

欧盟的提案已经概述了新颖而有力的监管方法。它定义何谓将被彻底禁止的“不可接受”人工智能用途(如潜意识操纵),亦要求“高风险人工智能”技术的供应商须在一个公共登记处注册,并遵守强制性的合格评定(conformity assessment),包括对透明度、功能、认证、监控和数据保留的义务。

与欧盟之前的数字监管法案类似——包括《通用数据保障条例》(General Data Protection Regulation,简称GDPR),《数字服务法案》(Digital Services Act)和《数字市场法案》(Digital Markets Act)——欧盟的提案也规定了高额的罚款。对违反其禁止不可接受的人工智能做法的行为,最高可处以全球年营业额6%或3,000万欧元的罚款,而对未能履行提案中有关高风险人工智能的其他义务的行为,将处以最高全球年营业额4%或2,000万欧元的罚款。

欧盟《人工智能法案》(Artificial Intelligence Act)立法草案部分监管措施(欧盟委员会)

这些人工智能规则将适用于任何向欧盟客户作销售、处理欧盟公民数据或拥有欧盟雇员的公司。因此,与GDPR一样,该提案可能会影响到远在欧洲边界之外的公司和监管机构,并有助于将欧洲的监管框架输出到全球。

然而,该文本能否实现其雄心壮志?

监管人工智能的困难

这一全面监管人工智能的首次尝试并没有成功说服所有人,而且凸显了监管智能工具的巨大困难。

技术分析师埃文斯(Benedict Evans)警告说,与欧盟之前的数据法规一样,欧盟的新提案“包含了一些关于该技术和产业结构非常奇怪的想法,表明起草者似乎从未真正听取过他们计划监管的市场中任何人的意见。”他担心的是,尽管围绕人工智能有非常重要的政策问题,但欧盟的提案正试图在“错误的思维层面”(wrong level of abstraction)进行立法。

监管者对人工智能长期以来一直感到沮丧,是因为现有的法律只集中在人工智能技术的部分方面,而无法掌握其所有的影响。举个例子,2017年法国的一项人工智能指南感叹,法律框架往往只“集中于处理个人数据的算法,并不考虑到算法对社会的集体影响”。

(欧盟的人工智能法)就像试图写一部关于‘汽车’的单一法律,将醉酒驾驶、排放标准、停车设施和高速公路相关税务等等不太相关的项目都包括在内一样。
技术分析师Benedict Evans

然而,像埃文斯这样的技术评论者认为,目前的人工智能法规是由不同部门的各种法律组成的,这是有原因的。人工智能技术的使用涉及范围极广,无法由一套单一的规则来监管。“这就像试图写一部关于‘汽车’的单一法律,将醉酒驾驶、排放标准、停车设施和高速公路相关税务等等不太相关的项目都包括在内一样。”

而且,由于人工智能是一个快速发展的研究领域,实际人工智能技术的复杂用途与统一法律监管框架愿景之间的紧张关系,就因而进一步加剧。像深度学习(Deep Learning)这样的人工智能研究领域已经成为近年来最具活力的科学课题之一,推动了技术创新的快速发展。因此,一个在进入法律之前需要经过多年审议的法律框架,永远不可能赶上它所要规范的技术的最新发展。

此外,制定法律和执行法律是两个完全不同的挑战。正如GDPR的有限执行所表明的那样,旨在监管数字行为的法律很难广泛执行,更多是通过提高行业标准和消费者意识,以对不良行为者起威慑作用。与GDPR一样,欧盟人工智能提案将执法权交给了成员国,因此很可能受到同样的限制。这一次,欧盟表示,如果成员国未能执行人工智能法,它会有权利介入,但它没有具体说明如何解决这个困难的执法问题。

更为根本的问题是,编写一部关于人工智能的法律需要明确的道德原则,但目前在如何建立和衡量公正的人工智能方面还没有道德共识。人工智能伦理学,这个年轻领域,既缺乏统一的技术基准,也缺乏商定的道德原则;围绕着算法在确保公平方面应该使用什么数学模型,或者绝对透明是否应该是最后目标等问题,今天仍然存在激烈的争议。

假设你得了癌症,你必须在一个无法解释其工作原理但有90%治愈率的黑盒人工智能外科医生和一个有80%治愈率的人类外科医生之间做出选择。你会否希望人工智能外科医生是非法的?
美国AI教授和Google研究员Geoff Hinton

因此,欧盟立法者不得不在一系列往往互相冲突的原则中做出选择。归根结底,它采取了与GDPR类似的方向:欧盟人工智能提案旨在加强供应商告知用户的义务和他们对“黑盒”(black box)技术的责任。

然而,将注意力集中于私隐、问责制和透明度并不一定能保证结果的公平性。知名的多伦多大学人工智能教授和Google研究员辛顿(Geoff Hinton)在Twitter上对欧盟的新提案作出反应,问道:“假设你得了癌症,你必须在一个无法解释其工作原理但有90%治愈率的黑盒人工智能外科医生和一个有80%治愈率的人类外科医生之间做出选择。你会否希望人工智能外科医生是非法的?”该问题指出,通过选择关注人工智能系统的局限性和人类监督的必要性,欧盟法规有可能过度监管人工智能的有效使用。

总而言之,在人工智能方面,监管者处于一个困难的境地:要让一项革命性的技术不受全面的法律约束发展,还是要制定可能适得其反的法律?欧盟坚信强有力的数字监管的重要性,选择了后一种方案。但是,对你不太了解或不能完全预测的东西进行监管,肯定会产生意想不到的后果:“意外效应法则”(law of unintended consequences)是政策制定者最头痛的问题。

因此,那些对法律体系如何能够跟上本世纪这项最具革命性的技术感到好奇的人,应该密切关注围绕欧盟人工智能法的辩论,以及其早期实施的成功和失败。根据中国国务院2017年发布的“新一代人工智能发展规划”,中国打算在2025年前建立初步的人工智能法规,而其他计划在未来几年起草自己的人工智能法律的国家将仔细观察欧盟法律的“意外效应”

推荐阅读: