【科技.未来】学者力撑禁用 人脸辨识“对社会有毒”
事实上,即使争取时间改善人脸辨识技术,让监管法规赶上,也无法解决这项技术的内在缺陷。去年,美国东北大学(Northeastern University)法律与电脑科学教授Woodrow Hartzog与罗彻斯特理工学院(Rochester Institute of Technology)哲学教授Evan Selinger合作撰文主张完全禁用人脸辨识:“人脸辨识的存在本身已损害公民自由,因为人们若怀疑自己被监控,行径就会完全不同。”他们担心人脸辨识将对言论、集会、宗教等自由带来寒蝉效应。2015年,马里兰州巴尔的摩市非裔青年格雷(Freddie Gray)被警方拘捕后猝死。在同年举行抗议警方滥用暴力的集会中,警方就使用了人脸辨识技术辨认及拘捕抗议者。
Hartzog和Selinger还指出,人脸的独特之处在于我们无法改变(除非整容),是我们身份的重心,它与指纹或瞳孔扫描不同,很容易便可从远距离采集到样本。两人认为,若不能赶及在人脸辨识广泛使用前禁止,“人们将无法知道在没有自动系统监控、存档、利用的情况下,身处公众地方会是一种怎样的感受。”
“人工智能的钸”
难怪微软蒙特利尔实验室(Microsoft Research Montreal)的数码媒体学者Luke Stark在今年4月撰文称人脸辨识为“人工智能的钸(Plutonium of AI)”,主张完全禁止这技术。钚是一种有毒金属,用来制作原子弹。Stark认为人脸辨识就如钚一样,本身“结构上就有毒”:“不论制造者有何意图,单是设计和制造出辨识人脸的方法,就已毒化社会。它需要严格受控,几乎所有实际应用都应该禁止。”
Stark还解释,以数值把人脸特征分类和系统化,这件事本身就是危险的,因为这让政府和公司把人分成不同种族:“这个生物政治管理的过程,就是建立于以数值作为理由来解释某群体是次等的……然后以‘数字的魅力’声称这种次等是‘自然’事实。”
因此,即使Stark承认人脸辨识可有特定用途,例如作为视障人士的辅助工具,但他主张我们必须先设想从一开始就把这科技完全禁止,然后再修改规则允许例外用途,而非立例允许使用这科技,而后再作规管:“为了避免它带来的社会毒素和种族歧视,人脸辨识技术需要被理解它们到底是什么:(它们是)需要特别小心处理的核子级威胁。”
最有偏见是人类
加州大学哈斯汀法学院(UC Hastings)助理教授Veena Dubal在《卫报》撰文主张,只着眼于技术准确率来争论过于狭隘:“即使未来的演算法不存在歧视,人脸辨识软件也难以撇除国家监控在实行和影响上的偏见。事实上,大众强调可以改善演算法不准确的问题,是无视推动三藩市禁令的历史和政治脉络。”
Dubal指出,三藩市的禁令不是只受“反乌托邦”的忧虑所推动,也因为长久以来过度广泛的监控,以及边缘社群在经济和政治上的影响。Cagle曾对他说:“这历史性条例的诞生并非偶然,它背后的推动力是26个组织的团结,这些湾区组织代表了城中那些最受地方政府监察所伤害的人群:有色人种、穆斯林、新移民、LGBTQ群体、无家者。”
Dubal说,这段过度监控的历史至少可追溯至已故FBI局长胡佛(J. Edgar Hoover)在上世纪五十至七十年代的“反间谍计划”(Cointelpro)。当时,有83%的本地情报收集都在三藩市湾区发生,主要从地方警察取得。计划解散后,在八十年代及九十年代初,即使无证据显示有犯罪行为,三藩市警方仍继续根据政治活动收集个人及组织的情报。
“随着有关人脸辨识及‘公共安全’的争论愈趋炽热,政策制订者不应只关注技术本身,也应该想想那些引以为耻的监控历史。即使人脸辨识真的能做到100%中立、没有歧视倾向,但充满明显和隐含偏见的人类将会主观决定如何使用收集到的数据。而人类也会受到不对等、不公正的影响。” Dubal写道。
所以, 推动三藩市人脸辨识禁令的监督委员Aaron Peskin对《卫报》说,三藩市的禁令是既要处理科技不准确带来的忧患,也要阻止恐怖的监控文化:“我们都支持社区有良好治安,但我们不想活在警察国家。说到底,那不只是关于一个有缺陷的科技,而是监控侵扰公众生活。”
上文节录自第166期《香港01》周报(2019年6月10日)《三藩市带头立法禁用 人脸辨识技术再惹争议》。
相关文章:
三藩市带头立法禁用 多地密切跟进监管人脸辨识质疑警方执法受阻 多个组织反对禁用人脸辨识
更多周报文章︰【01周报专页】《香港01》周报,各大书报摊、OK便利店及Vango便利店有售。你亦可按此订阅周报,阅读更多深度报道。
其他【科技.未来】有关人脸辨识文章: