《未来报告》成真?英国司法部被爆料研发“谋杀预测系统”惹争议

撰文: 陈锦洪
出版:更新:

AI 谋杀预测系统|AI的方便程度不用多说,但越AI功能的升级,越来越多人对AI会负面影响人类长久以来的生活模式。英国司法部近日就爆出正在秘密研发“谋杀预测系统”的消息,引发极大关注与争议。其利用大量个人资料,试图分析出谁最有可能在未来犯下严重暴力犯罪。消息曝光后,批评声浪迅速涌现,这就有如Tom Cruise主演的科幻电影《未来报告》中描绘情节成真。

据报导指出,英国政府希望透过这套系统,提升对高风险人士的辨识能力,借此加强公共安全。司法部表示,目前系统仅处于研究阶段,并强调所使用的资料仅限于有犯罪记录者。然而,监督组织Statewatch透过资讯自由法取得的文件显示,这个系统也会处理无犯罪纪录民众的个人资讯,包括曾经自残、家暴受害经历、精神健康状况、成瘾行为、以及与警方的初次接触纪录等敏感资料。这引起外界对于个人隐私被侵害的强烈担忧。

英文司法部和曼彻斯特员警之间的数据共享协定内容

系统运作方式是透过演算法分析大量数据,从受害者年龄、性别、族裔、健康指标等各方面切入,建构一套预测模型。目标是找出潜在的高风险对象,并评估其未来犯下谋杀或严重暴力罪行的可能性。英国司法部发言人指出,此计划的目的是“改善对重大犯罪风险的评估,最终透过更准确的分析保护公众”。

《未来报告》剧照

不过,Statewatch与其他人权团体对此深表忧虑。他们批评,这类“预测犯罪”的系统根本存在结构性偏见的问题。尤其是当资料来源主要来自警方与内政部,而这些机构长期以来就被批评存在制度性种族主义。Statewatch研究员Sofia Lyall直言,这样的系统将不可避免地加剧对有色人种和低收入社群的歧视,因为演算法只会放大既有的偏见,让特定族群在尚未犯罪之前就被标记为潜在威胁。

《Psycho Pass》同样讲类似情况

苏菲亚进一步指出,这套系统运用的资料范围过于广泛,从精神健康到自残行为,乃至个人残障状况,这种对敏感资料的大规模挪用极具侵犯性。她认为,将这些个人问题直接与潜在暴力行为划上等号,不仅无助于预防犯罪,还可能进一步标签化弱势群体,让他们在社会中遭受更多歧视与排斥。

从技术层面来看,犯罪预测演算法本身也充满争议。过往多项研究已显示,这类系统往往无法真正准确地预测个体行为,反而容易出现大量误判。即使技术不断进步,人的行为依然充满变数与复杂性,单靠资料模型无法全面捕捉。尤其是暴力犯罪这类极端行为,往往涉及众多社会、心理与偶然因素,难以简化成数据运算的结果。