人工智能寻找有可能自毁者 Facebook设轻生警报系统是好是坏?
人工智能是否可以帮助减少自杀个案?2017年初,Facebook网站上出现数段“直播自杀”的影片,令Facebook饱受舆论批评。过了一段时间后,该公司决定在全球多地展开大型“反自杀”计划,就是设立自杀警报系统,利用人工智能侦测有可能轻生的用户,然后及早通知警方,希望拯救他们。
Facebook指称,自系统使用以来已有数以千计的个案。不过也有专家认为,此机制同时带来私隐、治安和医疗上的负面影响。
世界多地的警局在过去18个月,都分别收到来自Facebook的类似自杀警报,指出有人在网上发布自杀相关的帖文和片段,希望警方出动“救人”。在Facebook面临美国、加拿大和欧盟的有关用户私隐的调查之际,这网上平台又增加了一个“精神痛苦仲裁者”的角色。
AI运算贴文自杀风险分数
Facebook在2018年9月公布“自杀风险分数系统”(suicide risk scoring system)的运作流程图。公司称要建立一套认知系统,让电脑可自动运算与自杀有关的留言和贴文字眼等。如果电脑发现帖文的自杀风险属高分水平,便会通知人手检阅员,由他们决定是否需要联络警方协助。
Facebook行政总裁朱克伯格(Mark Zuckerberg)2018年11月曾表示,这系统使救援人员迅速协助有需要人士,包括全球约3500人。事实上,Facebook的机制和派驻警局的员工也确实成功透过监察“直播自杀”的影片,协助警方找出自杀者的所在地,试图防止悲剧发生。
然而有心理健康专家认为,Facebook的机制让员工直接联络警方出动,可能令本无意图自杀,或只想引人注目的人士被迫接受精神病评估,甚或被捕。
法律学者马克斯(Manson Marks)在即将刊于《耶鲁法律杂志》(Yale Law Journal)的文章指出,Facebook的自杀风险评分软件和联络警方的做法,有可能令部分事主被迫强制接受精神病评估和接受药物治疗。
专家:负责员工资历认证成疑
马克斯12月20日在《华盛顿邮报》发表文章指,Facebook没有透露负责项目的员工接受了什么培训,也不清楚他们拥有什么资历和牌照,亦不知他们以什么准则去判断是否通知警方。
他认为,把防止自杀的人工智能(AI)技术与预防的做法连系起来,令人感到不安。他指出,派出警员进入民居是需要有非常高的门槛。
他又质疑,部分与健康照料工作无关的私人公司竞争开发预防自杀的科技,把它当作专卖的交易秘密,但由于现时并无相关监管,这或令人们的私隐、安全和自主,甚至这个工具本身陷于风险。
(纽约时报/华盛顿邮报)