【科技.未来】阻止不当内容与自杀 AI协助社交媒体“消毒”
假帐号、假新闻、种族仇恨言论、欺凌、暴力……每一个都是近年社交媒体无法回避的大问题,近期又被指为导致自杀的催化剂,英国一名父亲直指Instagram在这方面的失职是女儿自杀的帮凶。难怪Instagram母公司Facebook本月中发表报告和数字,强调借着不断改善的人工智能(AI),正在移除平台上的不当内容,包括以辨识自杀内容来提供救助。这种应用也见于Google和微博等社交媒体或科技公司。到底AI如何协助防止不当内容扩散?它预防自杀的成效又有多大?
2017年11月,14岁英国少女Molly Russell在生日前六天于睡房内自杀身亡。父亲Ian Russell翻查女儿的Instagram记录后,发现她浏览过大量自杀及自残的照片。今年1月,他公开指摘Instagram为“帮凶”。英国卫生大臣汉考克(Matt Hancock)随即去信Facebook、Google、Twitter等科技公司,警告若无法移除这些内容并订立更好的保护政策,就会采取法律手段。“这么容易便可在线上取得这些内容,实在极之恶劣。我毫不怀疑这些材料会对用户、尤其是年轻人造成伤害。” 汉考克写道。
Instagram在今年2月初宣布,不再允许社交平台存在任何含有自残内容的照片和影片,如𠝹手等。含有痊愈疤痕的图像则不会被完全移除,但却不会再在搜寻结果、主题标签(hashtag)和推荐内容上出现。10月底,Instagram再把禁令延伸至含有自残或自杀内容的绘画、卡通和梗图(meme),进一步禁止宣扬自杀的内容。
自杀信息弥漫社交媒体
根据世界卫生组织资料,自杀是全球15至29岁人士第二大死亡原因,近年愈来愈多人认为社交媒体正是青年自杀潮背后的一大推手,特别当媒体报道自杀案件再经社交平台广传,这种结合尤其危险。Russell之死也非孤例,马来西亚一名16岁少女今年5月在Instagram发问“真心重要,帮我选择,生或死”,69%回应者选“死”,之后她就自杀了。
今年4月,美国维珍尼亚联邦大学(VCU)媒体及文化学院教授Jeanine Guidry及其团队在《健康通讯》(Communication in Healthcare)发表了一项研究,发现Instagram上提到有关自杀的帖文或展示了相关图像,比其他内容有更高的互动(engagement)。宾夕法尼亚大学青少年沟通研究所研究总监Dan Romer的团队在5月发表研究报告,探讨Instagram上的自残影像如何影响逾700位18至29岁年轻人。他们发现,有60%人在看过这种照片后一个月内想像过自残,而且受访人士中只有20%主动在Instagram搜寻过自残相关内容,换言之,大部份人都是意外看到这些内容的,平台本身看来责无旁贷。
自杀相关的行为似乎也同样猖獗。英国非牟利反欺凌机构Ditch the Label在2017年的调查显示,42%受访青少年用户表示曾在Instagram上经历欺凌,是研究中各社交媒体之冠。难怪Instagram行政总裁Adam Mosseri今年7月在网志上表示:“在预防Instagram上的欺凌,以及让被欺凌目标更有能力为自己站起来,我们可以做得更多。”
Facebook亦在9月初的网志声称会采取行动预防青年自杀,社交平台“不再允许自杀影像”,以防止非故意地宣扬自杀,又表示旗下的Instagram将会“更难搜寻到这类内容,并且不会在Explore功能中推荐”。Instagram补充,主动分辨和移除不当内容是重要的措施,因为很多被欺凌者都不会自行举报,而这有助对那些不断发表攻击性内容的用户采取行动。
两周前,Facebook发表了《社群标准执法报告》,强调正不断移除平台上的不当内容。在今年4月至9月期间,Facebook移除了逾32亿个假帐号和1,140万则仇恨言论。同一时期内,Instagram移除了120万则儿童裸露及性剥削内容。Facebook也把自杀和自残归为新的不良内容类别,期内分别在Facebook主平台和Instagram移除了450万和160万则这类内容。值得一提的是,在今年第二和第三季,Instagram上分别有77.8%和79.1%自杀内容在用户检举前就已被AI侦测到。
不过,有人批评这些措施来得有点迟。英国防止虐待儿童协会(NSPCC)行政总裁Peter Wanless说,Instagram采取了“重要一步”,只是,“根本不应等到Molly Russell自杀才令Instagram行动。过去十年,社交网络一再证明他们没有做足本分。”美国雪城大学传播系助教Jennifer Grygiel也批评Facebook疏忽:“自杀高危者不会安全,除非Facebook更严肃负起作为全球企业和传播平台的角色责任。这些应该是很多年前就要有的改变。”
及时拯救潜在轻生者
Facebook和Instagram的成果是依靠AI。Facebook早年依靠用户检举不当内容,再交由人类审查员(moderator)评估并决定是否删除。但在过去五年,Facebook建立了一支由数百位机器学习专家、工程师和数据科学家组成的团队,开发演算法来自动辨识不当内容。技术总监Mike Schroepfer说,在2014年前仍很不可靠的图像辨识技术,现时已“惊人地好”;而在2017年针对仇恨言论而引入的语言理解也正在进步,尽管成果仍属初期。
在同年11月的网志,Facebook介绍了如何使用AI在可能含有自杀内容的帖文或留言中找出规律。例如“你还好吗?”“我可以帮忙?”之类,都可以反映出用户有自杀想法。Romer认为Facebook使用AI无可厚非,“因为这些内容实在太多。”而AI可以大大减轻Facebook现有人类审查员的工作量,减轻这些廉价合约工每天审查各种暴力、裸露、自残等令人不安的内容所承受的精神压力。
Instagram使用了Facebook名为DeepText的AI工具,那是设计来理解和解读用户所用的语言。Instagram最早在2016年开始用这工具来寻找垃圾讯息,翌年训练它来找出和封锁攻击性留言,包括种族性辱骂。到去年中,Instagram用它来找出留言中的欺凌内容,同年10月再扩展至照片。人类审查员要预备训练数据来教导机器,他们分辨了数以十万则内容是否含有欺凌成分并将之标签,再输入到一个分类器(classifier)让机器学习。这些起初数据固然不足以让它轻易应对往后所有情况,但随着它尝试分辨和检举,再由人类审查员把关判定,准确率就会不断提升。
现时有三个分类器扫描Instagram上的内容,分别分析文字、照片和影片,实时侦测,每小时举报内容一次。虽然分类器对于照片和影片较为乏力,而分析检举内容的工程师和审查员仍在寻找规律,但已发现一些端倪。例如,分割的画面较多牵涉欺凌,尤其是当机器能侦测到一边是人类、另一边是动物。一幅有三个人、其中一人脸上画了一个红色大交叉的照片也很有机会涉及欺凌。有没有用滤镜也是提示,因为欺凌者一般较少会“美化”这类行为。Facebook产品管理总监Catherine Card在去年9月的新闻稿中解释:“它还会看帖文下的留言。被判定为有迫切伤害的严重案件,倾向会有留言如‘告诉我你在哪里’或‘有没有人有他/她的消息’之类;而较不严重的情况,留言则较多为‘随时找我’或‘我一直都在’之类。”
上月,Instagram建基于这AI辨识推出两项新功能。其一是留言警告,例如当用户发帖或留言时输入欺凌或仇恨内容,就会弹出提示:“你是否确定要发表?了解更多。”若按“了解更多”,就会出现另一提示:“我们希望大家重新考虑,是否要发表一些类似于其他人检举过的留言。”用户可以不理这讯息而坚持发表,不过,Instagram在初期测试中发现,“当他们有一个机会反思,有些人会取消原本的留言,并发表较不具伤害性的内容。”
与之配合的是“限制”(restrict),可让被欺凌的用户在毋须封锁他人的情况下过滤不当留言。“我们从年轻人得知,他们不太愿意封锁、取消追踪或检举欺凌他们的人,因为它只会令情况恶化,尤其是当他们仍会在真实世界中遇上欺凌他们的人。这些行动也会令被欺凌者较难追踪欺凌者的行为。” Mosseri说。当用户被限制后,他们的留言就只有自己能看到,最重要是被限制的人不会知道自己受某人限制,也不能知道限制他的人是否在Instagram上线,或是否已读他们的私讯。
其他热门社交平台和科技公司,也陆续出现了类似的AI应用来阻止不当言论和宣掦自杀的讯息。荷兰阿姆斯特丹自由大学(Vrije Universiteit Amsterdam)AI学者黄智生在去年成立“树洞救援队”,迅即获几十名同行和医护人员加入。他研发的程式监察微博上的“树洞”,即年轻人留言说心事的热门之处,解读字词找出意图自杀的用户,然后分为10级的自杀风险。6级以下一般都只是发表一些厌世文字,6级或以上就会传送警号至救援队,9级和10级分别代表有明显自杀意图和正在试图自杀,这时救援队就会报警或通知亲友。据英国广播公司(BBC)报道,他们在过去约一年半内阻止了近千次自杀行为,去除重复案例,救回逾700名轻生者。
加拿大麦基尔大学(McGill University)研究员以人气论坛Reddit上特定群体如何以特定字眼针对女性、黑人、肥胖人士等,来教导演算法侦测仇恨言论。领导研究的Haji Saleem解释:“我们发现,需要为不同的仇恨言论目标设立独立的过滤器。”研究声称这演算法比起单纯训练成找出关键字的工具更准,而且能找到较不明显的不当言论,例如使用“动物”之类的字眼。
至于另一互联网巨头Google,虽然现时用户若搜寻某些与自杀方法相关的字眼,搜寻结果都会当眼地显示防自杀机构的救助电话,但作用有限。今年5月,Google向非牟利组织Trevor Project提供了150万美元,后者专门向LGBTQ青少年提供咨询,包括电话、短讯和即时通讯平台。他们计划以机器学习改良文字短讯和即时通讯。Trevor顾问咨询会以问题“发生什么事?”来开始。AI会按照青年与辅导员展开对话的问答,以及对话结束后辅导员的风险评估,透过比较两项数据来学习,最终目标是AI从致电者对起始问题的回答就能辨别出高危人士,并立即连接至真人辅导。
继续阅读︰
相关文章︰
上文节录自第190期《香港01》周报(2019年11月26日)《阻止不当内容与自杀 AI协助社交媒体“消毒”》。
更多周报文章︰【01周报专页】
《香港01》周报,各大书报摊、OK便利店及Vango便利店有售。你亦可按此订阅周报,阅读更多深度报道。