【科技.未来】社交网络以AI“消毒” 但AI可判断“不当”内容?
假帐号、假新闻、种族仇恨言论、欺凌、暴力……每一个都是近年社交媒体无法回避的大问题,近期又被指为导致自杀的催化剂,英国一名父亲直指Instagram在这方面的失职是女儿自杀的帮凶。难怪Instagram母公司Facebook本月中发表报告和数字,强调借着不断改善的人工智能(AI),正在移除平台上的不当内容,包括以辨识自杀内容来提供救助。这种应用也见于Google和微博等社交媒体或科技公司。
然而,机器学习大大受限于其训练数据的多寡和准确性。例如Facebook曾辩称没有足够第一身射击影像,让其演算法辨识今年3月新西兰基督城清真寺枪击内容。非主流的语言也是另一问题。去年,Facebook被指消除针对罗兴亚人的种族仇恨言论时反应过慢期,其安全作业副主席Guy Rosen坦言需在缅甸做得更好,但没有太多缅甸语的内容作训练数据。虽然Facebook现时会把一些关键审查字眼以不同语言侦测,但英国智库策略对话研究所(ISD)行政总裁Sasha Havlicek对《金融时报》表示,这系统仍比较擅长侦测恐怖分子所用的某些语言,例如ISIS或盖达组织所用的。Havlicek认为这意味着“互联网公司仍未跟上极右派的挑战”。
而且,人类的语境或许不是AI可以轻易掌握的。Card坦承:“分析人类语言的细微差异十分复杂。团队面对的一大挑战是,很多可能表示自杀意图的字词,例如‘杀’、‘死’、‘再见’,都常见于其他语境。人类或许能辨认出‘我工作多到想死’未必定是真的想寻死,但你又如何教导机器理解这种语境?” Facebook认为AI总要有人类为它把关,“大家很多时会视之为人类与机器的对立,我却认为是‘人类扩张’。”Schroepfer说。
况且,这些不当言论和行为即使在现实世界中,也未必有一致看法和定义。正如《时代》杂志指出,在过往一些有关网上欺凌的研究中,受访者有否感受到欺凌的差异可以大到从5%到72%不等。主要原因就如Instagram公共政策主管Karina Newton所说:“欺凌之所以难以解决,是因为人人定义不同。”
欺凌的方式也会随时日而变。现时,Instagram上有大量所谓传统欺凌行为,当中凉薄留言、侮辱和恐吓最为常见。一些不当字眼很容易被Instagram的文字分类器察觉,但潮语会不断改变和因文化而异,尤其是青少年文化。用户也发现他们受到语言以外的欺凌。例如,在Instagram上有不少所谓“仇恨专页”,即一些匿名帐号设立来只为冒充或取笑某人:某男友或会在一则显示他与其他女性在一起的帖文中故意标签前度;某女生可能会在一则帖文中标签了大堆朋友而故意遗漏某人;又或把别人的照片截图下载,修改后在群组间疯传取笑;甚或在某人上载的照片中重复留下同一个表情符号来达到某种跟踪骚扰效果。
这些不当使用的用户也不会坐以待毙。Facebook表示,考虑到有人会修改本来想发布的不良内容来避过审查,所以叮嘱在不同地区的人类审查员时刻留意各种新手法,以加强外部合作。例如阿拉巴马大学伯明翰分校(UAB)正协助他们跟上毒品的各种新颖叫法代号。Schroepfer解释:“其实这是一场对抗游戏。对手们会交换各种窍门和技巧,例如只要以某种方式剪片、加个外框,就可避过审查而发布。”
为建立真正有效的AI,Instagram正大量访问用户,希望从他们的角度了解各种可能出现的欺凌形式。Newton说,其公司将意图“骚扰或羞辱他人”列为广义欺凌内容。首席工程师Yoav Shapira的团队再细分为七大类:羞辱、耻笑、恐吓、身份认同攻击、不尊重、非愿意接触和背叛,希望最终建立一个经训练后能理解每个概念的AI。
Facebook这种善意得到纽约大学朗格尼医学中心生物伦理部门创办人Arthur Caplan赞赏,但他提醒:“不论是Facebook还是其他公司,我们不肯定他们有多可信、可保障多少私隐。这带出更阔的问题:到底我们是否对大型社交媒体有足够的监察?即使他们想做好事,不等于他们做得对。”例如史丹福大学生物医疗伦理教授David Magnus解释,现时多数科技公司都不在美国联邦监管人体研究的“通例”(Common Rule)监管范围内,不是《健康保险便利和责任法案》的涵盖机构:“因此,他们不需要达到现有对于医疗资讯所要求的保密性。”耶鲁大学法学院资讯社会计划访问学者Mason Marks更主张,Facebook的自杀评分系统、致电警方,令用户最终或会接受自愿精神评估的做法,足以被视为医疗行为,政府理应监管,要求Facebook提供安全和有效的证据。
至于社交媒体可以预防自杀到什么地步,有些学者就质疑他们没有触碰到问题核心,即演算法如何向用户呈现内容。哈佛大学肯尼迪学院科技与社会转变研究总监Joan Donovan解释:“这些演算法被设计为向你显示它们认为你最感兴趣的内容,令你更久地留在平台。这样,它们就倾向显示新奇古怪的内容。”Havlicek也同意,她补充:“这根本不是公平的竞争。若放大极端讯息的结构失衡早已存在,这是毫无意义的。若不处理放大极端主义背后的技术架构,那就没有方法可以战胜。”
更根本的是,演算法无法触及造成欺凌或自杀的更深层原因。法国社会学大师涂尔干把自杀分为自我本位型、利他型、失序型、宿命型,各有复杂的个人与社会互动成因。事实上,树洞救援队成员、北京心理咨询师李虹就发现,不少树洞轻生者的共通点是患有不同程度抑郁症,而社会对抑郁症的忽视无形中促成自杀。而且,在拯救了轻生者后,还要花时间长期聊天,甚至帮助解决现实生活困难,一些没有真正解决源头的,获救之后又会再自寻短见。终究,有份开发的Facebook工程师Dan Muriello也坦言:“我们不是医生,也不是在尝试作精神健康诊断,只是想尽快把资讯传给合适的人。”
相关文章︰
上文节录自第190期《香港01》周报(2019年11月26日)《阻止不当内容与自杀 AI协助社交媒体“消毒”》。
更多周报文章︰【01周报专页】
《香港01》周报,各大书报摊、OK便利店及Vango便利店有售。你亦可按此订阅周报,阅读更多深度报道。