Facebook演演算法如何成洪水猛兽 影响心理健康造成社会分化
Facebook前顾员豪根(Frances Haugen)10月5日出席美国国会听证会,她早前向媒体爆料Facebook漠视影响青少年心理健康及造成社会分化的问题,牵起风波。豪根把其中一部分的问题归咎于Facebook的演演算法,而这演演算法某程度超出了很多人想像的范围。
所谓演演算法(Algorithm)是一种内建的公式,Facebook演演算法最直接的作用,就是为每一名使用者投放合适的推送内容。不论是Facebook,Twitter还是其他的社交与互联网平台,因网站的内容极多,为选择合适的内容显示给使用者,必须有一套公式存在。
最简单的例子,是Facebook会因应使用者使用中文和居住在香港,推荐和香港相关的中文内容,而不是其他地区毫无关系的东西。
不过今天的演演算法并非软件工程师直接“写死”(Hard coding)在平台中,Facebook使用的是经AI学习的演算机械,更准确地说,是软件工程师制作了一个AI,让其自我学习,并写出一套合式的演演算法,负责推送文章。
这个AI会根据使用者观看文章的倾向,从而学习出“甚么人最喜欢看甚么内容”,继而找出相似内容的文章推送给使用者,吸引使用者继续点选观看。演演算法如此推送的目的,是让使用者能长时间逗留在Facebook。
如此运用演演算法的当然不仅Facebook,在其他社交及互联网平台都有类似使用。然而,Facebook使用者数目非常庞大,Facebook不仅得悉每一个使用者来自的地方,使用的语言,还有年龄、阅览时间、浏览互联网的习惯、朋友圈、朋友圈的阅览时间、朋友圈浏览互联网的习惯等等,AI可以根据无数的使用者使用习惯,得出更准确的答案。
演演算法的推波助澜
当得知甚么样的东西最容易吸引人注意的时候,便能理解为何如此的演演算法,会造成今天的问题。人类对耸动的标题、怪奇的现象、骇人的讯息尤为喜欢。而假资讯及散布极端思想的内容,正好就是以这样的方式包装。
当使用者前往Facebook寻找新冠疫苗的副作用资讯的时候,Facebook便可能会为其推荐持疫苗怀疑论的相关文章,继而因应使用者的点选,Facebook会给予更多相关的内容、短片、互联网群组等等。这些内容部分可能有根据,但也有可能是假的,观看的人若无法分办真伪,便可能误信,并因Facebook不停推荐类似的错误内容,而愈陷愈深。
这现象Facebook是知晓的,根据豪根爆料的内部文件和说法,Facebook最少在2016年内部便开始研究这个问题,当年Facebook不仅寄宿了大量极端主义团体,而且还把他们推广给使用者。这些团体中的成员,有64%都是经Facebook的推荐而点选参加。
在2017 年,Facebook成立了一个工作组,以了解最大限度地提高使用者参与度是否会导致政治两极分化,而结论是肯定的。减少两极分化将意味着对参与度造成打击,减少使用者逗留在Facebook上的时间。
更进一步的问题,是Facebook不仅只有英语圈的使用者,如上文所说Facebook有大量华语,以至世上不同语言使用者的使用者。Facebook制作演演算法的AI,已到达登峰造极的境界,对世界任何角落、任何语言、任何文化背景等都了如指掌,都能推荐出使用者喜欢的内容。