【科技.未来】deepfake沦为政界新武器 或成美国大选隐忧?
今年5月,一条影片在美国的社交媒体上疯传,仅在Facebook就录得数百万人次观看,连美国总统特朗普的私人律师朱利亚尼(Rudolph W. Guliani)也急不及待在Twitter转发。影片中,正在演讲的美国众议院议长佩洛西(Nancy Pelosi)说话结巴,咬字含糊,情况引人质疑。原来这条影片经过刻意篡改。美国明年将会举行总统大选,今次事件再次敲响了假新闻可能左右选举的警号,尤其是使用人工智能(AI)、更为像真的“深度造假”(deepfake)影片日益容易制作。一方面,科学家正努力研发各种辨识deepfake的技术;另一方面,美国国会在Facebook拒绝删除该条影片下,首次召开听证商讨规管之法。到底这场打击deepfake之战,可以如何获胜?
在这条经篡改的影片中,佩洛西于美国进步中心(Center for American Progress)一场会议上发言,不少人看过影片后怀疑佩洛西是否饮醉,或是有什么原因导致她思绪和神志不清。朱利亚尼在Twitter转发时更在帖文写道,“佩洛西是否有什么问题?她的说话方式很古怪。”
特朗普本人曾在Twitter转发《福克斯财经》(Fox Business)的新闻节目剪辑,该节目引用了另一条佩洛西会晤传媒的影片,片中的她同样被篡改成口齿不清,特朗普更在帖文说:“佩洛西在记者会上口吃。”
纽约州立大学奥尔巴尼分校(University at Albany, SUNY)计算机科学教授吕思伟解释,该段假影片加强了低频声音,并保留佩洛西的说话内容及外表,因而有效造成错误印象:“改动十分轻微,我认为这是假消息、假媒体其中一个最危险的部份。”
逼真度高 特朗普也转发
事实上,该段假影片并非使用先进AI技术的deepfake,只是改成以75%速度播放,便成功让佩洛西变得“口齿不清”。
Deepfake指一些利用“深度学习”(deep learning)制作、像真度极高的虚假(fake)影片,大多数会把片中人的说话或动作改成他没有说过或做过的事,以用于二创恶搞、电影美术、讽刺,甚至恶意中伤或色情片等等,带来的影响可大可小。
Deepfake使用生成对抗网络(Generative Adversarial Network,GAN)的AI技术制成,原理是运用两个神经网络,其中一个用作生成假影片,另一个辨识其真伪,如此来回训练和学习,最终便可制作像真度极高、甚至真伪难辨的假影片。当deepfake结合社交媒体后,更衍生了一种全新和极速散播假消息、假新闻的手段。
加州大学柏克莱分校(UC Berkeley)计算机科学家Hany Farid指出:“二十年前,我们在法庭上已对虚假内容表示担心。但当时我们没有想过它会在YouTube、Twitter和Facebook直播”;“那段佩洛西的影片一点也不好玩,是刻意中伤她,务求引起混乱,而它成功了。”
美国众议院特别情报委员会主席希夫(Adam Schiff)亦警告下一波假消息的威胁将会来自deepfake:“这条针对佩洛西、技术粗糙的影片(cheap fake)连总统也在Twitter发文分享,是一个警号。”
上月中,众议院情报委员会召开听证会,分析deepfake对国家及选举安全构成的风险。委员会从大学及智库找来了多名专家组成小组,研究和筹备应对deepfake的策略,以引导政府和社交平台订立新规范。委员会在一则声明中表示,听证会的目标是要“审视透过AI技术制作的虚假内容对国家安全的威胁,并研究可以如何侦测和打击,以及公、私领域与社会整体应如何行动,以在步入‘后真相’的未来,避免这个严峻的潜在危机”。
马里兰大学法律系教授Danielle Citron在会上描绘了一种可能发生于私人公司的情况:“试想像在某公司的IPO(首次公开招股)前一晚,一段deepfake影片出现,内容显示公司的行政总裁犯罪,若这段deepfake影片广为流传,就会导致公司的股价下跌,并损失大量金钱。片段可能在几日后会被拆穿,但那时已造成了伤害。”
令希夫最担心的,是deepfake很可能会左右美国明年总统大选的结果,他对有线新闻网络(CNN)说:“在2016年选举期间,我最担心的是俄罗斯会在真文件中夹杂假文件发放,或更差的是在真电邮中加入几段假段落,这仍然是2020年总统选举的一大隐忧,但另一大隐忧是,他们有可能使用deepfake。不论假消息从何而来,都反映出网络对民主的干扰升级,变得愈加危险。”
2020大选恐噩梦连连?
“考虑到2020年(总统选举)即将到来,你不需要很好的想像力,也可以预见更多噩梦般的情况,让政府、媒体和公众难以分辨什么是真、什么是假。”希夫在听证会上举出一些可能情况:例如一个由国家机器支持的人制作deepfake影片描述某参选人受贿;在两国元首没有会面下,却流出了刻意伪造的绝密私下交谈录音;一个“巨魔农场”(troll farm,指故意在网上发表恶意和充满挑衅性言论、从而制造冲突和破坏的组织)以文字生成演算法撰写不实或煽动性新闻故事,并大举充斥社交媒体平台。希夫5月在洛杉矶一场活动上又警告,外国势力或美国本土的政党完全可以在选举前几星期才在社交媒体发放真伪难辨的声带或影片,从而左右选情。
希夫这种担忧有一定根据,在过往的美国总统选举中,虚假或经篡改的影片“发挥”了重要作用。例如2016年广传了一段经剪接的希拉里(Hillary Clinton)影片,让人以为她在竞选时身体不适,更引来一些“专家”误称她有脑损伤或其他问题。
Deepfake甚至影响一些国家的政局。去年在中非加蓬共和国,久未露面、因而遭猜测身患重疾甚至已过世的总统Ali Bongo拍摄了一段影片澄清谣言,但该影片却被政敌质疑是deepfake,军队更以此为由,在数天后发动军事政变,意图夺权。
更为关键的是,假影片不需做到毫无缺憾,仍可以在网上疯传。机器学习实验室Fast.ai共同创办人Rachel Thomas指出,以现时网络的性质,使用deepfake影片的假消息活动或会很快收效,因为耸人听闻的内容才有更多观众,会比真相传得更快更远。“假消息通常不需要很具说服力,仍能有影响力,尤其是当下。我们是社会动物,最终都会聚到人群中,看看其他人在看什么。坏分子要影响公众的对话内容不是太难。”去年,白宫新闻秘书桑德斯(Sarah Sanders)分享了一段CNN记者Jim Acosta貌似向一名见习生动粗的影片,白宫因而取消Acosta的白宫通行证。但仔细检查后,发现影片经修改,夸大了Acosta的动作。
乔治华盛顿大学网络及国土安全中心高级研究员Clint Watts补充:“最令我担心的观众不是社交媒体上的年轻人,而是最近才接触这些科技的老一辈。”
更深层的影响是,影片很可能会无法成为真相的来源。希夫担心deepfake会制造一种效果,让人可声称内容真实的影片是伪造的,或者经簒改的片段是真实的:“在这种情况下,人们只会相信心仪或支持的政党才是真相来源,这对于民主极为危险。”这现象被Citron和得州大学法律系教授Robert Chesney称为“说谎者的红利”(liar's dividend),即deepfake“可以让说谎者更容易逃避对于真实发生过的事件负上责任”。
相关文章:制法容易上手 deepfake层出不穷社交媒体卸责 如何打击deepfake
上文节录自第169期《香港01》周报(2019年7月2日)《威胁日增 美向Deepfake开战》。
其他Deepfakes及人工智能文章:Deepfake假得迫真 深度造假模糊真相什么才可信?防伪研发竞赛展开 单靠科技足以打击深度造假?
更多周报文章︰【01周报专页】《香港01》周报,各大书报摊、OK便利店及Vango便利店有售。你亦可按此订阅周报,阅读更多深度报道。