【科技.未来】防伪研发竞赛展开 单靠科技足以打击深度造假?

撰文: 孔祥威
出版:更新:

当deepfakes假得愈来愈真,人脑记忆又不可靠,一些科学家和初创正研发技术应对。但是,单靠技术,又是否足以杜绝假影片、假新闻?

虽然deepfake愈来愈逼真(前文:【科技.未来】Deepfake假得迫真 深度造假模糊真相什么才可信?),但并非毫无办法揭穿和辨别它们。加州大学栢克来大学(UC Berkeley)资讯学院教授Hany Farid在过去二十年一直研发法证科技判断图像真伪,最近更成功监察影片中人物的一些极细微变化,例如脸孔会随血液流通而变色,这是deepfake现时未能做到的。但其同事 Alexei A. Efros 的学生Jacob Huh指出:“问题是若你能辨认deepfake的漏洞,你就能修复它。”

理论上,造假者只要取得识别方所用的网络,加到其GAN作为鉴别者,就能生成出避过“法眼”的deepfake。Farid担心愈来愈难单靠辨认技术上的改进揭穿deepfake,因为会被机器学习的速度追上:“以往鉴别技术领先造假技术约两年,但现时只有两至三个月。”他曾撰文建议,研究人员需保密其最新技术一段时间。

Farid认为,像钞票般定下大量辨认指标将有利于deepfakes鉴别一方;但他也担心,辨认技术上的改进,将被机器学习的速度追上。(电影《无双》剧照)

其他界别亦争相研发防伪技术。美国国防部国防高等研究计划署(DARPA)的Media Forensics计划正创造一套自动系统,以三个层次分析真伪:第一层寻找图片的电子指纹,例如某种相机型号独有的杂讯或压缩痕迹;第二层看物理上有没有错误,例如不合理的光线、反光;第三层则是影像的“语境”,例如检验天色,分析一条声称是某日某时某地的足球比赛影片,是否与当天天气和时间脗合。

美国初创公司Truepic则研发了手机应用程式,用它拍摄的照片将自动上传到其伺服器并加密。Truepic行政总裁Jeffrey McGregor解释:“只要对比手机位置、气压感应器、附近发射站等数据是否脗合,就可知照片真伪。”最近便有叙利亚民众以Truepic记录内战惨况,被半岛电视台用来制作新闻片段:

现时Truepic的最大客户是保险公司,负责验证客户水浸车或风灾爆玻璃是否属实;哈萨克一间建筑公司亦用来给员工上下班自拍打卡。McGregor希望扩展至任何有“信用空隙”的行业,例如租赁物业、网上相亲等,最终达致“在光子进入镜头一刻就开始验证”。

英国初创公司Serelay所用的方法与Truepic类似,但Truepic因怕用户在某些情况下需要删除敏感照片而备份,Serelay则希望消除用户对私隐的疑虑,故不会像Truepic般储存整张照片到伺服器,而只储存该照片的“数码指纹”。

Serelay可辨识出,原图(左)中的LGBTQ彩虹旗被修走了(右)(Serelay官网示范图片):

这场真假角力仍未知鹿死谁手。Farid分析,定下大量辨认指标将有利于鉴别一方,因为这样deepfake就要像造假银纸般模仿水印、凸字、变色墨水等防伪特征,凭deepfake现时的算法难以做到。但伪造者在发布上有优势,例如网上曾有一条老鹰叼起小孩的影片,即使被揭穿为伪造,仍有数以千万浏览量。

社会氛围散播阴谋

由初出现时令人感到“哗,这真厉害”,到现时变成“天啊,这将破坏民主”,deepfake的发展迅速令Farid感到惊讶。Efros认为这是影片的缘故,如果是图片就无人理会。

Farid忆述,很多年前他撰写了一篇论文——关于Lee Harvey Oswald一张广为人知的照片:Oswald站在自家后院,用手握着他后来用于刺杀美国前总统肯尼迪(John F. Kennedy)的步枪。

Lee Harvey Oswald广为流传的照片,一直被阴谋论者认为是伪造照片。(Wikimedia Commons)

不少阴谋论者一直认为这张照片是假的,虽然可疑之处甚多,但Farid以3D模型发现其实只是光线问题,疑点皆可解释。“面对阴谋论,我也成了阴谋的一部分。最初只是我,后来我爸在电邮跟我说,有人把他也当成阴谋的一份子。我爸是柯达(Kodak)的化学研究员,而柯达研发了Abraham Zapruder(拍下了肯尼迪遇刺录像)所用的器材。”

因此,即使Farid正致力研发新的辨识方法,他认为新科技并非解决deepfake危机的最终答案。他分别对《卫报》和《纽约客》说:“问题不止在于deepfake技术愈来愈好,而是整个社会共同认识事物和判断真伪的过程受到挑战”,“我们固然需要科技上的解决方法,但我不认为它们能完全解决问题。我认为这是社会的问题,是人的问题。”

经社交媒体催化,网络充斥假新闻。图为上月底一名示威者在英国伦敦国会外,要求Facebook创办人朱克伯格(Mark Zuckerberg)处理假新闻乱象。(视觉中国)

Farid所说的“人的问题”,可能包括deepfake会与假新闻一样,经社交媒体催化,如病毒般迅速扩散。美国麻州理工学院曾研究2006至2017年间在Twitter上散播的虚假内容,发现不论任何类别,假的资讯却比真的内容传得更远、快、深、阔,重推(retweet)比率高达70%,触及的人数多至1,500,传播速度快6倍。Farid批评:“这些公司的商业模式只为营造注意力,是一种毒药。”

这种现象或呼应了一些科学家对人类记忆演化的假设:我们容许虚假记忆的存在,可能因为有助我们在群体中产生一致的真实感。纽约The New School的集体记忆研究专家Bill Hirst解释:“所有记忆扭曲都让我们创造出一个共享的记忆,这段共享记忆让你和我产生共同的观点,从而增加集体身份认同。”

外国曾有90后集体记错童年回忆电影《Shazaam》,并否认因绰号Shaq的NBA球星奥尼尔(Shaquille O'Neal)主演电影《Kazaam》而记错,坚称真有其事。(Amazon图片)

《新政治家》(New Statesman)在2016年曾报道一宗网络奇闻:2009年,有网民在网上问是否有人记得九十年代初有一出由美国谐星Sinbad主演的电影《Shazaam》。当时没有人有印象,两年后才有Reddit网民说有这出电影,但大部人仍抱有怀疑。

直到2015年,一篇有关“曼德拉效应”的报道在网上广泛流传后,电影再次成为Reddit网民讨论对象,很多网民表示清楚记得有这部电影,又说记得Sinbad打扮成精灵的模样。然而,这部电影根本从未存在过,但不少网民拒绝相信这一事实,甚至有网民得知真相后说“觉得自己童年的一部分被偷走了”。

Frenda认为,Reddit本身就是这种曼德拉效应的源头,社交媒体令相似的人聚在一起:“而任何方式的证实都会强化你对某件事的记忆,不论它是真是假,也强化了你对记忆的信心。”结果,这群坚信《Shazaam》存在的网民共同构成了虚假的记忆。

演员Sinbad在Twitter发文笑称,干脆真的拍一套《Shazaam》来终结这场网络流言:

弄假成真、水落石出?

deepfake令未来危机四伏,但Farid的经历或可给我们带来一丝希望。他在2011年接到一名父亲的电邮,请求他帮忙替其子缉凶。那个儿子三年前坐顺风车时,不知为何遭车内的人枪杀。附近的监视器虽然拍到儿子走近汽车,但镜头像素极低,凶手样貌、车牌都十分模糊,Farid当时也爱莫能助。

几个月后,Farid忽发奇想,用同款的镜头拍摄大量车牌照片,虽然像素低,但或许能从中看出规律。然而,车牌模糊的原因还受字形、光线、车牌设计等多种因素影响,可能需要数以百万计的图像才找到规律。Farid于是叫他的学生在校园内拍摄了数百张车牌照片,然后用他自制的生成模型,几星期后合成出几千万张独一无二、极为逼真的车牌图像。

然后他们训练神经网络解读模糊的车牌影像,成功锁定车牌最后三个数字。今年夏天,警方凭Farid的推算结果收窄搜查目标,最终发现与目标车辆有关的其中一人涉及另一宗罪案,终让这宗悬案有了新进展。

“假”到极致,原来也可能导出真相。

上文节录自第140期《香港01》周报(2018年12月3日)《“深度造假”崛起 还有什么可相信?》。

更多周报文章︰【01周报专页】《香港01》周报,各大书报摊及便利店有售。你亦可按此订阅周报,阅读更多深度报道。