来稿|Deepfake呃贷款案敲响警号 创科局须及早筹谋应对AI风险

撰文: 01多声道
出版:更新:

AI(人工智能)技术不断进步,造福人类但同时惹来不少争议。早前热爆全球的Chat GPT引发学术论文造假疑虑,最近本港警方亦侦破首宗以Deepfake AI“换脸”技术,成功骗取贷款的罪案,故对于新科技带来的潜在风险,特区政府绝不可掉以轻心。欧美已积极推动人工智能相关法例,香港被国家定位为国际创新科技中心,笔者建议创科局及早成立专责部门处理AI问题,研究订立新法例应对,同时参考外国针对AI的防伪技术,制定有效策略,以免出事时才急忙找海外专家求救,有损香港希望向国际展示的“创科之城”形象。

来稿作者:丁海澄

Deepfake(深伪)一词大约于2017年出现,是深度学习(Deep Learning)与伪造(Fake)混合而成的单字,意指源自AI的“生成对抗互联网”(Generative Adversarial Network)伪造技术。2017年美国社群网站Reddit上,一名帐号为deepfake的用户张贴了一系列色情影片,透过AI技术将色情影片中的人脸更换为Emma Watson等女明星,自此网络上出现大量仿真度极高的Deepfake假影片。2018年,外媒Buzzfeed以AI技术改变美国前总统奥巴马的演说内容,伪造了一句“President Trump is total and complete dipshit!(总统特朗普完全就是个笨蛋)”,像真得令人吃惊。

其后有人将科学家爱因斯坦的原音重现,有公司推出一款名为“Deep Nostalgia”的网络工具,可让逝去亲人的照片变得栩栩如生,头部能转动,可以眨眼、微笑,慰藉后人的思念之情。当然,科技有正面价值同时必然衍生“副作用”,2019年有骗徒利用Deepfake技术的语音合成方式,成功令英国一间能源公司的CEO,相信自己正与母公司的大老板通电话,顺利骗取22万欧元汇款。

去年台湾YouTuber小玉等人,因利用Deepfake技术将知名网红、明星及名人“换脸”到色情片上,并以此牟利逾千万台币,结果被判刑5年半,但可以罚款代替监禁。台湾其后因应小玉事件修例,但仍被批评未能完全对付到Deepfake技术所衍生的罪行。香港方面,立法会2021年通过订立窥淫罪,但只局限于发布移花接木淫照及“影裙底”等相关性罪行,对于日前侦破的一宗利用Deepfake技术,冒认已报失身份证市民成功网上申请贷款案件,警方也只是以涉嫌干犯“串谋欺诈”罪拘捕6名男女。

可以预见,在资讯流通的香港,无可避免将会陆续出现利用Deepfake技术犯罪的案件,而且不限于制作色情片段或普通呃钱罪行。笔者认为,特区政府必须尽快筹谋出应对AI风险之方法,修订相关法例,例如在《版权条例》加入AI相关条文,加强窥淫罪涵盖范围,甚至参考外国,订定全新法例,针对AI带来的风险,防止Deepfake技术被用来干犯严重罪行。这方面创科局必然是牵头者,而警方的网络安全及科技罪案调查科(CSTCB)也应该参与其中。

其实美国纽约州众议员Yvette Clarke数年前已提出《深度伪造究责法案(DEEP FAKES Accountability Act)》,主要针对Deepfake罪行,涵盖情色、诽谤、造谣、影响公共政策和选举等各式各样的“换脸”行为,但目的并非不准制作散布此类影片,而是制作和流通者必须加上标示或水印,标明影片、照片或音讯是人造的。笔者建议,本港修例或立法时,也可以此为初步目标,这至少可让市民对Deepfake技术的罪行有所警惕。

同时,创科局的官员也应负起教育市民的责任,联同科技专家及警方,制作一些诸如AI罪行“懒人包”,亦可参考台湾行政院政委唐凤一年多前的做法,以“贴地”手法自制Deepfake影片,去警惕公众要小心这种新科技带来的影响,提高市民对不明来源影片要做到“先查证、不乱传”。当然,高层次的工作,则要由更高级别的官员去筹谋,例如前年美国参议院国土安全和政府事务委员会就通过《深度造假专案小组法案(Deepfake Task Force Act)》,建立了一个公私合作成立的团队,提出足以检测数位内容是否伪造的技术和系统,供大众验证资讯真假,以遏止Deepfake技术带来的危害。

水能载舟,亦能覆舟,特区政府应适当管制Deepfake技术的使用,但如何同时确保使用者的创作自由,实在需要仔细研究。笔者希望当局不要只著眼于如何推动AI相关产业发展,或研究建立AI超算中心的可行性,需知道“硬件”以外,“软件”亦同样重要。无论如何,高度重视AI风险,及早应对是当务之急,也是想要成为国际创新科技中心必须面对的问题。

作者丁海澄是90后自由工作者,本科主修酒店管理及旅游业,大学期间曾当逾十份的前线及后勤兼职。文章仅属作者意见,不代表香港01立场。

“01观点”欢迎投稿,来函请电邮至01view@hk01.com。来稿请附上作者真实姓名及联络方法。若不适用,恕不另行通知。