DeepNude App一键伪造迫真女性Deepfake裸照 被批侵犯私隐即下架
Deepfake是“deep learning”(深度学习)和“fake”(伪造)混合字,专指以AI人工智能运作的人体图像合成技术,比Photoshop手动改图移花接木更迫真。色情Deepfake作品自2017年开始于网上普及,不少是“Key样”的虚假名人性爱片或报复性色情媒体。就算非色情,也容易被政客、好事网民或传媒炒作假新闻和恶作剧,构成严重侵犯私隐的问题。“有图无真相,眼见未为真。”面对改图软件愈来愈发达,这两句话或是不少网民的共识,尤其今日Deepfake色情影片成行成市,有片都未必有真相。
化名“Alberto”的应用程式开发者近日推出一款AI改图App“DeepNude”。只要在该程式载入一张全身女性相片,就能极速利用以神经网络为基础之AI人工智能,伪造出超逼真的裸照。用家提供的原始照片裸露皮肤面积越大,伪照便做得越准确真实。该App不仅推出了含水印的免费版及50美元付费版(无水印,但有大大个Fake字标记) ,还提供了网页版、桌面下载版予Windows及Linux的电脑用家使用。
Deepfake App“DeepNude”运作机制:
外国网媒《Vice》旗下《Motherboard》记者以几十张照片测试DeepNude效能,发现该App在《运动画刊泳装特辑》(Sport Illustrated Swimsuit)的性感清凉比基尼写真上发挥最好,足见相中女性身上越少布便越易修改。应用在男性照片时,下体会被换成女性阴部。DeepNude并非万能,低解像度的照片经修改后,还是有AI拼贴合成的痕迹。当输入卡通人物照片时,影像更完全扭曲。
DeepNude收费版改图成品范例:
《Motherboard》电邮访问了开发者Alberto,他指出DeepNude基础为开源(open-source)演算法pix2pix,是加州大学伯克利分校的研究人员于2017年开发。基本原理也是深度学习,他们使用生成对抗网络(GANs),在巨大的图像资料库集上训练演算法。而应用于DeepNude的pix2pix则使用超过10,000张女性裸照来训练。Alberto表示演算法目前仅适用于女性,因为女性裸照容易在网上收集,他也希望创建男性版DeepNude。
Alberto强调自己是个“科技爱好者”而不是偷窥者,受到对AI人工智能的“好奇心、乐趣和热情”激励而设计DeepNude,亦想借此“实验”获得经济回报。DeepNude创作灵感来自上世纪60至70年代出版之漫画离志上刊登的“X光眼镜”广告,它们声称可以让人看透衣服。Alberto两年前得知GAN网络可白天照片变成夜间照片,便意识到可以将著衫人相变裸照,就像那些透视眼镜。肯定了人工智能的潜力后,他著手钻研基础知识。
以Deepfake AI演算法生产的媒体在网上经已非常泛滥。很多好事的网民在未经当事人同意下使用女性照片做色情素材,或恶意散布虚假的色情内容弄假成真,随便在搜寻器输入“Deepfake KPOP”都会出现成千上万女星假AV片,无疑伤害了不少女性。此门本来中性的IT技术也成了帮凶,更何况DeepNude用家不需要识得编写演算法程式也能轻易使用,毫无技术门槛,可在弹指之间交出成品,令女性更难保护自己。Alberto对网媒《The Verge》表示如果他不先做,别人也很快做出类似的App,因为相关技术已经存在,人人可以触及;但他不忘“戴头盔”说如发现该App被滥用,开发团队“一定会放弃它”。
DeepNude甫推出已受千夫所指。反“色情报复行为”组织“Badass”创始人Katelyn Bowden对《Motherboard》表示,现今每个人都有可能成为色情报复的受害者,即使从未影过裸照也会遭殃,她狠批DeepNude:“如此技术根本不应该对公众开放。”马里兰大学凯里法学院(University of Maryland Carey School of Law)教授Danielle Citron认为DeepNude正侵犯性私隐。“对,这不是你真正的阴部,但其他人会认为已看到你赤身露体,”她说:“有深受其害的人士对我说,感觉好像有数千人看过她裸体,觉得身体不再属于自己。”
获得广泛关注后不到一日,DeepNude迅速下架。DeepNude开发团队于透过其官方Twitter发推文指“大大低估了”公众的兴趣,并表示“人们滥用的可能性太高”。DeepNude全部版本将不会再发布,团队更警告不要在网上分享该App,声称做法违反了程式的服务条款,但也坦承会有某些副本流出。“世界还没有为DeepNude做好准备”他们如此作结。