韩国Deepfake换脸色情片疯传 受害人遍布各行业 女兵遭称军需品
撰文: 官禄倡 成依华
出版:更新:
韩国近期发现利用人工智能(AI)深度伪造(Deepfake)技术制造的色情影片与照片在Telegram疯传,涉多个聊天群组,每个群组成员介乎数百至逾十万不等。韩联社8月26日报道,遭AI换脸放入色情影像的受害者包括大学生、教师、女兵等,甚至有中学生等未成年人,涉及学校超过百间,令人震惊。
《韩民族日报》27日报道,根据记者发现的一个以女军人为对象的群组,成员约850人,单是营运者就有逾20人,他们更会把受害人称为“军需品”,群组会要求用户将女兵的私隐讯息与相片提供给营运者,参加者向营运者的个人Telegram发送照片后,营运者会制作合成的色情图像,上传到群组。
报道指,由于不仅使用社交网站上的照片,还有使用军队内部网络才能看到的证件照片等制作合成的色情图像,报道推测军队内部人员涉事的可能性很大。
韩国广电通讯审议委员会8月27至28日召开会议,希望加强对深度伪造(Deepfake)问题的监控力度,要求警方采取措施,并计划向Telegram投诉,要求删除这些色情影片。
韩国京畿道3车相撞5死9伤 3死者为中国人骗徒Deepfake假冒跨国公司CFO 诱香港员工开视像会议骗近4百万元韩国酒店大火|洒水器危难中失灵 她哭电母亲诀别:妈,我快死了Telegram创办人被捕 同行“神秘美女助理”与保镳获释