韩国Deepfake换脸色情片疯传 受害人遍布各行业 女兵遭称军需品

撰文: 官禄倡 成依华
出版:更新:

韩国近期发现利用人工智能(AI)深度伪造(Deepfake)技术制造的色情影片与照片在Telegram疯传,涉多个聊天群组,每个群组成员介乎数百至逾十万不等。韩联社8月26日报道,遭AI换脸放入色情影像的受害者包括大学生、教师、女兵等,甚至有中学生等未成年人,涉及学校超过百间,令人震惊。

《韩民族日报》27日报道,根据记者发现的一个以女军人为对象的群组,成员约850人,单是营运者就有逾20人,他们更会把受害人称为“军需品”,群组会要求用户将女兵的私隐讯息与相片提供给营运者,参加者向营运者的个人Telegram发送照片后,营运者会制作合成的色情图像,上传到群组。

图为2023年4月26日Getty发布的设计图片,可见巴西里约热内卢一部手机荧幕显示Telegram标志。(Reuters)

报道指,由于不仅使用社交网站上的照片,还有使用军队内部网络才能看到的证件照片等制作合成的色情图像,报道推测军队内部人员涉事的可能性很大。

韩国广电通讯审议委员会8月27至28日召开会议,希望加强对深度伪造(Deepfake)问题的监控力度,要求警方采取措施,并计划向Telegram投诉,要求删除这些色情影片。