韩国调查Deepfake换脸色情片事件 逾40间学校受影响

撰文: 官禄倡
出版:更新:

韩国发现利用人工智能(AI)深度伪造(Deepfake)技术制造的色情影片与照片在Telegram流传,甚至有未成年人遭AI换脸放入色情影像。韩国多间机构展开调查,有结果显示,受害人中未成年人占比超过30%,逾40间学校受影响,有涉事学校呼吁学生清空社交平台上相片。

2024年8月28日,韩国首尔,韩国放送通讯审议委员会召开内部紧急会议。(韩联社 Via Reuters)

韩国女性人权振兴院8月28日公布调查结果,统计2024年起至8月25日数据,其中向数字性犯罪受害者支援中心请求帮助的受害者共有781人,19岁以下未成年人有288人,占总数的36.9%。韩国 《中央日报》28日报道,有学校老师建议学生尽可能删除社交平台上的个人相片。

韩国全国教职员工会28日调查显示,对比网上流传的受害人就读学校名单后发现,证实其中有超40所学校受影响。

除学生外,教师亦深受其害,报道指自2023年起就有学生参与加害教师,警方指被立案的涉事青少年疑犯所占整体比重逐年上升,从2021年的65.4%增至2023年的75.8%。

2023年2月21日,图为一个显示在键盘上方的Telegram标志。(Reuters)