韩国调查Deepfake换脸色情片事件 逾40间学校受影响
撰文: 官禄倡
出版:更新:
韩国发现利用人工智能(AI)深度伪造(Deepfake)技术制造的色情影片与照片在Telegram流传,甚至有未成年人遭AI换脸放入色情影像。韩国多间机构展开调查,有结果显示,受害人中未成年人占比超过30%,逾40间学校受影响,有涉事学校呼吁学生清空社交平台上相片。
韩国女性人权振兴院8月28日公布调查结果,统计2024年起至8月25日数据,其中向数字性犯罪受害者支援中心请求帮助的受害者共有781人,19岁以下未成年人有288人,占总数的36.9%。韩国 《中央日报》28日报道,有学校老师建议学生尽可能删除社交平台上的个人相片。
韩国全国教职员工会28日调查显示,对比网上流传的受害人就读学校名单后发现,证实其中有超40所学校受影响。
除学生外,教师亦深受其害,报道指自2023年起就有学生参与加害教师,警方指被立案的涉事青少年疑犯所占整体比重逐年上升,从2021年的65.4%增至2023年的75.8%。
韩国Deepfake换脸色情片疯传 受害人遍布各行业 女兵遭称军需品特朗普再卖NFT卡圈钱 每张99美元 多买可获西装碎片或共进晚餐日本“令和米骚动”持续到年底? 高官吁民众别抢购大米韩国京畿道3车相撞5死9伤 3死者为中国人