用AI换脸技术将不雅影片女主角转成女星 二手网站上公开兜售
撰文: 崔德兴
出版:更新:
“AI换脸技术”近来愈来愈普及,相关的App也变得大众化。不过,有媒体近期发现,有不法之途滥用这种功能,将不雅影片的女主角转成女星,再在二手交易平台兜售相关影片。
据《澎湃新闻》报道,“换脸”成女星的不雅影片或照片,近日在二手交易平台“闲鱼”上涌现,有多位卖家出售。
其中一位卖家提议在qq或者微信交易,不雅照片方面,其开价为一个明星30元(人民币,下同),两个明星40元,三个明星50元,每个明星图片数量不同,大多数都是300张左右。此外,他还有100部影片,包括30多位明星。“都是当红的,有的明星多,有的少。”他说。
另一名卖家则报价道,“75元套餐”中有40多位女明星上百部的AI换脸影片,“99元套餐”则可“永久外网观看任意资源”。
律师:涉嫌刑事犯罪 可判无期
针对事件,闲鱼向传媒表示,对违反公序良俗的商品一贯以来采取零容忍态度,从严从重处罚违规行为。同时,在平台处理的基础上,闲鱼还将向执法机关举报涉嫌发布违规信息的账号,协助开展线下溯源打击,追踪背后的黑灰产团伙。
另据内地律师赵占领表示,售卖明星换脸不雅影片的行为,毫无疑问对涉及的明星构成肖像侵权和名誉侵权,同时还涉嫌构成刑事犯罪,属于“传播淫秽物品牟利罪”,情节严重者可判无期徒刑。
(澎湃新闻)