百万网红「脸被偷」惨变色情片主角 揭非法产业链:5蚊定制AI裸照
随著AI技术逐渐成熟,普通人换脸明星成为偶像剧主角不再是梦。但在另一方面,却变成侵犯肖像权、传播淫秽色情影片的新式非法业链。
4月26日,内地一名拥有百万粉丝的网红称自己“脸被偷”,有人用AI换脸软件,制作她的色情影片。该网红称,不仅是她,“AI盗脸”已变成产业链。
昨日,在微博上拥有147万粉丝的网红博主“Caro赖赖_”发文称,有人盗了她的“脸”。据她介绍,约半年前,其影片评论区有网民评论称看过她的“视频”。本著“清者自清”的原则,未做任何回应。但几日前,其朋友发给她一些截图和影片向她求证。当她看到影片中女演员正用自己的脸,做一些“难以描述的动作”时,她才意识到“脸被AI盗用”。
而且“Caro赖赖_”称,她还发现有人在境外社交平台上冒充注册了假账号,盗取她的日常帖文发布,在累计一定数量的追踪人数后,再以会员订阅的方式贩卖影片。她更发现,在另一个社交网站(Instagram)上,有很多账号在制作及贩卖“AI盗脸”影片。
这些“AI盗脸”影片的背后,也似乎形成一条完整产业链。不法分子通过AI换脸技术,将明星、博主,甚至普通人的脸制作成色情图片或影片,明码标价以获取利益。
除“AI盗脸”外,“Caro赖赖_”还提到一种“一键脱衣”的技术,只需发送人像生活照,就能通过AI技术合成的方式制成图片或影片。
商家公开售卖“一键脱衣” 5蚊即可生成裸照
据《极目新闻》报道,内地社交平台有不少“去衣软件”和提供“AI换脸”服务的卖家。其中一名卖家介绍,AI换脸收费30元(人民币,下同)、手机去衣软件收费50元、电脑去衣软件收费80元。但卖家并不提供“一键脱衣”服务,“因为之前帐号被封了一次”。
但另一名卖家则表示,可以“来图定制”,一张图片5元,5张图片20元。卖家提供的“去衣软件”制作过程显示,在软体中上传一张人像图片后,经过一些简单的设置,等待一段时间后,这张人像图片就会变成一张裸体照。
河南泽槿律师事务所主任付建指出,通过AI合成的方式制作带有他人面容的淫秽色情视频,在境内外社交平台上进行传播和贩卖,其行为涉嫌制作、传播淫秽物品牟利罪。卖家未经允许获取他人图片和个人信息,属于侵犯隐私;再以此制作淫秽影片,更侵犯他人肖像权和名誉权。
根据中国《刑法》规定,以牟利为目的,制作、复制、出版、贩卖、传播淫秽物品的,处三年以下有期徒刑、拘役或者管制,并处罚金;情节严重的,处三年以上十年以下有期徒刑,并处罚金;情节特别严重的,处十年以上有期徒刑或者无期徒刑,并处罚金或者没收财产。