骗徒AI换脸换声诈骗 方保侨吁别接听不明视像来电 教路5招自保
撰文: 陈淑霞
出版:更新:
警务处近日提醒,提防骗徒以人工智能(AI)换脸换声进行诈骗。香港资讯科技商会荣誉会长方保侨今(4日)于港台《千禧年代》表示,深伪技术(Deepfake)突飞猛进,网上亦有不少程式可供换脸,近日亦流行生成AI歌手翻唱歌曲。
他提到,若市民接获“亲友”视像来电,若有怀疑,可要求对方“拧吓个头、say 个hi(打声招呼)”,或留意其动作是否自然,最佳做法是致电亲友本人查证。有网民指近期涌现不明视像来电,方保侨提醒,有机会是骗徒从中录影接听者的样貌及声音,呼吁市民提防。
方保侨表示,网上不乏应用深伪技术的程式,例如简单至换脸、将个人头像载入公仔载歌载舞,较深层次的则甚至可换脸之余,亦可说话及贬眼,近日亦有AI歌手翻唱其他人的歌曲。
如接“亲友”视像来电有可疑 应致电本人求证
他提到,人工智能及深伪技术近年突飞猛进,骗徒会用深伪技术作诈骗,若市民接获“亲友”视像来电:“如果系好似你亲友,叫你要汇钱,睇吓佢啲动作生唔生硬,叫佢拧吓个头、say 个hi(打声招呼)”。他表示,若属于预录片段,对方难以互动,届时则会露出破绽。“不过对方都唔会咁蠢,未必畀时间你”,或会于短时间内结束对话,再以其他渠道继续沟通。他建议,市民若有怀疑,应致电亲友本人查证。
社交媒体切忌摆放正面照片
方保侨又说,有网民指近期涌现视像对话来电,接听后对方未必出声,又或只展示相片,他表示,有机会是骗徒从中录影接听者的样貌及声音,呼吁市民勿随意接听视像对话来电,社交媒体亦切忌摆放正面照片,“就算无骗案都好,都唔好摆咁多个人资料,依家私隐外露年代,少摆为妙。”若市民曾接听不明视像对话来电,担心资料外泄,他指若有担心可报案,亦可提醒亲友警剔防范。
港男堕裸聊骗局 自己头像移花接木变色情片主角 遭勒索一万元私隐专员钟丽玲:AI有机亦有“危” 科企有责任确保系统数据安全警破网恋诈骗家族 拘主脑及兄母等15人 租豪宅作基地呃逾2千万今年首季2万宗罪案同比增48% 邓炳强:社会复常及诈骗案大增65%诈骗集团5手法骗52人 骗款高达$3100万 警拘10男女