骗徒AI换脸换声诈骗 方保侨吁别接听不明视像来电 教路5招自保

撰文: 陈淑霞
出版:更新:

警务处近日提醒,提防骗徒以人工智能(AI)换脸换声进行诈骗。香港资讯科技商会荣誉会长方保侨今(4日)于港台《千禧年代》表示,深伪技术(Deepfake)突飞猛进,网上亦有不少程式可供换脸,近日亦流行生成AI歌手翻唱歌曲。
他提到,若市民接获“亲友”视像来电,若有怀疑,可要求对方“拧吓个头、say 个hi(打声招呼)”,或留意其动作是否自然,最佳做法是致电亲友本人查证。有网民指近期涌现不明视像来电,方保侨提醒,有机会是骗徒从中录影接听者的样貌及声音,呼吁市民提防。

方保侨表示,网上不乏应用深伪技术的程式,例如简单至换脸、将个人头像载入公仔载歌载舞,较深层次的则甚至可换脸之余,亦可说话及贬眼,近日亦有AI歌手翻唱其他人的歌曲。

如接“亲友”视像来电有可疑 应致电本人求证

他提到,人工智能及深伪技术近年突飞猛进,骗徒会用深伪技术作诈骗,若市民接获“亲友”视像来电:“如果系好似你亲友,叫你要汇钱,睇吓佢啲动作生唔生硬,叫佢拧吓个头、say 个hi(打声招呼)”。他表示,若属于预录片段,对方难以互动,届时则会露出破绽。“不过对方都唔会咁蠢,未必畀时间你”,或会于短时间内结束对话,再以其他渠道继续沟通。他建议,市民若有怀疑,应致电亲友本人查证。

社交媒体切忌摆放正面照片

方保侨又说,有网民指近期涌现视像对话来电,接听后对方未必出声,又或只展示相片,他表示,有机会是骗徒从中录影接听者的样貌及声音,呼吁市民勿随意接听视像对话来电,社交媒体亦切忌摆放正面照片,“就算无骗案都好,都唔好摆咁多个人资料,依家私隐外露年代,少摆为妙。”若市民曾接听不明视像对话来电,担心资料外泄,他指若有担心可报案,亦可提醒亲友警剔防范。

香港资讯科技商会荣誉会长方保侨(资料图片/夏家朗摄)