AI换脸拟声冒充好友诈骗 科技商10分钟被骗走430万人民币

撰文: 范玉莹
出版:更新:

随著AI科技升级,诈骗手段亦不断变化出新。近日,有某科技公司商人在10分钟内被呃走430万人民币,骗子利用的正是智能AI换脸和拟声技术。

据悉,当事人郭先生为福州市某科技公司法人代表。4月20日中午,郭先生的好友突然通过微信视讯联络他,指朋友在外地竞标,需要430万保证金,且需要公对公账户过账,想藉郭先生公司的帐户走账。基于对好友的信任,加上已经视讯通话核实身份,郭先生没有核实钱款是否到账,便分两笔将430万转到了好友朋友的银行卡上。

钱款转账后,郭先生给好友微信发了一条消息,称事情已经办妥,但好友竟回复一个问号。郭先生拨打好友电话,对方说没有这回事,他才意识到被骗,随后报警。

福州市某科技公司法人代表郭先生因AI诈骗,10分钟内被骗走430万人民币。(图 / 中国经营报)

接报后,警方查明,骗子通过智能AI换脸和拟声技术,假装成好友,对郭先生实施了诈骗。值得注意的是,骗子是直接用好友微信发起视讯聊天,警方认为,骗子极可能通过技术手段盗用了郭先生好友的微信。

目前,福州、包头两地警银迅速启动止付机制,已成功拦截336.84万元,但仍有93.16万元被转移,目前正在全力追缴。

AI发展使诈骗技术不断变化出新。(资料图片)

此前,AI诈骗亦有相关案例。据《华西都市报》报道,2022年2月,受害者陈先生指被AI换脸合成的“好友”敲诈勒索,诈骗近5万元。

2020年,上海某公司高管因诈骗方使用AI换脸与人工生成的语音技术制作公司领导的面孔,并要该高管转账,致使该高管被诈骗150万元。

据悉,AI诈骗常用手法有声音合成、AI换脸、转发语音、AI程序筛选受害人等。骗子通过骚扰电话录音等来提取声音,获取素材后进行声音合成,从而伪造声音。同时,通过AI技术换脸,根据所要实施的骗术,使用AI筛选目标人群。再在视讯通话中利用AI换脸,骗取受害者信任,精准实施诈骗。

警方提示,针对花样翻新的智能AI诈骗,公众要提高防范意识,不轻易提供人脸、指纹等个人生物信息给他人,不过度公开或分享动图、影片等;网络转账前要通过电话等多种沟通渠道核验对方身份,一旦发现风险,及时报警求助。