AI导读:

国家金融监管总局发布风险提示,指出不法分子利用AI技术中的面部替换和语音合成等手段实施诈骗,提醒广大金融消费者警惕新型诈骗手段,保护个人及家庭财产安全。

10月13日,国家金融监管总局正式发布了关于防范AI新型技术诈骗的风险提示。随着AI技术的普及,虽然为社会公众带来了更加个性化和智能化的服务,但同时也为网络诈骗提供了新的土壤。不法分子利用AI技术中的面部替换和语音合成等手段,创建虚假的图像、音频和视频,冒充他人身份实施诈骗,严重侵害了消费者的合法权益。

此类诈骗主要通过“拟声”和“换脸”两种方式实施,即模拟他人的声音或形象,以此获得受害者的信任,进而骗取钱财。诈骗者常常以“网店客服”、“营销推广”、“招聘兼职”或“婚恋交友”等名义,通过微信、QQ或电话等方式接触受害者,收集其声音、语句或面部信息。随后,利用这些信息合成虚假的音频、视频或图像,以借钱、投资或紧急救助等理由,诱导受害者的亲友转账汇款,或提供银行账户密码等敏感信息,并立即转移资金。此外,不法分子还可能对公众人物的音视频进行人工合成,假借其身份传播虚假信息,以达到诈骗的目的。

鉴于此类诈骗手段极具迷惑性和隐蔽性,且诈骗金额往往较高,国家金融监督管理总局特此提醒广大金融消费者:

首先,网络渠道的信息“眼见”不一定为实。“拟声”和“换脸”技术能够“以假乱真”,诈骗者可轻易伪装成他人,通过筛选目标人群、定制诈骗脚本等手段,实施精准诈骗。因此,在涉及资金交易时,即便是听起来熟悉的声音或看似熟人的视频,也可能是诈骗的陷阱,消费者应保持高度警惕。

其次,转账汇款前务必核实对方身份。面对自称“熟人”或“领导”等通过社交软件或电话以各种理由诱导汇款的情况,务必通过提问仅双方知晓的问题、利用其他通讯方式或见面等方式核实对方身份。在无法确认对方身份时,应避免进行转账操作。

最后,要加强个人信息的保护。消费者应提高个人信息保护意识,避免随意下载陌生软件、注册陌生平台或添加陌生好友。同时,要保持对个人社交账户的安全状况的关注,尽量避免在互联网上过多暴露个人照片、声音和视频等信息。身份证和银行卡照片等敏感信息不应直接存放在手机中。如不慎被骗或遇到可疑情况,应立即保存证据并向当地公安机关报案。

(文章来源:新京报)