国家金融监管总局针对新型电信网络诈骗发出风险提示,特别指出利用AI换脸拟声技术的新型诈骗手段。不法分子通过采集个人信息合成虚假音视频,诱导亲友转账或提供敏感信息,甚至冒充明星、专家等身份传播虚假消息,实施诈骗。
🚨新型诈骗手段:不法分子以“网店客服”“营销推广”等为由,通过微信、电话等方式采集个人信息,利用AI技术合成虚假音视频。
💡诈骗目的:模拟他人声音或形象骗取信任,诱导亲友转账汇款或提供银行账户密码等敏感信息,进而转移资金。
🌟防范重点:警惕冒充明星、专家、执法人员等身份的诈骗,不法分子可能人工合成音视频,传播虚假消息。
格隆汇7月24日丨国家金融监管总局发布防范新型电信网络诈骗的风险提示。新型电信网络诈骗包含“AI换脸拟声”类诈骗。不法分子以“网店客服”“营销推广”“招聘兼职”“婚恋交友”等为借口,通过微信、电话等方式联系消费者,采集发音、语句或面部信息。利用“换脸”“拟声”等技术合成消费者虚假音频、视频或图像,模拟他人声音或形象骗取信任,以借钱、投资、紧急救助等借口诱导其亲友转账汇款,或提供银行账户密码等敏感信息,随后立即转移资金。此外,不法分子还可能对明星、专家、执法人员等音视频进行人工合成,假借其身份传播虚假消息,从而实现诈骗目的。