此次国家金融监管总局北京监管局公布的三起新骗局中,“AI换脸”金融骗局及其骗局备受关注。
据介绍,犯罪分子利用非法获取的个人信息,通过计算机算法模拟合成受害人亲属、领导、同事或公职人员的肖像、面孔和声音,冒充上述人员的身份实施诈骗。
在获得受害人信任后,他们利用事先准备好的套路,向受害人发送银行卡转账、虚拟投资理财、账单返利等诈骗信息,并利用视频通话、语音轰炸等手段,进一步降低受害人的利益。防御性。 受害者常常发现很难在短时间内发现异常情况。 一旦他们接受了骗子的伎俩,完成了转账,对方就没有任何消息了。
国家金融监管总局北京监管局特别提醒,这种“看到”并不真实。
无独有偶,国家金融监管总局厦门监管局7月份也就其发现的“AI换脸”、“AI变声”金融诈骗案件发出专项风险提示。
对此,国家金融监管总局厦门监管局也向金融消费者指出,“通过视频通话看到的、听到的不一定是真的”。
据国家金融监管总局厦门监管局介绍,随着AI深度合成技术的成熟,AI深度合成产品和服务爆发式涌现,“AI换脸”、“AI变声”等多个行业蓬勃发展。 “仍处于监管灰色地带。 疯狂的增长为犯罪分子提供了可乘之机,成为网络诈骗、身份盗用等犯罪活动的工具。 这种新型网络诈骗利用人工智能技术融合其他人的面孔和声音,创建逼真的合成图像。 呈现方式更加多样化,门槛显着降低,识别难度加大。 往往会让消费者放松警惕。 在短时间内,造成更大的损失。
国家金融监管总局厦门监管局表示,“AI换脸”、“AI变声”合成视频、音频实施诈骗,属于利用新技术的诈骗行为。 它们与传统诈骗本质上是一样的,防范手段也千变万化。 不要离开你的根。
具体来说,“多方验证、身份确认”、“保护(个人)信息、拒绝诱惑”、“相互提醒、联防联动”成为当前主要的个人防范方式。
值得注意的是,从多方核实、身份确认的角度,国家金融监管总局厦门监管局进一步提醒金融消费者——包括转账汇款、提供个人信息、提供短信验证码等涉及的请求。重要决定或敏感信息与某人联系时,应保持高度警惕,通过主动改变电话、视频提问等渠道,多次确认对方身份。
此外,AI拟声词、AI换脸假电话虽然可以逼真地模仿原著人物的语言和行为,但仍然漏洞百出。 “比如眨眼频率太低、眼球运动不协调、面部表情不自然、唇形不符、句子不连贯等。” 国家金融监管总局厦门监管局表示。
编辑 宋玉婷
吴兴发校对
海量信息、精准解读,尽在新浪财经APP
搜虎网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。