青岛一名大学生与网上认识的“女友”视频聊天。 对方说需要现金流。 男孩汇完钱后,发现自己被骗了。
深圳安洛科技市场经理梁雅婷:通过取证,我们发现和他聊天的人不是他的女朋友。 对方正在通过虚拟摄像头和他聊天,然后使用AI换脸功能。
那么AI在视频通话时如何换脸呢? 记者在一家为公安机关提供技术支持的科技公司看到了演示。 相似度可达80%。
深圳安洛科技产品部经理 刘元阳:我们只是拍了一张照片,上传到电脑里。 我们只需要打开软件,选择头像即可。 我们已经看到了左边的图片和右边预先录制的视频。 工程师已经设置好所有参数。 我们只需点击开始执行并输入要保存的文件名即可。 弹出该窗口后,就会开始生成换脸视频。
我们在现场看到,高配置的电脑只需要一两分钟就可以合成一个10秒的换脸视频。 随着技术的发展,视频聊天时实时换脸已经不是什么难事了。
深圳安洛科技产品部经理 刘远阳:照片上传后,通常需要30秒左右的时间来识别照片的特征,然后进行建模。 建模完成后,可以进行实时转换。 无论是你的头像还是朋友圈里的小照片,任何照片都可以直接上传进行特征识别和建模。
AI生成的技术不断更新迭代,比如性别互换、变声,这些都可以同时完成。 由于该算法是开源的,意味着一个普通的工程师就可以创建一个换脸软件,这给我们控制源头带来了很大的困难。
AI换脸也有诈骗和反诈骗新手段
不断迭代的AI技术让换脸视频“真假难辨”,那么我们该如何防范这种新型诈骗呢?
首先,目前的视频换脸技术并不是无可挑剔。 视频通话过程中,某些动作可能存在缺陷。
深圳安洛科技副总裁肖建伟:在这个操作中,如果我再用第三个图像来干扰,比如让他用手捂住脸或者移动,就会干扰图像的合成。 从这里的演示来看,当我把手放在上面之后,我可以清楚地看到我们同事的眼睛在屏幕上晃动,他的鼻子在晃动,我的手消失了,他的嘴也消失了。
除了要求对方在脸上做出一些动作来判断之外,专家表示,AI合成软件的升级可能会很快。 如果已经避免了动作捕捉,那么我们就需要使用一些更专业的软件来区分。
深圳安洛科技副总裁肖建伟:我们可以通过软件来识别。 比如一个人的整个轮廓,替换后的眼睛、鼻子、嘴巴,它的像素大小不同,色域也不同。 就像我们的衣服一样,如果需要修补的话,是没有办法让它变得完美的。 这些是我们肉眼看不见的,但可以通过软件算法检测到。
目前这类识别软件对设备及外设要求较高,应用并不广泛。 不过,让视频传播的网站或社交软件使用专业识别软件对其进行识别,然后贴上“AI制作”的标签,也是现阶段的一种方法。
防范“AI换脸诈骗”,大家还必须加强人脸、声纹、步态、指纹等生物特征数据的安全保护。
中国科学技术大学公共事务学院、网络空间安全学院教授左晓东:我们在使用互联网服务或者社交生活时,都会被要求输入人脸等生物特征数据。 我们必须看看对方是否收集了我们的生物识别数据。 是否符合数据安全法、个人信息保护法的要求,是否合法、正当、必要。
此外,国家也在运用多种手段防范“AI换脸诈骗”。 近两年,有关部门陆续出台了《互联网信息服务深度融合条例》、《生成人工智能服务管理暂行办法》等相关政策文件。 先后开展了“互联网深度合成算法登记”、“大语言模型算法登记”等相关工作。 严厉打击利用人工智能换脸、变声等手段的违法犯罪活动。
中国科学技术大学公共事务学院网络空间安全学院教授左晓东:目前看来,人工智能技术的滥用已经得到初步遏制。 尤其是这些犯罪的整体治理效果开始显现,也有力推动了人工智能技术的规范发展。
搜虎网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。