近来,随着人工智能技术日新月异,犯罪份子已有人使用"AI换脸"技术进行各类诈骗活动,尤其是以人们对熟悉面孔的信任为基础,冒充他人实施欺诈,给众多无辜大众带来重大财务风险。
近期,李女士因轻信假冒同学者,导致40万元现金不知所踪。她在视频通话中被对方说服,未经核实就将钱款转入对方提供的账户。经过调查发现,该账户归刘某所有,他的行为也引起了警方的注意。同样的骗局还曾发生在安徽的陈先生身上。
网络安全业界巨头钟子骥强调,诈骗势力往往诱导易于受骗者进行视频交流,从而通过相关应用程序获取受害人脸部和外貌特征,再运用人工智能技术仿制色情制品并部署在自建的App中。据了解,此类App具有广泛用户基础,且犯罪分子以此方式轻松获取大量金额,导致受害者损失巨大,平均每人都达到了数十万元人民币之多。
据网络安全专家揭露,骗子轻而易举地获取受害者信息已然成了事实。首先,部分不法分子成功入侵已有数据库,致使大量公民隐私泄露;其次,利用小型传单投放等手段,骗子得以盗取受害者资讯并传递到后端处理系统中;最后,据浙大的研究,未经许可扫瞄二维码也可能导致手机通讯录和相册信息外泄。
网络安全专家高呼:防范AI换脸诈骗的关键在于线上核实身份。此外,适当延迟通信时间也有助于提高警惕性,使之更易识破骗术。
AI 换脸诈骗行为因其独特性,使得大量受害者遭受巨大经济损失,引发社会广泛关注,网络诈骗与个人隐私保护议题愈发突出。该诈骗行为对社会构成严重威胁,故应强化公民信息安全防护意识,保持警惕,避免沦为骗局的受害者。同时,政府机关也应该加强监管并提高打击力度,维护公众合法权益。
若您在此方面有所经验与洞见,敬请在评论区分享。同时,我们也敬请您将此信息广泛散播,以提升大众对“AI换脸”恶意行为及诈骗风险的认知和防备能力。
搜虎网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。