欢迎来到搜虎网

安全专家阐释人工智能大模型时代网络安全新挑战理解

编辑:搜虎网      来源:搜虎网      人工智能   网络安全   周鸿祎

2023-11-11 00:02:39 

_隐私泄露现状_泄露隐私罪标准

大型人工智能模型带来哪些挑战?

在9日举行的世界互联网大会乌镇峰会“人工智能赋能产业发展论坛”上,中外专家共同发布了《负责任生成型人工智能发展研究报告及共识文件》(以下简称《报告》)。报告)。 报告提到,近年来,生成式人工智能在文本、代码、图像、音频和视频等的理解和生成方面取得了突破性进展,有望显着提高社会生产力。 同时,报告还专门用章节来解释生成式人工智能带来的风险。

报告称,生成式人工智能技术在迭代升级的同时也放大了技术安全风险。 在数据方面,数据馈送带来了价值偏差、隐私泄露、数据污染等问题:训练数据固有的偏差导致模型产生有偏差的内容; 海量训练数据扩大了数据安全和隐私保护风险。 在算法方面,算法模型生成特性和安全漏洞可能导致“幻觉”或虚假信息、模型攻击等风险。 报告还提到了两个更深层次的风险:生成式人工智能重塑人与机器的关系,可能带来技术伦理; 任务处理能力强,很容易导致对人思维的依赖; 而生成式人工智能凸显了发展的不平衡性,导致人类社会发展差距进一步拉大。

泄露隐私罪标准__隐私泄露现状

《环球时报》记者也在“互联网之光”博览会上亲身体验了生成式人工智能可能给普通民众带来的安全风险。 在一家专注青少年节目的公司展位上,记者体验了一场“所见未必真实”的秘密换脸实验。 在机器前站了几秒后,AI根据记者的外貌提供了两种换脸模型。 一个瞬间变身“憨豆先生”,另一个留着大胡子。 据展台工作人员介绍,这是关于青少年“换脸”风险的科普。

泄露隐私罪标准__隐私泄露现状

一位第十次参加世界互联网大会的中国网络安全专家告诉环球时报记者,过去几年我们关注云安全、大数据安全、物联网安全,但今天大模型安全是一个必须关注的话题。 。

大型模型如何保障重大活动安全

公开报道显示,2012年伦敦奥运会期间,多家媒体遭受网络攻击; 2016年里约奥运会遭受大规模APT攻击和DDoS攻击; 2018年平昌冬奥会遭遇了奥运会历史上最大规模的网络安全事件。 《环球时报》记者在“互联网之光”博览会上了解到,近期成功举办的杭州亚运会,不仅是体育表演和大型赛事组织的比拼,更是网络安全攻防的比拼。

《环球时报》记者在“互联网之光”博览会上看到一块巨大的显示屏,以动态的形式直观地展示了杭州亚运会网络安全过程中的态势感知和快速反应能力。 安恒信息副总裁梁浩介绍,现场展示的MSS亚运天穹——新一代主动防御运营中心,是服务于杭州亚运安全保障体系的综合运营中心。 实际上是结合本届亚运会的建设范围来进行的。 明确,涉及整个亚运会的88个竞赛和非竞赛场馆,相关的安保细节、措施和问题可以通过这个运营中心的视角及时掌握。 如有需要,您可以随时查看特定场馆的相关IT机房,查看安全防护设备位于哪个槽位,如有异常、中断、报警等情况及时反馈处理。

泄露隐私罪标准__隐私泄露现状

据介绍,杭州亚运会的运动员人数、赛事规模和场馆数量约为北京冬奥会的四倍。 按照传统方式,可能需要数千人才能完成安保工作,但实际上,本届亚运会现场安保人员只有400多人。 人们,如何用更少的人员来满足这么大的区域的安全需求,实际上就是利用大模型技术。 “我们结合安全领域的大模型,帮助现场分析人员快速研判、提供处置方案。特别是在保障重大赛事方面,时效性要求特别高。比如杭州亚运会期间,网络攻击次数已超过2600万次,整个拦截过程中使用了更多自动化关联和拦截技术,其中还用到了人工智能和大模型能力。”

如何“以魔法对抗魔法”

为了应对生成式人工智能和大模型带来的挑战,国内网络安全领域的领先企业也在“互联网之光”博览会上展示了解决方案。 给环球时报记者印象最深的是用AI对付AI,“用魔法战胜魔法”。 比如,在奇安信展台,记者看到了“大模卫”提供的一系列强大防护能力。 阿里巴巴展台还提出了“大型号安全全链路解决方案”。

参加世界互联网大会的360集团创始人周鸿祎在接受环球时报采访时表示,所有数字技术都必然是双刃剑。 有软件就会有漏洞,有漏洞就会受到攻击。 人工智能的大模型也是必然的。 周鸿祎认为,人工智能面临的安全问题可以分为三个层次:初级/短期问题、中/中期问题和高级/长期问题。 主要/近期问题是技术攻击问题,即网络攻击、漏洞攻击和数据攻击问题,特别是向大型模型提供不良数据或污染其训练数据,这可能会导致错误的结果。 这类问题比较容易解决。 更难解决的是中/中期问题,主要涉及内容安全。 比如,大模型可以是人们的好帮手,但也可以成为坏人的工具。 它可以帮助技术较差的黑客编写更好的攻击代码和诈骗电子邮件。 如何让它的内容更加可控? 如何防止大型人工智能模型作恶? 这超出了技术的范围。 虽然现在有些人对大型模型内置了所谓的“安全护栏”,但很容易受到注入攻击或算法攻击。 解决这类问题的一个想法是专门针对恶意问题开发小规模模型,这样大模型可以在回答用户问题之前用小模型进行过滤。

周鸿祎认为,从高层次/长期问题的角度来看,大模型可以整合人类所有的知识,然后与人类进行交流并提供提示。 但未来,如果大型模型的能力超过人类,它们还会愿意成为人类的工具吗? 周鸿祎表示,“我的一个观点是,这些技术带来的挑战最终还是要通过技术来解决,而技术本身也会不断进化。我们不能因为存在尚未解决的问题而不开发相关技术。”发生在未来。”

在8日举行的2023世界互联网大会蓝皮书新闻发布会上,中国网络空间研究院网络空间理论与战略研究所副所长姜树立表示,中国坚持安全与发展并重的原则,为生成式人工智能的发展奠定了基础。 打造创新生态系统,注重风险防范,制定人工智能监管规则。 2023年7月,我国发布《生成型人工智能服务管理暂行办法》,这是全球首个生成型人工智能管理措施。 与此同时,中国发起《全球人工智能治理倡议》,明确提出人工智能发展坚持相互尊重、平等互利的原则。

搜虎网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。

发表我的评论 共有条评论
    名字:
全部评论