高盛深度报告:生成式人工智能是炒作还是真正的改变?
爆发式的生成人工智能行业正式迎来首个监管文件。
继今年4月国家网信办就《生成式人工智能服务管理办法(征求意见稿)》公开征求意见后,7月13日,国家网信办等七部门正式发布《生成式人工智能服务管理办法(征求意见稿)》。生成人工智能服务管理”。 (以下简称《办法》),自2023年8月15日起施行。
国家互联网信息办公室相关负责人表示,《办法》的出台旨在促进生成式人工智能健康发展和规范应用,维护国家安全和社会公共利益,保护广大用户的合法权益。公民、法人和其他组织。
生成式人工智能是指基于算法、模型和规则生成文本、图片、声音、视频、代码等内容的技术。 OpenAI发布的以ChatGPT为代表的生成式人工智能,正在激发包括微软、谷歌、Meta、百度、阿里巴巴等国内外科技巨头和企业家的新一轮“AI军备竞赛”。
最新《办法》共24条,从生成式人工智能服务商的算法设计与备案、训练数据、模型,到用户隐私和商业秘密的保护、监督检查等都提出了相关要求。法律责任。 同时,《办法》明确支持和鼓励生成人工智能产业。
北京师范大学法学院博士生导师、中国互联网协会研究中心副主任吴申阔告诉第一财经记者,生成式人工智能相关规范性文件的快速出台,体现了同步推动技术发展和应用趋势,体现了我国网络监管和数字监管日益成熟和敏捷高效的演进。
多位从业者告诉第一财经记者,《办法》强调实施的可操作性,体现了风险防范、风险应对、风险管理的基本思想。 它的实施对于推动产业发展具有重要意义,为生成式人工智能的发展营造了良好的创新生态。
释放了哪些监管信号?
吴申阔告诉第一财经记者,今天发布的《办法》特别突出三个方面:一是强调了AIGC的分类分级管理机制,突出了针对不同类型风险引入相关监管机制的思路; AIGC产业生态的培育,特别是算力资源的共享和预训练公共数据平台的建设; 三是强调国内外交流与合作。 区分服务业务类型,明确办法适用范围。
据第一财经对比,与此前的《征求意见稿》相比,今天发布的《办法》对于生成式人工智能服务增加了许多新的鼓励措施。
例如,第二章“技术发展与治理”第五条、第六条均提到要鼓励生成式人工智能技术在各行业、各领域的创新应用,生成积极健康、正能量的优质内容。 探索优化应用场景,构建应用生态。 此外,还鼓励生成式人工智能算法、框架、芯片、支撑软件平台等基础技术的自主创新,在平等互利的基础上开展国际交流与合作,参与相关国际规则的制定。生成式人工智能。
《办法》还提到,要采取有效措施鼓励生成人工智能创新发展,对生成人工智能服务实行包容审慎和分类分级监管。
在业界特别关注的算力方面,《办法》也提到推动生成型人工智能基础设施和公共训练数据资源平台建设。 推动算力资源协同共享,提高算力资源利用效率。 推动公共数据分级分类有序开放,拓展优质公共培训数据资源。 鼓励采用安全可信的芯片、软件、工具、算力和数据资源。
在服务提供者准入方面,《办法》还提到,外商投资生成型人工智能服务的,应当遵守与外商投资有关的法律、行政法规的规定。
关于生成内容的真实性、可靠性,与《征求意见稿》相比,《办法》进行了一定程度的调整。
“严重胡说八道”是业界对生成式人工智能诟病较多的一个问题。 《征求意见稿》提到,生成式人工智能生成的内容应当真实、准确,并采取措施防止虚假信息的产生; 人工智能服务的透明度提高了生成内容的准确性和可靠性。
此外,《办法》还提到,对网络信息、发展改革、教育、科学技术、工业和信息化、公安、广播电视、新闻出版等部门,生成人工智能的管理按职责加强服务。
业内人士向记者指出,《办法》体现了一定的容错机制,更加符合实际,提高了实施的可行性。
“很多应用领域都可以容忍不完美的大模型。比如游戏中,英雄的胡子长了或者短了,说错了一句话。偶尔犯错误可能无伤大雅;但有些领域非常关键,不能容忍错误,比如新闻搜索、政府网站,或者医学教育,这些领域未来需要解决大型模型出错的问题。” 一些大模型从业者这样表示。
关于未成年人保护,《办法》的内容也得到了强调。
此前的《征求意见稿》中提到,应采取适当措施,防止用户过度依赖或沉迷于生成内容; 此次更新《办法》,旨在采取有效措施,防止未成年人用户过度依赖或沉迷生成式人工智能服务。
关于生成型人工智能的监管,《办法》还提到,有关主管部门应当按照职责对生成型人工智能服务进行监督检查,提供者应当依法配合,并对来源进行审查。根据需要训练数据的、规模和类型。 、标注规则、算法机制等,并提供必要的技术和数据支持和帮助。
关于个人隐私、商业秘密等的保护,《办法》中有多篇文章涉及相关内容。 个人隐私和个人信息应当依法保密,不得泄露或者非法向他人提供等。
行业影响几何?
中国电子云副总裁李书冲看到《办法》,第一反应是:“时机正好!”。 他对第六条中提到的“鼓励生成式人工智能算法、框架、芯片和支撑软件平台等基础技术自主创新”印象颇深。“现在英伟达一卡难求,我们不能再让大型模型被困在正在重塑的计算系统中。” 他告诉第一财经记者。
此外,他还表示,《办法》将规范“大模式”行业应用和场景的实施,让人工智能技术更好服务经济和产业高质量发展。
商汤科技智能产业研究院院长田峰对第一财经记者评价称,《办法》具有全球AI2.0治理引领、落实和落实,对推动产业发展具有重要意义。
大观数据CEO陈云文对第一财经记者表示:“行业的发展将逐步得到规范。这个《办法》的出台,对生成型大规模模型服务起到了指导作用。生成型AI技术非常新、很热,接下来就要实施,发展一定要以这个制度为指导。”
另一位从业者表示,《办法》在注重风险防范的同时,也体现了一定的容错和纠错机制,力求实现监管与发展的动态平衡。
《办法》中提到的安全、诚信、监管等话题也引起了众多大型模型从业者的关注和讨论。
百度董事长李彦宏不久前表示,只有建立健全法律法规、制度体系、道德规范,保证人工智能健康发展,才能营造良好的创新生态。
360创始人周鸿祎提到,要打造“安全、可靠、可控、易用”的专有大模型。 他指出,实现模型“安全可控”的关键是坚持“助手模式”,将大模型定位为企业和员工的助手,以“副驾驶”角色提供帮助,让人们的意志在整个决策循环中发挥作用。 到关键角色。
阿里云智能集团董事长兼CEO张勇也表示,“构建安全可靠的人工智能”已逐渐成为行业共识,相关法律法规正在完善,这为人工智能的发展培育了良好的土壤和环境。技术和产业的可持续发展。 “创新存在很多不确定性,有些是可以提前预测的,防患于未然;有些问题是在发展中出现的,需要在发展中解决,在发展中解决。”
全球各地正在酝酿监管措施
不仅在中国,类似ChatGPT的生成人工智能(AIGC)模式引发了资本竞争,各国对AIGC合规的关注正在推动相应监管措施的出台。
欧洲一直处于人工智能监管的前沿。 今年5月,欧洲议会批准了第一个全面的人工智能法案。 欧盟委员会主席乌苏拉·冯德莱恩 5 月 19 日表示:“我们希望人工智能系统准确、可靠、安全和非歧视,无论其来源如何。”
同样是在今年5月于日本举行的G7领导人峰会上,成员国领导人承认人工智能和沉浸式技术治理的必要性,并提议在年底前创建一个专门讨论人工智能进展的论坛。今年。 部长级论坛,讨论围绕生成人工智能的问题,例如版权和打击虚假信息。
英国竞争监管机构今年5月也表示,将开始审查人工智能对消费者、企业和经济的影响,以及是否需要新的监管措施。
爱尔兰数据保护机构四月份表示,生成式人工智能需要受到监管,但监管机构必须在仓促实施“非常脆弱”的禁令之前弄清楚如何做到这一点。
美国商务部下属的国家标准与技术研究所在 6 月表示,将成立一个由志愿生成人工智能专家组成的公共工作组,以帮助抓住人工智能带来的行业机遇,并制定应对其风险的指南。 FTC 今年 5 月表示,该机构致力于利用现有法律来控制人工智能的风险。
日本隐私监管机构 6 月表示,已警告 OpenAI,未经公众许可不得收集敏感数据。 日本预计将在 2023 年底之前出台法规,该法规可能更接近美国的做法,而不是欧盟计划的严格法规,因为日本希望该技术能够促进经济增长,并使其成为先进芯片的领导者。
6 月 12 日,联合国秘书长安东尼奥·古特雷斯支持一些人工智能高管提出的创建一个像国际原子能机构这样的人工智能监管机构的提议。 古特雷斯还宣布计划在年底前启动高级别人工智能咨询机构的工作,定期审查人工智能治理安排并提出建议。
面对生成式人工智能的全球监管趋势,吴申阔对第一财经记者表示,面对新技术、新应用,需要不断探索一套敏捷高效的监管机制和方法,最大限度地及时响应和处置相关问题。 各种风险类型。 此外,还需要不断构建和完善一套经济、便捷、可行的合规指引,让各方有明确的合规标准和方向。
“良好的生态治理还需要各方最大程度地凝聚共识,在更大范围内形成共同的价值观和公认的新技术新应用的治理行为准则。” 他说。
可以说,每一次技术革命都伴随着巨大的机遇和风险。 对于生成式人工智能来说,只有在真实用户调用和模型迭代之间建立飞轮,AI模型才能变得更加智能,而如何在政策监管和技术发展之间找到平衡点,也是对全球监管当局的考验。 (记者范雪涵对此文亦有贡献)
海量信息,精准解读,尽在新浪财经APP
搜虎网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。