美国时间12月6日,谷歌展示了其最新的多模态AI大模型Gemini。
“我们正在离新一代人工智能模型的愿景越来越近。” 在一系列视频演示后,谷歌DeepMind产品副总裁伊莱·柯林斯(Eli Collins)对第一财经等媒体表示,“这是谷歌迄今为止最强大、最通用的大型模型。” 它可以处理视频、音频和文本等不同形式的信息。 与之前的版本相比,Gemini 可以进行更复杂的推理,实现更详细的信息理解。 DeepMind 声称 Gemini 在 32 个标准性能指标中的 30 个超过了 GPT-4,但是它们之间的差距很小。
6日,包括谷歌在内的AMD、Meta等多家科技巨头发布了生成式AI相关产品,上演人工智能的“超级星期三”。 当地时间7日一早,谷歌在美股开盘前上涨近3%。
与此同时,欧洲监管机构已经就如何监管生成式人工智能的规则进行了十多个小时的谈判,预计将最终敲定一份令各方满意的协议。
AI终端“元年”开启
据谷歌称,计划明年初将其最先进版本的 Gemini 集成到聊天机器人 Bard 中。 该公司正在开发Gemini的三个版本,其中最强大的版本可以在数据中心运行,而最基本的版本将在移动设备上高效运行。
在移动设备上运行大型模型将成为未来趋势。 国际数据公司(IDC)报告写道,2024年将是AI终端元年,更多AI芯片将集成到终端设备系统中。 IDC预测,在中国市场,到2024年,超过70%的终端设备将配备AI功能。该机构还预测,到2027年,全球生成式AI市场将超过100亿美元。
谷歌还推出了用于云端AI加速的新一代TPU——Cloud TPU v5p,这是谷歌迄今为止最强大、最具性价比的TPU,用于训练大型AI模型。 据介绍,每个TPU v5p由多达8960个芯片互连,训练大型语言模型的速度几乎是前几代处理器的三倍。
谷歌、微软和亚马逊等科技公司纷纷推出自主研发的AI芯片,以减少芯片制造商训练大型模型时对GPU的依赖。
当地时间周三,AMD还推出了MI300系列两款新一代人工智能芯片,一款专注于生成式AI应用,另一款则针对超级计算机。 其中,用于生成AI的芯片版本MI300X包含先进的高带宽内存以提高性能。
AMD预计今年数据中心AI芯片的市场规模将达到450亿美元,高于今年6月预测的300亿美元。
AMD首席执行官苏姿丰在新闻发布会上表示,AMD“明年将有能力供应大量AI芯片”。 AMD还预测,到2027年,数据中心人工智能芯片市场预计将增长至约4000亿美元。
目前,英伟达仍占据人工智能芯片约80%的市场份额。 英伟达公布的数据显示,今年迄今该公司数据中心业务收入已达到近300亿美元。
以中国市场为例,英伟达的AI芯片占据了中国70亿美元人工智能芯片市场的90%以上。 不过,分析人士表示,美国对芯片出口的新限制可能会影响英伟达向中国市场供应AI芯片。
IDC中国副总裁周振刚对第一财经记者表示:“生成式AI正在成为人工智能的发展方向,大模型也推动了底层计算服务范式的变革。IT基础设施的组织模式将从云转型从计算到智能计算,新的智能计算能力平台构成了未来人工智能的基础。”
Facebook 母公司 Meta 也在周三发布了新的生成式人工智能功能。 Meta 表示,将在未来几周内通过 Meta AI 聊天机器人为其“Venture”产品添加隐形水印,以提高透明度。
Meta 今年 7 月发布了最新的 Llama 2 AI 大模型,该公司还在测试 20 多种生成式 AI 产品,以改进 Instagram 和 WhatsApp 等社交媒体平台。
为了应对生成式AI的版权问题,亚马逊云技术(AWS)还在上周举行的reInvent大会上发布了一款隐形水印工具。
AWS生成人工智能副总裁Vasi Philomin告诉第一财经记者:“从设计之初,我们就希望有一种方法可以对人工智能创建的图像进行标记,而不干扰视觉,没有延迟,而且可以”不被裁剪或压缩。 我们创建了一个 API,人们可以通过连接到 API 然后提供图像来检查图像的来源。”
欧盟预计将制定首个 AIGC 监管规则
IDC报告称,生成式人工智能(AIGC)将在金融、政府、制造、能源、医疗、零售等多个垂直领域拥有广泛的应用场景。
在企业不断涌现大车型的同时,监管也成为政府亟待考虑的问题。 6日,围绕欧盟首个监管生成人工智能规则的谈判也达到高潮。 经过十多个小时的讨论,欧盟国家和立法者有望就如何规范ChatGPT等人工智能系统的管理规则达成一致。
正如世界顶级人工智能专家最近警告的那样,生成式人工智能可能会创造出威胁人类的强大且高度智能的机器,因此在航空、教育和生物识别监控等环境中使用人工智能被认为是高风险的。
OpenAI最近的人事动荡加剧了这种担忧,尤其是业界对于如何使用安全方法构建通用人工智能系统的分歧。
目前,对于人工智能底层技术存在两种不同的观点:开放阵营和封闭阵营:一种是以谷歌、微软、OpenAI为代表的封闭阵营,另一种是以Meta、IBM等公司为代表的开放阵营。
封闭式营地采用闭源系统。 支持闭源的原因是,人工智能系统如果可以公开使用的话就太危险了; 而开源阵营则主张采用“开放科学”的方法进行AI开发,开源代码和免费平台,让每个人都可以为其做出贡献。
“开放是人工智能平台体现人类全部知识和文化的唯一途径。” 支持开源系统的Meta首席人工智能科学家Yann LeCun在社交媒体X平台上写道。
目前欧洲各国政府对生成型人工智能监管的分歧主要在于谁应该监管大型模型。 一些国家希望允许大型模型制造商进行自我监管,而不是通过可能损害公司竞争力的硬性法规强迫他们遵守。
清华大学教授、智能产业研究院首席研究员聂再清告诉第一财经记者:“大模型技术的发展比想象的要快。虽然现阶段人工智能还没有对人类构成直接威胁,但确实需要更多的关注,以确保机器始终能够为人类服务,不会被坏人利用。”
聂再清表示,相关工作和讨论应该围绕大模型安全机制的设计,同时重点关注如何保证这些安全机制在资本和商业化过程中的执行。 “学术界和工业界都需要开始投入一些精力去做相应的工作,最终达成一些共识和有效的方法。” 他表示,“底线是确保大型模型为人类服务。但他也强调,在设计好的AI安全机制落实之后,继续发展AI的能力仍然非常重要。”
上海交通大学产业研究院“人工智能+”产业团队负责人石占忠教授对第一财经记者表示:“生成式人工智能的安全性和伦理道德值得高度关注,需要建立监管体系和规范。如果相关监管体系逐步跟上,相信生成式AI将会造福更多人类。”
石占忠认为,从政府层面,要加快人工智能相关领域特别是金融、安全、健康等领域的立法,严格监管,明确人工智能设计者、使用者、内容生成者的权利和责任健全人工智能决策问责机制,保障社会公众合法权益; 从社会角度看,应加强对人工智能技术的监管,促进人工智能开发者遵守道德标准,规范人工智能的发展。
股市回暖,先开户抄底买股票! 智能定投、条件委托、个股雷达……给你>>
海量信息、精准解读,尽在新浪财经APP
搜虎网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。