编辑:搜虎网 来源:搜虎网 风险模型
2023-12-19 20:06:10OpenAI 于东部时间 12 月 18 日星期一发布了一系列指南,旨在“跟踪、评估、预测和预防日益强大的 (AI) 模型带来的灾难性风险”。
这份名为“准备框架”的长达 27 页的指南指出,即使公司领导层(即首席执行官或领导层指定的人)认为公司董事会可以选择推迟发布人工智能模型,该模型是安全的。 它认为,虽然 OpenAI 的首席执行官将负责日常决策,但董事会将了解有关风险的调查结果,并可以否决首席执行官的决定。
除了规定公司领导层和董事会的权限外,OpenAI的准备框架主要建议使用矩阵方法来记录多个类别的尖端AI模型所带来的风险级别,包括不良行为者利用AI模型创建恶意软件,发起社会工程攻击或传播有害的核武器或生物武器信息。
具体来说,OpenAI 定义了网络安全等多个类别的风险阈值。 在针对每个风险类别实施风险缓解措施之前和之后,OpenAI 会将每个风险分为四类:低、中、高或严重。 。
OpenAI规定,只有风险缓解后评级为“中”或以下的AI模型才能部署,只有风险缓解后评级为“高”或以下的模型才能进一步开发。 如果风险不能降低到严重以下,公司将停止开发该模型。
股市回暖,先开户抄底买股票! 智能定投、条件委托、个股雷达……给你>>
海量信息、精准解读,尽在新浪财经APP
搜虎网转载此文目的在于传递更多信息,不代表本网的观点和立场。文章内容仅供参考,不构成投资建议。投资者据此操作,风险自担。