Broadchain

OpenAI发布安全指南:董事会有权阻止CEO发布新模型

Web3 News 2023-12-19 11:41 543

OpenAI正在监控所谓的“灾难性”风险,它在这份指南中被定义为“可能导致数千亿美元经济损失或导致许多人严重受伤甚至死亡的任何风险”。

博链财经BroadChain获悉,12月19日,OpenAI发布了一份名为“准备框架(Preparedness Framework)”的安全指南,规定了“跟踪、评估、预测和防范日益强大的模型带来的灾难性风险的流程”。

OpenAI解释说,对前沿人工智能风险的研究,远远没有达到需求。为了解决这一差距并使安全思维系统化,OpenAI正在采用“准备框架”的测试版本。

OpenAI宣布,“准备(Preparedness)团队”将致力于确保前沿人工智能模型的安全。

“准备团队”将持续评估人工智能系统,以了解其在四个不同风险类别中的表现,包括潜在的网络安全问题、化学威胁、核威胁和生物威胁,并努力减少该技术可能造成的任何危害。

具体来看,OpenAI正在监控所谓的“灾难性”风险,它在这份指南中被定义为“可能导致数千亿美元经济损失或导致许多人严重受伤甚至死亡的任何风险”。

值得注意的是,根据安全指南,领导层可以根据这些报告决定是否发布新的人工智能模型,但董事会有权推翻其决定。

声明:BroadChain Finance网站和App所发布的内容,均不构成任何投资建议。

Web3 News

Web3 News

4925 篇 作品
655.94W 总阅读量