OpenAI 正在将其安全和安保委员会转变为独立的“董事会监督委员会”,该委员会有权因安全问题推迟模型发布,根据 OpenAI 博客文章。在最近对 OpenAI 的“安全相关流程和保障措施”进行了 90 天的审查后,该委员会提出了成立独立董事会的建议。

该委员会的主席是济科·科尔特包括亚当·丹吉洛 (Adam DâAngelo),保罗·中曾根, 和妮可·塞利格曼,将“听取公司领导层关于主要模型发布的安全评估的简报,并将与全体董事会一起对模型发布进行监督,包括有权推迟发布,直到安全问题得到解决,”OpenAI 说。OpenAI 的全体董事会还将收到有关“安全和安保问题”的“定期简报”。

OpenAI 安全委员会的成员也是该公司更广泛的董事会成员,因此目前尚不清楚该委员会实际上有多独立,也不清楚这种独立性是如何构成的。(首席执行官萨姆·奥尔特曼此前曾在委员会任职,但现在已经不再是了。)我们已向 OpenAI 征求意见。

通过建立一个独立的安全委员会,OpenAI 似乎采取了与 Meta 监督委员会类似的方法,该委员会审查 Meta 的一些内容政策决策,并可以做出 Meta 必须遵循的裁决。没有一个监督委员会成员正在Meta 的董事会

OpenAI 安全委员会的审查还有助于“为行业合作和信息共享提供更多机会,以提高人工智能行业的安全性。”该公司还表示,将寻找“更多方法来确保安全”。分享和解释我们的安全工作,并获得“更多对我们的系统进行独立测试的机会。”

9月16日更新:补充说萨姆·奥尔特曼不再是委员会成员。