OpenAIは安全・セキュリティ委員会を独立した「取締役会監視委員会」に変え、安全性への懸念を理由にモデルの発売を遅らせる権限を持つ。OpenAI のブログ投稿によると。同委員会は、OpenAI の「安全性とセキュリティ関連のプロセスと保護措置」を最近 90 日間レビューした後、独立した取締役会を設立するよう勧告しました。

委員長が務める委員会は、ジーコ・コルターアダム・ダンジェロも含まれます。ポール・ナカソネ、 そしてニコール・セリグマンは、「主要モデルリリースの安全性評価について会社のリーダーから説明を受け、取締役会全員とともに、安全性の懸念が解消されるまでリリースを延期する権限を含む、モデル発売に対する監督を行う。」OpenAIは言う。OpenAI の取締役全員は、「安全性とセキュリティの問題」に関する「定期的な説明会」も受けます。

OpenAI の安全委員会のメンバーは、同社の広範な取締役会のメンバーでもあるため、委員会が実際にどの程度独立しているのか、またその独立性がどのように構成されているのかは正確には不明です。(CEOのサム・アルトマン氏は、以前委員会にいた) 私たちは OpenAI にコメントを求めました。

OpenAIは、独立した安全委員会を設立することで、メタのコンテンツポリシー決定の一部を検討し、メタが従わなければならない決定を下すことができるメタの監視委員会といくぶん似たアプローチをとっているようだ。どれも監視委員会のメンバーオンですMeta の取締役会

OpenAI の安全性およびセキュリティ委員会によるレビューは、「AI 業界のセキュリティを向上させるための業界連携と情報共有の追加の機会」にも役立ちました。同社はまた、「より多くの方法を模索する」とも述べています。当社の安全活動を共有および説明し、「当社システムの独立したテストの機会を増やす」ために。

9 月 16 日の更新: サム・アルトマン氏はもう委員会のメンバーではないことを追加しました。