共同創設者のイリヤ・サツケヴァー氏の退職を受けて今週初めに辞任したOpenAIの主要研究者であるヤン・ライケ氏は、Xに投稿されました金曜日の朝、社内では「輝く製品よりも安全文化とプロセスが後回しになっている」。

ライケ氏の声明はその後に発表された有線報告されましたOpenAI は、長期的な AI リスクに対処することに専念するチーム (「スーパーアライメント チーム」と呼ばれる) を完全に解散したと発表しました。ライクはスーパーアライメントチームを運営していた。昨年7月に結成OpenAI が人間のように推論できる AI を開発し、安全プロトコルの実装における「核となる技術的課題を解決する」ことを目的としています。

OpenAI の当初のアイデアは、モデルを一般に公開することであったため、組織名が付けられましたが、会社の方針により、モデルは独自の知識となっています。主張このような強力なモデルに誰でもアクセスできるようにすると、潜在的に破壊的になる可能性があります。

「私たちはAGIの影響について信じられないほど真剣に取り組むのが遅れて久しい。私たちはできる限り彼らに備えることを優先しなければならない」とライク氏は金曜朝、辞任に関するフォローアップの投稿で述べた。「そうして初めて、AGI が全人類に確実に利益をもたらすことができるのです。」

ザ・ヴァージ 報告されました今週初めに、昨年の取締役会クーデター未遂の際にアルトマン氏を支援したもう一人のOpenAI共同創設者であるジョン・シュルマン氏がライク社の責任を引き継ぐことが発表された。サツケヴァー氏はサム・アルトマン氏に対する悪名高きクーデター未遂で重要な役割を果たした。火曜日に退任を発表した

「過去数年にわたり、安全文化やプロセスは輝く製品よりも後回しになってきた」とライク氏は投稿した。

Leike の投稿は、OpenAI 内の緊張の高まりを浮き彫りにしています。研究者たちが ChatGPT や DALL-E などの消費者向け AI 製品を管理しながら、汎用人工知能の開発を競う中、ライクのような従業員は、超インテリジェント AI モデルの作成の潜在的な危険性について懸念を表明しています。ライク氏は、チームの優先順位が低くなり、「重要な」作業を実行するためのコンピューティングやその他のリソースを確保できなくなったと述べた。

「私が参加したのは、OpenAI がこの研究を行うのに世界で最適な場所だと思ったからです」とライク氏は書いています。「しかし、私はかなり長い間、会社の中核的優先事項について OpenAI のリーダーシップに同意できず、最終的に限界点に達しました。」