OpenAI 的重要研究員 Jan Leike 在聯合創始人 Ilya Sutskever 離職後於本週早些時候辭職,發佈於 X週五早上,公司的「安全文化和流程已經讓位給閃亮的產品」。

雷克的聲明是在有線報道OpenAI 已經解散了致力於解決長期人工智慧風險的團隊(稱為「超級對齊團隊」)。Leike 一直在管理 Superalignment 團隊,該團隊去年七月成立隨著 OpenAI 開發出可以像人類一樣推理的人工智慧,「解決核心技術挑戰」並實施安全協議。

OpenAI 的最初想法是向公眾公開提供他們的模型,該組織因此得名,但由於公司的索賠允許任何人訪問如此強大的模型可能具有潛在的破壞性。

——我們早就該認真看待 AGI 的影響了。我們必須優先考慮盡可能為他們做好準備,」雷克在周五上午關於他辭職的後續帖子中說道。“只有這樣,我們才能確保 AGI 造福全人類。”

邊緣 報道本週早些時候,另一位 OpenAI 聯合創始人約翰舒爾曼 (John Schulman) 將接替雷克的職責,他在去年不成功的董事會政變中支持 Altman。蘇茨克維爾在針對薩姆·奧爾特曼的臭名昭著的失敗政變中發揮了關鍵作用,週二宣布離職

「在過去的幾年裡,安全文化和流程已經讓位給閃亮的產品,」雷克發文說。

Leike 的貼文突顯了 OpenAI 內部日益緊張的局勢。隨著研究人員競相開發通用人工智慧,同時管理 ChatGPT 和 DALL-E 等消費性 AI 產品,Leike 等員工開始擔心創建超級智慧 AI 模型的潛在危險。雷克表示,他的團隊的優先順序被降低,無法獲得計算和其他資源來執行「關鍵」工作。

「我加入是因為我認為 OpenAI 將是世界上進行這項研究的最佳場所,」Leike 寫道。“然而,相當長一段時間以來,我一直與 OpenAI 領導層關於公司核心優先事項的觀點存在分歧,直到我們最終達到了臨界點。”