공동 창립자 Ilya Sutskever가 떠난 후 이번 주 초 사임한 핵심 OpenAI 연구원 Jan Leike는 다음과 같이 말했습니다.X에 게시됨금요일 아침 회사에서는 안전 문화와 프로세스가 빛나는 제품보다 뒷전으로 밀려났습니다.

Leike의 진술은 이후에 나왔습니다.열광한보고됨OpenAI는 장기적인 AI 위험 해결을 전담하는 팀('Superalignment 팀'이라고 함)을 완전히 해체했습니다.Leike는 Superalignment 팀을 운영하고 있었는데,지난해 7월 결성됐다.OpenAI가 인간처럼 추론할 수 있는 AI를 개발함에 따라 안전 프로토콜을 구현하는 데 있어 '핵심 기술 과제를 해결'합니다.

OpenAI의 원래 아이디어는 자신의 모델을 대중에게 공개적으로 제공하는 것(조직 이름)이었지만 회사의 소유로 인해 독점 지식이 되었습니다.주장누구든지 이러한 강력한 모델에 액세스할 수 있도록 허용하면 잠재적으로 파괴적일 수 있습니다.

â우리는 AGI의 의미에 대해 믿을 수 없을 정도로 심각하게 생각해야 합니다.우리는 가능한 한 최선을 다해 준비하는 것을 우선시해야 합니다.”라고 Leike는 금요일 아침 사임에 대한 후속 게시물에서 말했습니다.... 그래야만 AGI가 모든 인류에게 이익이 되도록 할 수 있습니다.'

더 버지 보고됨지난 해 실패한 이사회 쿠데타 동안 Altman을 지원했던 또 다른 OpenAI 공동 창업자인 John Schulman이 이번 주 초에 Leike의 책임을 맡게 됩니다.샘 알트먼을 상대로 한 쿠데타 실패로 악명 높았던 수츠케버는화요일에 출발한다고 발표했다.

'지난 몇 년 동안 안전 문화와 프로세스는 빛나는 제품보다 뒷자리를 차지했습니다.'라고 Leike는 게시했습니다.

Leike의 게시물은 OpenAI 내에서 증가하는 긴장감을 강조합니다.연구원들이 ChatGPT 및 DALL-E와 같은 소비자 AI 제품을 관리하면서 인공 일반 지능을 개발하기 위해 경쟁함에 따라 Leike와 같은 직원은 초지능 AI 모델 생성의 잠재적 위험에 대한 우려를 제기하고 있습니다.Leike는 자신의 팀이 우선순위를 잃었으며 '중요한' 작업을 수행하는 데 필요한 컴퓨팅 및 기타 리소스를 확보할 수 없었다고 말했습니다.

“저는 OpenAI가 이 연구를 수행하기에 세계에서 가장 좋은 곳이 될 것이라고 생각했기 때문에 합류했습니다.”라고 Leike는 썼습니다....그러나 나는 회사의 핵심 우선순위에 관해 OpenAI 경영진과 꽤 오랫동안 의견을 달리해 왔으며 마침내 한계점에 도달했습니다.'