How can we make the best possible use of large language models for a smarter and more inclusive society?
시간에 따른 정보 환경의 발전.새로운 기술이 정보 검색 속도를 높이지만 정보 소스에 대한 투명성은 감소하는 일반적인 경향이 관찰됩니다.신용 거래:자연 인간 행동(2024).DOI: 10.1038/s41562-024-01959-9.https://www.nature.com/articles/s41562-024-01959-9

LLM(대형 언어 모델)은 최근 몇 년 동안 빠르게 발전했으며 ChatGPT와 같은 애플리케이션을 통해 우리 일상 생활의 필수적인 부분이 되고 있습니다.최근에 기사출판됨~에자연 인간 행동집단적으로 숙고하고, 결정을 내리고, 문제를 해결하는 능력에 대해 LLM을 사용함으로써 발생하는 기회와 위험에 대해 설명합니다.

코펜하겐 비즈니스 스쿨(Copenhagen Business School)과 베를린 막스 플랑크 인간 개발 연구소(Max Planck Institute for Human Development)의 연구원이 이끄는 28명의 과학자로 구성된 학제간 팀은 연구원과 정책 입안자에게 LLM이 인간의 집단 지성을 손상시키지 않고 보완하도록 개발되도록 권장 사항을 제공합니다.

LLM과 같은 용어를 모른다면 어떻게 합니까?아마도 빨리 구글링하거나 팀에 물어볼 것입니다.우리는 집단지성이라 불리는 집단의 지식을 일상생활에서 당연하게 활용하고 있습니다.

개인의 기술과 지식을 결합함으로써 우리의 집단지성은 개인, 심지어 전문가의 능력을 뛰어넘는 결과를 달성할 수 있습니다.이러한 집단 지성은 직장의 소규모 팀부터 Wikipedia와 같은 대규모 온라인 커뮤니티, 심지어는 사회 전반에 이르기까지 모든 종류의 그룹의 성공을 주도합니다.

LLM은(AI) 대규모 데이터 세트와 딥 러닝 기술을 사용하여 텍스트를 분석하고 생성하는 시스템입니다.새 기사에서는 LLM이 어떻게 집단 지성을 강화할 수 있는지 설명하고 LLM이 팀과 사회에 미치는 잠재적인 영향에 대해 논의합니다.

"처럼정보와 의사결정 환경이 점점 더 구체화되고 있으므로, 잠재력 활용과 위험으로부터의 보호 사이에서 균형을 유지하는 것이 중요합니다.우리 기사에서는 LLM을 통해 인간의 집단 지능이 향상될 수 있는 방법과 발생할 수 있는 다양한 해악에 대해 자세히 설명합니다."라고 베를린 막스 플랑크 인간 개발 연구소 소장이자 공동 저자인 Ralph Hertwig는 말합니다.

중에서연구자들이 확인한 바로는 LLM이 집단 프로세스에서 접근성을 크게 높일 수 있다는 것입니다.예를 들어 번역 서비스와 글쓰기 지원을 통해 장벽을 허물고, 다양한 배경을 가진 사람들이 토론에 동등하게 참여할 수 있도록 합니다.

또한 LLM은 유용한 정보를 토론에 가져오고, 다양한 의견을 요약하고, 합의점을 찾는 등 아이디어 생성을 가속화하거나 의견 형성 프로세스를 지원할 수 있습니다.

그러나 LLM을 사용하면 상당한 위험도 따릅니다.예를 들어 Wikipedia 및 Stack Overflow와 같은 집단적 지식 공유에 기여하려는 사람들의 동기를 약화시킬 수 있습니다.사용자가 독점 모델에 점점 더 의존하게 되면 지식 환경의 개방성과 다양성이 위협받을 수 있습니다.또 다른 문제는 대다수가 규범을 받아들인다는 잘못된 믿음이 있는 잘못된 합의와 다원적 무지의 위험입니다.

"LLM은 온라인에서 사용할 수 있는 정보를 통해 학습하기 때문에 LLM이 생성한 응답에서 소수의 관점이 표현되지 않을 위험이 있습니다. 이는 잘못된 합의감을 조성하고 일부 관점을 소외시킬 수 있습니다"라고 연구의 수석 저자이자 보조자인 Jason Burton은 지적합니다.코펜하겐 경영대학원 교수이자 MPIB 부연구원.

"이 기사의 가치는 LLM이 어떻게 온라인 정보 환경을 변화시키고 결과적으로 우리의 집단 지성이 더 좋든 나쁘든 어떻게 변화하는지에 대해 적극적으로 생각해야 하는 이유를 보여주는 것입니다."라고 공동 저자이자 조교수인 Joshua Becker는 요약합니다.유니버시티 칼리지 런던에서.

저자들은 다음과 같이 요구한다.교육 데이터 소스 공개를 포함하여 LLM을 생성할 때 LLM 개발자가 외부 감사 및 모니터링을 받아야 한다고 제안합니다.이를 통해 LLM이 실제로 어떻게 개발되고 있는지 더 잘 이해하고 불리한 개발을 완화할 수 있습니다.

또한 이 기사는 LLM 교육에서 집단 지성의 역할을 포함하여 LLM과 관련된 주제에 대한 간략한 정보 상자를 제공합니다.여기에서 저자는 다양한 표현과 같은 목표를 해결하는 방법을 포함하여 LLM 개발에서 인간의 역할을 반영합니다.

LLM을 사용하여 인간을 시뮬레이션하는 방법에 대한 연구 개요에 초점을 맞춘 두 개의 정보 상자지식의 균질화를 피하는 방법, LLM과 공동 결과를 공동 생성할 때 신용과 책임을 어떻게 배분해야 하는지와 같은 공개 연구 질문을 식별합니다.

추가 정보:Jason W. Burton 외, 얼마나 큰 언어 모델이 집단 지능을 재구성할 수 있는지,자연 인간 행동(2024).DOI: 10.1038/s41562-024-01959-9.www.nature.com/articles/s41562-024-01959-9소환

:보다 스마트하고 포용적인 사회를 위해 어떻게 대규모 언어 모델을 최대한 활용할 수 있습니까?(2024년 9월 20일)2024년 9월 20일에 확인함https://techxplore.com/news/2024-09-large-언어-smarter-inclusive-society.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.