How can we make the best possible use of large language models for a smarter and more inclusive society?
隨著時間的推移資訊環境的發展。觀察到的總體趨勢是,新技術提高了資訊檢索的速度,但降低了資訊來源的透明度。信用:自然人類行為(2024)。DOI:10.1038/s41562-024-01959-9。https://www.nature.com/articles/s41562-024-01959-9

近年來,大型語言模型 (LLM) 發展迅速,並透過 ChatGPT 等應用程式成為我們日常生活中不可或缺的一部分。最近一篇文章發表自然人類行為解釋了使用法學碩士為我們集體審議、做出決策和解決問題的能力帶來的機會和風險。

在哥本哈根商學院和柏林馬克斯·普朗克人類發展研究所的研究人員的領導下,由28 名科學家組成的跨學科團隊為研究人員和政策制定者提供建議,以確保法學碩士的發展能夠補充而不是削弱人類集體智慧。

如果您不知道 LLM 這樣的術語怎麼辦?您可能會很快用谷歌搜尋或詢問您的團隊。我們在日常生活中理所當然地運用群體的知識,即集體智慧。

透過結合個人技能和知識,我們的集體智慧可以達到超越任何個人(甚至是專家)單獨能力的成果。這種集體智慧推動著各種群體的成功,從工作場所的小型團隊到維基百科等大型線上社區,甚至整個社會。

法學碩士是使用大型資料集和深度學習技術分析和產生文字的 (AI) 系統。新文章解釋了法學碩士如何增強集體智慧,並討論了它們對團隊和社會的潛在影響。

「作為隨著資訊和決策格局日益成型,在發揮潛力和防範風險之間取得平衡至關重要。我們的文章詳細介紹了法學碩士可以增強人類集體智慧的方式,以及可能產生的各種危害,」該文章的合著者、柏林馬克斯·普朗克人類發展研究所所長拉爾夫·赫特維希(Ralph Hertwig)說。

其中研究人員發現,法學碩士可以顯著提高集體流程的可近性。例如,他們透過翻譯服務和寫作協助打破障礙,讓不同背景的人平等參與討論。

此外,法學碩士可以加速想法的產生或支持意見形成過程,例如,將有用的信息帶入討論、總結不同的意見並尋求共識。

然而,使用法學碩士也存在重大風險。例如,它們可能會削弱人們為維基百科和 Stack Overflow 等集體知識共享做出貢獻的動力。如果使用者越來越依賴專有模型,知識格局的開放性和多樣性可能會受到威脅。另一個問題是錯誤共識和多元無知的風險,即人們錯誤地認為大多數人接受某種規範。

該研究的主要作者兼助理傑森·伯頓(Jason Burton)指出:「由於法學碩士是從線上資訊中學習的,因此存在少數觀點在法學碩士生成的回答中沒有得到體現的風險。這可能會產生一種錯誤的同意感,並使某些觀點邊緣化。

「這篇文章的價值在於,它展示了為什麼我們需要主動思考法學碩士如何改變線上資訊環境,進而改變我們的集體智慧——無論好壞,」合著者、助理教授 Joshua Becker 總結道。學院。

作者呼籲法學碩士的創建,包括揭露培訓資料來源,並建議法學碩士開發人員應接受外部審計和監控。這將使人們更好地了解法學碩士的實際發展並減輕不利的發展。

此外,本文也提供了與法學碩士相關主題的緊湊資訊框,包括集體智慧在法學碩士培訓中的作用。在這裡,作者反思了人類在發展法學碩士中的作用,包括如何實現多樣化代表性等目標。

兩個重點關注研究的資訊框概述瞭如何使用法學碩士來模擬人類,並確定開放的研究問題,例如如何避免知識同質化,以及與法學碩士共同創造集體成果時應如何分配信用和責任。

更多資訊:Jason W. Burton 等人,大型語言模式如何重塑集體智慧,自然人類行為(2024)。DOI:10.1038/s41562-024-01959-9。www.nature.com/articles/s41562-024-01959-9引文

我們如何才能最好地利用大型語言模式來打造一個更聰明、更具包容性的社會?(2024 年 9 月 20 日)檢索日期:2024 年 9 月 20 日來自 https://techxplore.com/news/2024-09-large-language-smarter-inclusive-society.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。