How can we make the best possible use of large language models for a smarter and more inclusive society?
随着时间的推移信息环境的发展。观察到的总体趋势是,新技术提高了信息检索的速度,但降低了信息源的透明度。信用:自然人类行为(2024)。DOI:10.1038/s41562-024-01959-9。https://www.nature.com/articles/s41562-024-01959-9

近年来,大型语言模型 (LLM) 发展迅速,并通过 ChatGPT 等应用程序成为我们日常生活中不可或缺的一部分。最近一篇文章发表自然人类行为解释了使用法学硕士为我们集体审议、做出决策和解决问题的能力带来的机遇和风险。

在哥本哈根商学院和柏林马克斯·普朗克人类发展研究所的研究人员的领导下,由 28 名科学家组成的跨学科团队为研究人员和政策制定者提供建议,以确保法学硕士的发展能够补充而不是削弱人类集体智慧。

如果您不知道 LLM 这样的术语怎么办?您可能会很快用谷歌搜索或询问您的团队。我们在日常生活中理所当然地使用群体的知识,即集体智慧。

通过结合个人技能和知识,我们的集体智慧可以取得超出任何个人(甚至专家)单独能力的成果。这种集体智慧推动着各种群体的成功,从工作场所的小型团队到维基百科等大型在线社区,甚至整个社会。

法学硕士是使用大型数据集和深度学习技术分析和生成文本的 (AI) 系统。新文章解释了法学硕士如何增强集体智慧,并讨论了它们对团队和社会的潜在影响。

“作为随着信息和决策格局日益成型,在发挥潜力和防范风险之间取得平衡至关重要。我们的文章详细介绍了法学硕士可以增强人类集体智慧的方式,以及可能产生的各种危害,”该文章的合著者、柏林马克斯·普朗克人类发展研究所所长拉尔夫·赫特维希(Ralph Hertwig)说道。

其中研究人员发现,法学硕士可以显着提高集体流程的可及性。例如,他们通过翻译服务和写作协助打破障碍,让不同背景的人平等参与讨论。

此外,法学硕士可以加速想法的产生或支持意见形成过程,例如,将有用的信息带入讨论、总结不同的意见并寻求共识。

然而,使用法学硕士也存在重大风险。例如,它们可能会削弱人们为维基百科和 Stack Overflow 等集体知识共享做出贡献的动力。如果用户越来越依赖专有模型,知识格局的开放性和多样性可能会受到威胁。另一个问题是错误共识和多元无知的风险,即人们错误地认为大多数人接受某种规范。

该研究的主要作者兼助理杰森·伯顿(Jason Burton)指出:“由于法学硕士是从在线信息中学习的,因此存在少数观点在法学硕士生成的回答中没有得到体现的风险。这可能会产生一种错误的同意感,并使某些观点边缘化。”哥本哈根商学院教授和 MPIB 副研究科学家。

“这篇文章的价值在于,它展示了为什么我们需要主动思考法学硕士如何改变在线信息环境,进而改变我们的集体智慧——无论好坏,”合著者、助理教授 Joshua Becker 总结道。在伦敦大学学院。

作者呼吁法学硕士的创建,包括披露培训数据源,并建议法学硕士开发人员应接受外部审计和监控。这将使人们更好地了解法学硕士的实际发展情况并减轻不利的发展。

此外,本文还提供了与法学硕士相关主题的紧凑信息框,包括集体智慧在法学硕士培训中的作用。在这里,作者反思了人类在发展法学硕士中的作用,包括如何实现多样化代表性等目标。

两个重点关注研究的信息框概述了如何使用法学硕士来模拟人类,并确定开放的研究问题,例如如何避免知识同质化,以及与法学硕士共同创造集体成果时应如何分配信用和责任。

更多信息:Jason W. Burton 等人,大型语言模型如何重塑集体智慧,自然人类行为(2024)。DOI:10.1038/s41562-024-01959-9。www.nature.com/articles/s41562-024-01959-9引文

我们如何才能最好地利用大型语言模型来打造一个更智能、更具包容性的社会?(2024 年 9 月 20 日)检索日期:2024 年 9 月 20 日来自 https://techxplore.com/news/2024-09-large-language-smarter-inclusive-society.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。