Language agents help large language models 'think' better and cheaper
代理为分类数据集 IMDB 生成特定于任务的指令(突出显示)的示例。该代理仅运行一次来​​生成指令。然后,这些指令在推理过程中用于我们所有的模型。信用:arXiv(2023)。DOI:10.48550/arxiv.2310.03710

越来越多地占领科技世界的大型语言模型在很多方面并不“便宜”。最著名的法学硕士,例如 GPT-4,花费了大约 1 亿美元来建立,具体形式包括访问训练数据的法律成本、可能数十亿或数万亿参数的计算能力成本、计算所需的能源和水,许多编码人员开发的训练算法必须循环运行,以便机器能够“学习”。

但是,如果研究人员需要完成机器可以更有效地完成的专门任务,并且他们无法访问提供生成式人工智能工具的大型机构,那么还有哪些其他选择可用?比如说,一位家长想要让孩子为困难的考试做好准备,并且需要展示许多如何解决复杂数学问题的例子。

就上述成本而言,建立自己的 LLM 是一个繁重的前景,直接使用 GPT-4 和 Llama 3.1 等大型模型可能不会立即适合复杂的情况他们的任务需要逻辑和数学。

如果有一个更具成本效益的大型语言模型思考者版本可供大众使用,这是一个生成人工智能的通用品牌,那将会有所帮助。

圣路易斯华盛顿大学的研究人员决定通过构建一个自主代理来指导推理过程来应对这一挑战。根据计算机科学与工程助理教授王晨光实验室的研究,该代理为每个任务生成一组指令,这些指令对于改善所有任务实例中不同法学硕士的推理过程非常有效与加州大学伯克利分校教授 Dawn Song 合作。

研究人员包括华盛顿大学博士。学生 Nicholas Crispino、Kyle Montgomery 和研究分析师 Fankun Zeng介绍了他们的工作在最近的一次机器学习会议上。工作也是可用的arXiv预印本服务器。

克里斯皮诺说,这个“代理”是一个大型法学硕士,可以作为思考网络指令的工具。给定基本任务信息(例如数据集名称)和一些仅输入示例,代理就会为任务生成高质量的分步指令。

这些说明指导较小的法学硕士在某些任务上的推理。这是一种更经济实惠的生成式人工智能方式,因为他们只需在每个数据集使用大型法学硕士一次,然后将指令交给可以接管的较小法学硕士。

克里斯皮诺说:“我们可以使用昂贵的模型一次,并做出这些很好的说明来指导更便宜的模型的推理或思考过程。”

蒙哥马利补充道:“我们的方法极大地提高了最先进的大型语言模型的性能。”

他们在语言处理任务上测试了名为 Zero-Shot AgentInstruct 的经济高效方法,并将其性能与使用 LLM Vicuna-13b、Llama-2-70b-chat 和 GPT-3.5 Turbo 的零样本提示方法进行了比较。

与通过添加“让我们一步一步思考”提示来工作的“零样本思维链”提示相比,零样本 AgentInstruct 在 29 个数据集(包括 53 个子集)上评估的各种任务中表现出更好的性能。

“我们在思维和推理方面的进步是惊人的,特别是在数学和逻辑方面,”王说。

本质上,他们利用强大的LLM模型将任务提炼成另一个模型的逐步推理路径,就像经验丰富的老师与学生分享他们的知识一样。

Crispino 说:“我们正在研究如何在不经过训练的情况下使用较大模型来将较小模型的推理能力推向何种程度。”

更多信息:Nicholas Crispino 等人,代理指示大型语言模型成为通用零样本推理机,arXiv(2023)。DOI:10.48550/arxiv.2310.03710

期刊信息: arXiv

引文:语言代理帮助大型语言模型更好、更便宜地“思考”(2024 年 9 月 24 日)检索日期:2024 年 9 月 24 日来自 https://techxplore.com/news/2024-09-language-agents-large-cheaper.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。