ChatGPT
图片来源:Pixabay/CC0 公共领域

根据巴斯大学和德国达姆施塔特工业大学的最新研究,ChatGPT 和其他大型语言模型 (LLM) 无法独立学习或获得新技能,这意味着它们不会对人类构成生存威胁。

学习,今天作为计算语言学协会第 62 届年会会议记录的一部分发布(2024年ACL)——首屈一指的国际会议处理——表明法学硕士具有遵循指示的表面能力并擅长熟练掌握语言,但是,如果没有明确的指示,他们没有掌握新技能的潜力。这意味着它们本质上仍然是可控的、可预测的和安全的。

研究小组得出的结论是,正在接受更大数据集培训的法学硕士可以继续部署而无需担心安全问题,尽管该技术仍然可能被滥用。

随着增长,这些模型可能会生成更复杂的语言,并更好地遵循明确和详细的提示,但它们不太可能获得复杂的推理技能。

该大学计算机科学家 Harish Tayyar Madabushi 博士表示:“普遍认为这种人工智能对人类构成威胁,这阻碍了这些技术的广泛采用和发展,也转移了我们对真正需要我们关注的问题的注意力。”巴斯大学法学硕士的“新兴能力”新研究的合著者。

由德国达姆施塔特工业大学 Iryna Gurevych 教授领导的合作研究小组进行了实验,测试法学硕士完成模型以前从未遇到过的任务的能力,即所谓的突现能力。

举例来说,法学硕士可以回答有关社交情境的问题,而无需接受明确的培训或编程。虽然之前的研究表明这是模型“了解”社会情境的产物,但研究人员表明,这实际上是模型使用法学硕士众所周知的能力根据向他们提供的一些例子来完成任务的结果,已知称为“情境学习”(ICL)。

Harish Tayyar Madabushi 博士描述了法学硕士的优点、缺点和局限性。图片来源:巴斯大学

通过数千次实验,该团队证明,法学硕士遵循指令的能力(ICL)、记忆力和语言能力的结合可以解释法学硕士所表现出的能力和局限性。

Tayyar Madabushi 博士说:“令人担心的是,随着模型变得越来越大,它们将能够解决我们目前无法预测的新问题,这构成了这些较大模型可能获得包括推理和规划在内的危险能力的威胁。

“这引发了很多讨论——例如,去年在布莱切利公园举行的人工智能安全峰会上,我们被要求发表评论——但我们的研究表明,人们担心模型会消失并完全做某事意外的、创新的和潜在危险的无效。

“对法学硕士提出的观点并不局限于非专家,并且已经由世界各地一些顶尖的人工智能研究人员表达过。”

更多信息:大型语言模型中的涌现能力只是情境学习吗?aclanthology.org/2024.acl-long.279/

引文:新研究发现人工智能不会对人类构成生存威胁(2024 年,8 月 20 日)检索日期:2024 年 8 月 20 日来自 https://techxplore.com/news/2024-08-ai-poses-existential-threat- humanity.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。