Humans sympathize with, and protect, AI bots from playtime exclusion, finds study
Cyber​​ball 的 (a) 封面故事和 (b) 游戏界面的屏幕截图。信用:人类行为和新兴技术(2024)。DOI:10.1155/2024/8864909

在伦敦帝国理工学院的一项研究中,人类对被排除在游戏时间之外的人工智能机器人表示同情并保护它们。研究人员表示,这项使用虚拟球类游戏的研究突显了人类将人工智能代理视为社会存在的倾向——在设计人工智能机器人时应该考虑到这一倾向。

该研究发表于人类行为和新兴技术

帝国理工学院戴森设计工程学院的第一作者 Jianan Zhou 表示:“这是对人类如何与人工智能互动的独特见解,对他们的设计和我们的心理产生了令人兴奋的影响。”

人们越来越需要在访问服务时与人工智能虚拟代理进行交互,许多人还将它们作为服务的伴侣。。然而,这些发现表明开发人员应该避免将代理设计得过于像人类。

同样来自帝国理工学院戴森设计工程学院的资深作者 Nejra van Zalk 博士表示:“关于人类是否将人工智能虚拟代理视为社会存在,越来越多的研究显示了相互矛盾的发现。这提出了人们如何感知和理解的重要问题。与这些代理进行交互。

“我们的结果表明,参与者倾向于将人工智能虚拟代理视为社会存在,因为如果他们觉得人工智能被排除在外,他​​们就会试图将人工智能虚拟代理纳入抛球游戏中。这在人与人之间的互动中很常见,我们的即使参与者知道自己正在向虚拟代理扔球,他们也表现出相同的倾向,有趣的是,这种效应在年长的参与者中更为强烈。”

人们不喜欢排斥——甚至不喜欢人工智能

感受到同理心并针对不公平现象采取纠正行动是大多数人似乎生来就要做的事情。先前不涉及人工智能的研究发现,人们倾向于通过更频繁地向被排斥的目标扔球来补偿他们,而且人们也倾向于不喜欢排斥行为的肇事者,同时对目标感到偏爱和同情。

为了进行这项研究,研究人员观察了 244 名人类参与者在“网络球”游戏中观察到人工智能虚拟代理被另一个人排除在游戏之外时的反应,在该游戏中,玩家在屏幕上互相传递虚拟球。参与者年龄在18岁至62岁之间。

在某些游戏中,非参与者将球多次扔给机器人,而在其他游戏中,非参与者仅将球扔给参与者,公然排除机器人。

观察并随后调查参与者的反应,以测试他们是否愿意在机器人受到不公平对待后将球扔给机器人,以及为什么。

他们发现,大多数时候,参与者试图通过倾向于将球扔给机器人来纠正对机器人的不公平。年龄较大的参与者更有可能感受到不公平。

人性化的谨慎

研究人员表示,随着人工智能虚拟代理在协作任务中变得越来越流行,增加与人类的接触可能会增加我们的熟悉度并触发自动处理。这意味着用户可能会直观地将虚拟代理视为真正的团队成员,并与他们进行社交互动。

他们说,这可能是工作协作的一个优势,但可能会涉及到虚拟代理被用作朋友来取代,或担任身体或心理健康顾问。

贾南说:“通过避免设计过于像人类的代理,开发人员可以帮助人们区分虚拟交互和真实交互。他们还可以针对特定年龄范围定制设计,例如,通过考虑不同的人类特征如何影响我们的感知。”

研究人员指出,网络球可能无法代表人类在现实生活场景中的互动方式,现实生活场景通常通过聊天机器人或语音助手的书面或口头语言进行。这可能与一些参与者的用户期望相冲突,并引起陌生感,影响他们在实验过程中的反应。

因此,他们现在正在设计类似的实验,在不同的环境中(例如在实验室或更随意的环境中)与代理进行面对面的对话。通过这种方式,他们可以测试他们的发现能延伸多远。

更多信息:Jianan Zhou 等人,人类盲目地将人工智能虚拟代理视为社会存在,但这种趋势在年轻人中减弱:来自网络球实验的证据,人类行为和新兴技术(2024)。DOI:10.1155/2024/8864909

引文:研究发现,人类同情并保护人工智能机器人免受游戏时间排斥(2024 年,10 月 17 日)检索日期:2024 年 10 月 17 日来自 https://techxplore.com/news/2024-10- humans-sympathize-ai-bots-playtime.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。