Humans sympathize with, and protect, AI bots from playtime exclusion, finds study
Cyber​​ball 的 (a) 封面故事和 (b) 遊戲介面的螢幕截圖。信用:人類行為與新興技術(2024)。DOI:10.1155/2024/8864909

在倫敦帝國學院的一項研究中,人類對被排除在遊戲時間之外的人工智慧機器人表示同情並保護它們。研究人員表示,這項使用虛擬球類遊戲的研究突顯了人類將人工智慧代理視為社會存在的傾向——在設計人工智慧機器人時應該考慮到這種傾向。

該研究發表於人類行為與新興技術

帝國學院戴森設計工程學院的第一作者 Jianan Zhou 表示:“這是對人類如何與人工智慧互動的獨特見解,對他們的設計和我們的心理產生了令人興奮的影響。”

人們越來越需要在訪問服務時與人工智慧虛擬代理進行交互,許多人也將它們作為服務的伴侶。。然而,這些發現表明開發人員應該避免將代理設計得過於像人類。

同樣來自帝國理工學院戴森設計工程學院的資深作者Nejra van Zalk 博士表示:「關於人類是否將人工智慧虛擬代理視為社會存在,越來越多的研究顯示了相互矛盾的發現。這提出了人們如何感知和理解的重要問題。

「我們的結果表明,參與者傾向於將人工智慧虛擬代理視為社會存在,因為如果他們覺得人工智慧被排除在外,他​​們就會試圖將人工智慧虛擬代理納入拋球遊戲中。這在人與人之間的互動中很常見,我們的即使參與者知道自己正在向虛擬代理扔球,他們也表現出相同的傾向,有趣的是,這種效應在年長的參與者中更為強烈。

人們不喜歡排斥——甚至不喜歡人工智慧

感受到同理心並針對不公平現象採取糾正行動是大多數人似乎生來就要做的事情。先前不涉及人工智慧的研究發現,人們傾向於透過更頻繁地向被排斥的目標扔球來補償他們,而且人們也傾向於不喜歡排斥行為的肇事者,同時對目標感到偏好和同情。

為了進行這項研究,研究人員觀察了244 名人類參與者在「網路球」遊戲中觀察到人工智慧虛擬代理被另一個人排除在遊戲之外時的反應,在該遊戲中,玩家在螢幕上互相傳遞虛擬球。參與者年齡在18歲至62歲之間。

在某些遊戲中,非參與者將球多次扔給機器人,而在其他遊戲中,非參與者僅將球扔給參與者,公然排除機器人。

觀察並隨後調查參與者的反應,以測試他們是否願意在機器人受到不公平對待後將球扔給機器人,以及為什麼。

他們發現,大多數時候,參與者試圖透過傾向於將球扔給機器人來糾正對機器人的不公平。年齡較大的參與者更有可能感受到不公平。

人性化的謹慎

研究人員表示,隨著人工智慧虛擬代理在協作任務中變得越來越流行,增加與人類的接觸可能會增加我們的熟悉度並觸發自動處理。這意味著用戶可能會直觀地將虛擬代理視為真正的團隊成員,並與他們進行社交互動。

他們說,這可能是工作協作的優勢,但可能涉及虛擬代理商被用作朋友來取代,或擔任身體或心理健康顧問。

賈南說:「透過避免設計過於像人類的代理,開發人員可以幫助人們區分虛擬互動和真實互動。他們還可以針對特定年齡範圍客製化設計,例如,透過考慮不同的人類特徵如何影響我們的感知。 」

研究人員指出,網路球可能無法代表人類在現實生活場景中的互動方式,而現實生活場景通常透過聊天機器人或語音助理的書面或口語進行。這可能與一些參與者的使用者期望相衝突,並引起陌生感,影響他們在實驗過程中的反應。

因此,他們現在正在設計類似的實驗,在不同的環境中(例如在實驗室或更隨意的環境中)與代理人進行面對面的對話。透過這種方式,他們可以測試他們的發現能延伸多遠。

更多資訊:Jianan Zhou 等人,人類盲目地將人工智慧虛擬代理視為社會存在,但這種趨勢在年輕人中減弱:來自網路球實驗的證據,人類行為與新興技術(2024)。DOI:10.1155/2024/8864909

引文:研究發現,人類同情並保護人工智慧機器人免受遊戲時間排斥(2024 年,10 月 17 日)檢索日期:2024 年 10 月 17 日取自 https://techxplore.com/news/2024-10- humans-sympathize-ai-bots-playtime.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。