robots
圖片來源:Unsplash/CC0 公共領域

一個機器人正在一位英國老人的臥室裡聊天。該機器人性格開朗,令人愉快的高亢聲音

——也許是因為這個人的年齡——開始詢問他對第二次世界大戰的記憶:“請告訴我你和你的家人經歷的最困難的事情是什麼?”這位老人接著談到了他的父親在皇家空軍的經歷,他們已經快四年沒見過他了。

但為什麼機器人會直截了當地問他這可能是他經歷過的最痛苦的經歷之一呢?機器人的行為是愛撫項目(用於老年人支持的文化感知機器人和環境感測器系統)。

該專案適合「文化機器人」的新領域,旨在設計能夠考慮交談對象的文化背景並相應調整其行為的機器人。這就是機器人談論戰爭的原因。這個人是英國人,所以推測他會感興趣。

未來,我們可以預期機器人將越來越多地出現在我們的個人和社交生活中。目前正在積極研究各個領域,例如超市配送機器人,娛樂機器人,醫療保健服務機器人,倉庫取貨機器人,癡呆症支持機器人,為自閉症譜係人士提供的機器人老人護理機器人

甚至還有機器人牧師可以用五種語言傳遞祝福,機器人僧侶可以教育人們了解佛教。

文化刻板印象

文化機器人是讓人工智慧和機器人更具文化包容性的更廣泛運動的一部分。

此前曾有人提出對這項運動的擔憂。例如,OpenAI 的 ChatGPT 使用的大型語言模型 (LLM) 是在大量文字上進行訓練的。但由於網路仍以英語為主,法學碩士主要接受英語文本的培訓 –以及其中的文化假設和偏見。。同樣,讓機器人和人工智慧對文化更加敏感的舉措是善意的,但我們擔心它會導致什麼結果。

例如,

一項研究比較了中國、德國和韓國的文化偏好,得出這些國家的人們希望他們的機器人是什麼樣子的結論。透過借鑒先前關於文化偏好的研究,他們認為更多「男性」社會傾向於認為「大而快」的事物是美麗的,而更多「女性」社會則認為「小而慢」的事物是美麗的。

他們引用了聲稱表明韓國文化是「中等男性氣質」而德國文化是「高度男性氣質」的研究,並假設韓國人更有可能找到服務機器人(它們往往是小型或中型的,而且速度很慢)討人喜歡。

另一項研究比較了德國人和「阿拉伯人」的個人空間偏好。但這些東西是沒有可比性的。「阿拉伯人」對許多人來說是一個潛在的冒犯性術語,可以用來形容來自許多不同文化和民族背景的人。它當然不能與“德國人”這樣的類別相提並論,“德國人”是對單一國籍的人的非冒犯性術語。

人們越來越明顯地看到,人類對機器人的反應因自身文化背景的差異而有所不同。例如,不同的文化有不同的期望圍繞個人空間,這會影響他們更喜歡機器人離他們多遠。

不同的文化對臉部表情的解釋也不同。一項研究發現如果機器人使用他們熟悉的臉部表情進行交流,人們就更能夠理解機器人。

另一種方式?

如果我們想避免基於廣泛而粗略的概括和刻板印象來設計機器人,那麼我們將需要一種更細緻的機器人文化方法。

眾所周知,文化是一個模糊而微妙的概念,可以有多種解釋。一項調查列出了超過300 個潛在的文化定義

在我們最近的研究中,我們認為文化「在概念上是支離破碎的」。簡而言之,我們的觀點是,理解文化的方式有很多種,機器人的種類也有很多,我們不應該指望有一種放之四海而皆準的方法。

我們認為機器人技術中的不同應用將需要完全不同的文化方法。例如,想像劇院裡有一個娛樂機器人,它的工作就是為觀眾跳舞。

對於這項工作,接觸文化的最佳方式可能涉及關注當地人們喜歡什麼類型的娛樂活動。這可能涉及詢問當地常見的舞蹈風格是什麼,並圍繞該風格對機器人的設計進行建模。

其他應用程式可能需要不同的培養方法。例如,對於預計在較長時間內與相同少數人互動的機器人(例如療養院中的服務機器人)來說,隨著時間的推移改變其行為可能更重要,以適應其所幫助的人們不斷變化的偏好。

對於這種情況,最好將文化視為透過不同主體的互動緩慢而動態地出現的東西。

這意味著機器人技術的文化可能是複雜的、多方面的並且針對每種情況。

如果我們根據相對粗糙的刻板印象來設計機器人籠統概括關於,那麼我們就有傳播這些刻板印象的風險。

本文轉載自對話根據知識共享許可。閱讀原創文章The Conversation

引文:為什麼機器人可能對文化不敏感——以及科學家如何嘗試解決這個問題(2024 年,4 月 16 日)檢索日期:2024 年 4 月 16 日取自 https://techxplore.com/news/2024-04-robots-culturely-insensitive-scientists.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。