Humans sympathize with, and protect, AI bots from playtime exclusion, finds study
Cyberball의 (a) 커버 스토리 및 (b) 게임 인터페이스의 스크린샷.신용 거래:인간 행동과 신기술(2024).DOI: 10.1155/2024/8864909

Imperial College London의 연구에서 인간은 놀이 시간에서 제외된 AI 봇에 대해 동정심을 표시하고 보호했습니다.연구원들은 가상 볼 게임을 사용한 이 연구가 AI 에이전트를 사회적 존재로 취급하는 인간의 경향을 강조한다고 말합니다. 이는 AI 로봇을 설계할 때 고려해야 할 성향입니다.

이 연구는인간 행동과 신기술.

수석 저자인 임페리얼 다이슨 디자인 엔지니어링 스쿨(Dyson School of Design Engineering)의 Jianan Zhou는 "이것은 인간이 AI와 상호 작용하는 방식에 대한 독특한 통찰력이며 인간의 디자인과 심리학에 흥미로운 영향을 미칩니다."라고 말했습니다.

사람들은 서비스에 접근할 때 AI 가상 에이전트와 상호 작용해야 하는 필요성이 점점 더 커지고 있으며, 많은 사람들이 AI 가상 에이전트를 동반자로 사용합니다..그러나 이러한 결과는 개발자가 에이전트를 지나치게 인간과 유사하게 설계하는 것을 피해야 함을 시사합니다.

Imperial의 Dyson School of Design Engineering 소속 수석 저자인 Nejra van Zalk 박사는 "작지만 점점 증가하는 연구에서는 인간이 AI 가상 에이전트를 사회적 존재로 취급하는지에 관해 상충되는 결과가 나타납니다. 이는 사람들이 어떻게 인식하고 인식하는지에 대한 중요한 질문을 제기합니다.이 에이전트와 상호 작용합니다.

"우리의 결과는 참가자들이 AI가 배제되고 있다고 느낄 경우 공 던지기 게임에 AI 가상 에이전트를 포함시키려고 했기 때문에 AI 가상 에이전트를 사회적 존재로 취급하는 경향이 있음을 보여줍니다. 이는 인간 대 인간 상호 작용에서 일반적이며 우리는참가자들은 가상 에이전트에게 공을 던지는 것을 알면서도 동일한 경향을 보였습니다. 흥미롭게도 이 효과는 나이가 많은 참가자들에게서 더 강했습니다."

사람들은 AI에 대한 배척도 좋아하지 않는다

공감을 느끼고 불공평함에 대해 시정 조치를 취하는 것은 대부분의 인간이 해야 할 일로 보입니다.AI를 포함하지 않은 선행 연구에서는 사람들이 배척당한 대상에게 공을 더 자주 던지는 방식으로 보상하는 경향이 있었고, 대상에 대한 선호와 동정심을 느끼면서 배타적 행동의 가해자를 싫어하는 경향도 있는 것으로 나타났습니다.

연구를 수행하기 위해 연구진은 플레이어가 화면에서 서로에게 가상 공을 전달하는 '사이버볼'이라는 게임에서 AI 가상 에이전트가 다른 인간에 의해 플레이에서 제외되는 것을 관찰했을 때 244명의 인간 참가자가 어떻게 반응하는지 살펴보았습니다..참가자들은 18세에서 62세 사이였습니다.

일부 게임에서는 참여하지 않은 인간이 봇에게 공을 상당히 여러 번 던졌고, 다른 게임에서는 참여하지 않은 인간이 참가자에게만 공을 던져 노골적으로 봇을 배제했습니다.

참가자들은 불공평하게 대우받은 후 봇에게 공을 던지는 것을 선호하는지 여부와 그 이유를 테스트하기 위해 반응을 관찰하고 조사했습니다.

그들은 대부분의 경우 참가자들이 봇에게 공을 던지는 것을 선호함으로써 봇에 대한 불공평함을 바로잡으려고 노력한다는 것을 발견했습니다.나이가 많은 참가자들은 불공평함을 인식할 가능성이 더 높았습니다.

인간의 주의

연구원들은 AI 가상 에이전트가 협업 작업에서 더 대중화됨에 따라 인간과의 참여가 증가하면 친숙도가 높아지고 자동 처리가 시작될 수 있다고 말합니다.이는 사용자가 가상 ​​에이전트를 실제 팀 구성원으로 직관적으로 포함하고 사회적으로 참여할 가능성이 높다는 것을 의미합니다.

그들은 이것이 업무 협업에 이점이 될 수 있지만 가상 에이전트를 친구로 사용하여 대체하는 경우에는 문제가 될 수 있다고 말합니다., 또는 신체적 또는 정신적 건강에 대한 조언자로서.

Jianan은 "지나치게 인간과 유사한 에이전트를 설계하지 않음으로써 개발자는 사람들이 가상 상호 작용과 실제 상호 작용을 구별하도록 도울 수 있습니다. 또한 예를 들어 다양한 인간 특성이 인식에 어떤 영향을 미치는지 고려하여 특정 연령대에 맞게 디자인을 맞춤화할 수도 있습니다."

연구원들은 사이버볼이 실제 시나리오에서 인간이 상호 작용하는 방식을 나타내지 않을 수 있다고 지적합니다. 이러한 상호 작용은 일반적으로 챗봇이나 음성 지원을 통해 서면 또는 음성 언어를 통해 발생합니다.이는 일부 참가자의 사용자 기대와 충돌하고 이상한 느낌을 주어 실험 중 응답에 영향을 미칠 수 있습니다.

따라서 그들은 이제 실험실이나 좀 더 일상적인 환경 등 다양한 상황에서 요원과의 대면 대화를 통해 유사한 실험을 설계하고 있습니다.이런 식으로 그들은 자신의 연구 결과가 얼마나 확장되는지 테스트할 수 있습니다.

추가 정보:Jianan Zhou 외, 인간은 무심코 AI 가상 에이전트를 사회적 존재로 취급하지만 이러한 경향은 젊은이들 사이에서 감소합니다: 사이버볼 실험의 증거,인간 행동과 신기술(2024).DOI: 10.1155/2024/8864909

소환:인간은 AI봇을 놀이시간 배제로부터 공감하고 보호한다는 연구 결과(2024년 10월 17일)2024년 10월 17일에 확인함https://techxplore.com/news/2024-10-humans-sympathize-ai-bots-playtime.html에서

이 문서는 저작권의 보호를 받습니다.사적인 학습이나 조사를 목적으로 하는 공정한 거래를 제외하고는 어떠한 행위도 허용되지 않습니다.서면 허가 없이 일부를 복제할 수 있습니다.콘텐츠는 정보 제공 목적으로만 제공됩니다.