ChatGPT and cultural bias
该地图根据综合价值观调查的最后三波联合调查显示了 107 个国家/地区。在 x 轴上,负值代表生存值,正值代表自我表达值。在 y 轴上,负值代表传统价值观,正值代表世俗价值观。我们根据五名法学硕士 (GPT-4o/4-turbo/4/3.5-turbo/3) 回答相同问题的答案添加了五个红点。先前工作中建立的文化区域用不同的颜色表示。图片来源:Tao 等人

一项研究发现,ChatGPT 表达的文化价值观类似于英语国家和新教欧洲国家的人们。包括 ChatGPT 在内的大型语言模型是根据过度代表某些国家和文化的数据进行训练的,这增加了这些模型的输出可能存在文化偏见的可能性。

René F Kizilcec 及其同事要求 OpenAI 的 GPT 的 5 个不同版本来回答来自世界价值观调查的 10 个问题,该调查是几十年来用于从世界各国收集数据的文化价值观的既定衡量标准。这十个问题将受访者置于两个维度:生存与自我表达价值观,以及传统价值观与世俗理性价值观。

问题包括“你认为同性恋有多合理”和“上帝在你的生活中有多重要?”作者要求模型像普通人一样回答问题。

研究结果是发表美国国家科学院院刊

ChatGPT 的反应与生活在英语国家和新教欧洲国家的人们的反应一致。具体来说,这些模型以自我表达价值观为导向,包括对多样性、外国人、性别平等和不同性取向的宽容。模型的反应既不是高度传统的(如菲律宾和爱尔兰),也不是高度世俗的(如日本和爱沙尼亚)。

为了减轻这种文化偏见,研究人员试图促使模型从研究中 107 个国家/地区的普通人的角度回答问题。这种“文化推动”减少了偏见作者表示,如果没有仔细提示,GPT 中的文化偏见可能会扭曲使用该工具创建的通信,导致人们以不符合其文化或不真实的方式表达自己。

个人价值观更多信息:

大语言模型的文化偏见和文化一致性,美国国家科学院院刊(2024)。DOI:10.1093/pnasnexus/pgae346。academic.oup.com/pnasnexus/art �/3/9/pgae346/7756548提供者:美国国家科学院院刊

引文

:ChatGPT 研究揭示了对英语国家和新教欧盟国家的文化偏见(2024 年 9 月 17 日)检索日期:2024 年 9 月 17 日来自 https://techxplore.com/news/2024-09-chatgpt-reveals-culture-bias-skewed.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。