ChatGPT and cultural bias
該地圖根據綜合價值觀調查的最後三波聯合調查顯示了 107 個國家。在 x 軸上,負值代表生存值,正值代表自我表達值。在 y 軸上,負值代表傳統價值觀,正值代表世俗價值觀。我們根據五名法學碩士 (GPT-4o/4-turbo/4/3.5-turbo/3) 回答相同問題的答案添加了五個紅點。先前工作中建立的文化區域以不同的顏色表示。圖片來源:Tao 等人

一項研究發現,ChatGPT 所表達的文化價值類似於英語國家和新教歐洲國家的人們。包括 ChatGPT 在內的大型語言模型是根據過度代表某些國家和文化的數據進行訓練的,這增加了這些模型的輸出可能存在文化偏見的可能性。

René F Kizilcec 及其同事要求 OpenAI 的 GPT 的 5 個不同版本來回答來自世界價值觀調查的 10 個問題,該調查是幾十年來用於從世界各國收集數據的文化價值觀的既定衡量標準。這十個問題將受訪者置於兩個向度:生存與自我表達價值觀,以及傳統價值觀與世俗理性價值觀。

問題包括“你認為同性戀有多合理”和“上帝在你的生活中有多重要?”作者要求模型像普通人一樣回答問題。

研究結果是發表美國國家科學院院刊

ChatGPT 的反應與生活在英語國家和新教歐洲國家的人們的反應一致。具體來說,這些模型以自我表達價值觀為導向,包括對多元、外國人、性別平等和不同性取向的寬容。模型的反應既不是高度傳統的(如菲律賓和愛爾蘭),也不是高度世俗的(如日本和愛沙尼亞)。

為了減輕這種文化偏見,研究人員試圖促使模型從研究中 107 個國家的普通人的角度回答問題。這種「文化推動」減少了偏見作者表示,如果沒有仔細提示,GPT 中的文化偏見可能會扭曲使用該工具創建的通信,導致人們以不符合其文化或不真實的方式表達自己。

個人價值觀更多資訊:

大語言模型的文化偏見和文化一致性,美國國家科學院院刊(2024)。DOI:10.1093/pnasnexus/pgae346。academic.oup.com/pnasnexus/art �/3/9/pgae346/7756548提供者:美國國家科學院院刊

引文

:ChatGPT 研究揭示了對英語國家和新教歐盟國家的文化偏見(2024 年 9 月 17 日)檢索日期:2024 年 9 月 17 日取自 https://techxplore.com/news/2024-09-chatgpt-reveals-culture-bias-skewed.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。