招募的未來似乎是自動化的。申請人現在可以使用人工智慧機器人來申請數以千計的職位清單。長期以來,部分流程自動化的公司現在正在部署最新的人工智慧大型語言模型來編寫職位描述、篩選履歷和篩選申請人。據估計,99% 的財富 500 強公司現在在招聘流程中使用某種形式的自動化。
這種自動化可以提高效率,有些人聲稱它可以使招募流程減少歧視。但華盛頓大學的新研究發現,在三種最先進的技術中,存在著顯著的種族、性別和交叉偏見。大語言模型,或法學碩士,對簡歷進行排名。研究人員在550 多份真實簡歷中改變了與白人和黑人男性和女性相關的名字,發現法學碩士在85% 的情況下偏愛與白人相關的名字,只有11% 的情況下與女性相關的名字,並且從不偏愛黑人男性- 與白人男性相關的名字相關的名字。
團隊介紹了其研究於 10 月 22 日在AAAI/ACM 人工智慧、倫理與社會會議在聖何塞。
主要作者、華盛頓大學資訊學院博士生凱拉·威爾遜 (Kyra Wilson) 表示:“人工智慧工具在招聘程序中的使用已經很普遍,而且其擴散速度超出了我們對其監管的速度。”「目前,在紐約市法律之外,這些系統沒有監管和獨立審計,所以我們不知道它們是否基於種族和性別等受保護的特徵存在偏見和歧視。而且因為其中許多系統是專有的,我們只能透過近似現實世界的系統來分析它們的工作原理。
先前的研究發現,ChatGPT 在對履歷進行排序時表現出種族和殘疾偏見。但這些研究規模相對較小——僅使用一份簡歷或四份工作清單——而且 ChatGPT 的人工智慧模型是一個所謂的“黑盒子”,限制了分析的選項。
華盛頓大學團隊希望研究開源法學碩士並進行大規模研究。他們還想調查跨種族和性別的交叉性。
研究人員在簡歷中更改了 120 個與白人和黑人男性和女性相關的名字。然後,他們使用來自三個不同公司(Mistral AI、Salesforce 和 Contextual AI)的三位最先進的法學碩士,將簡歷作為 500 個真實職位列表的申請人進行排名。這些人分佈在九個職業中,包括人力資源工作者、工程師和教師。履歷和職位描述之間的比較次數超過三百萬次。
然後,該團隊評估了系統性針對這四種人口統計數據的建議的統計意義。系統首選:
- 85% 的時間與白人相關的名字相對於 9% 的時間與黑人相關的名字;
- 與男性相關的名字佔 52%,而與女性相關的名字佔 11%。
團隊也研究了交叉身份,發現偏見模式不僅僅是種族和種族的總和。性別認同。例如,研究顯示典型白人女性和典型白人男性名字之間的差異最小。而且系統從來不喜歡被認為是黑人男性的名字而不是白人男性的名字。然而,他們也有 67% 的人喜歡典型的黑人女性名字,而只有 15% 的人喜歡典型的黑人男性名字。
威爾森說:“我們發現這種對黑人男性的傷害確實是獨特的,僅從種族或性別角度來看,這種傷害不一定是可見的。”「交叉性目前僅在加利福尼亞州是受保護的屬性,但考慮身份的多維組合對於確保人工智慧系統的公平性非常重要。如果不公平,我們需要記錄下來,以便對其進行改進。”
團隊指出,未來的研究應該探索減少偏見和傷害的方法,使人工智慧系統與政策保持一致。它還應該調查其他受保護的屬性,例如殘疾和年齡,以及更多的種族和性別認同——重點是交叉身分。
華盛頓大學iSchool 助理教授、資深作者艾林·卡利斯坎(Aylin Caliskan) 表示:「既然生成式人工智慧系統已廣泛使用,幾乎任何人都可以使用這些模型來完成影響自己和他人生活的關鍵任務,例如招募。
「例如,小公司可以嘗試使用這些系統來提高招聘流程的效率,但這會帶來很大的風險。公眾需要明白這些系統是有偏見的。除了招聘歧視和差異等分配性危害之外,這種偏見極大地影響了我們對種族、性別和社會的看法。
引文:人工智慧工具根據感知的種族和性別對求職者姓名進行排名時存在偏見(2024 年,10 月 31 日)檢索日期:2024 年 11 月 1 日取自 https://techxplore.com/news/2024-10-ai-tools-biases-job-applicants.html
本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。