ai system
圖片來源:Pixabay/CC0 公共領域

默多克大學資訊科技學院的人工智慧專家 Kevin Wong 教授表示,為了解決人工智慧中的文化偏見問題,了解不同人工智慧技術的基礎知識非常重要。

「機器學習技術,包括生成式人工智慧,需要大量『代表性』資料來訓練複雜的系統,」黃博士說。

“數據驅動的機器學習技術依靠數據來建立系統的智能——這意味著當使用的數據不夠全面或分佈不平衡時,可能會出現偏差。”

他表示,雖然許多大型科技公司正在努力確保公平、多元和儘管這些問題在用於訓練生成式人工智慧的數據中得到了解決,但如果沒有適當的處理,該技術的行為仍然是不可預測的。

一些可公開存取的人工智慧系統因無法生成異族情侶的圖像而受到批評,這是一個更大問題的徵兆。

黃教授表示,需要一個「全面的評估和測試策略」。

全系統變革的驅動力是長期、全面的評估,以建立更大的資料庫和改進人工智慧架構,但黃教授表示,有應對此類問題的策略。

其中包括結合人類可以更好地控制和理解的其他人工智慧技術,例如可解釋的人工智慧和可解釋的人工智慧。

這些系統可確保人類保留智力監督,使人工智慧給出的決策和答案可預測。

這與其他形式的人工智慧不同,即使是設計師也無法解釋他們的一些結果。

黃教授表示,負責任的人工智慧是一種由人工智慧原則組成的“規則手冊”,用於指導發展,是開發系統的另一個新興且重要的領域。

「沒有一種簡單的解決方案可以在一夜之間解決這個問題;可能需要使用多維度和分層的方法來解決如此複雜的問題。

黃教授說:“問題是如何最好地調整為處理文化、多樣性、公平、隱私和道德等敏感問題而開發的人工智慧系統,這些都是引導用戶接受的重要領域。”

“如果調整一些參數或數據集以包括處理這些廣泛問題,是否有一種系統的方法可以在不傷害任何人的情況下推出人工智慧系統之前對其進行全面測試?”

雖然目前多樣性和人工智慧存在問題,但黃教授表示,如果使用得當,人工智慧可能成為「幫助縮小公平和多樣性差距」的有力方式。

「重要的是要遵循一些規則和道德考慮來開發一個通用系統,然後可以適應這些規則和道德考慮。和個人需求,」他說。

“然而,在廣泛使用之前,徹底的測試和評估是至關重要的,因為某些結果可能會導致世界各地某些人群敏感和脆弱的情緒。”

引文:人工智慧技術正在表現出文化偏見 - 以下是原因以及可以採取的措施(2024 年 5 月 6 日)檢索日期:2024 年 5 月 6 日取自 https://techxplore.com/news/2024-05-ai-technology-culture-biases.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。