algorithm
圖片來源:Pixabay/CC0 公共領域

在他的文章中,“信任不是美德:為什麼我們不應該信任」 維吉尼亞大學系統與資訊工程副教授 Matthew L. Bolton 對強調培養人機互動信任提出了批判性的質疑。他特別關注使用人工智慧、機器學習和自動化的系統。

這篇文章是發表在日記中設計中的人體工學:人為因素應用季刊

博爾頓認為,雖然信任通常被認為對於採用新技術至關重要,但這是一個有問題且不精確的概念。信任很難定義,高度關聯,並且與信心和感知風險等相關概念混為一談,這使得它既沒有選擇性也沒有診斷性,無法作為人類行為的衡量標準。

博爾頓認為,重點是建立信任實際上可能會破壞聲音工程。工程師不應將信任作為目標,而應關注系統可靠性、透明度和可用性的客觀衡量標準——直接影響人類體驗和性能的元素。

博爾頓斷言,信任本質上並不是人文主義的,可以被操縱來剝奪使用者的權利,減少而不是增強自主權。這種操縱通常符合大型組織的利益,這些組織試圖透過鼓勵對其技術的盲目信任來繞過對可靠性的需求。

「有一個「信任研究的核心,」博爾頓說。來決定何時、為什麼以及如何信任一個系統。如果工程師操縱人們按照他們(或其他人)想要的方式行事,我們就會失去人類操作員的好處。

最終,博爾頓呼籲放棄以信任為中心的研究,轉而採用更具體和道德的系統設計方法。

他強調,工程師應該優先開發能夠為使用者提供透明、可靠和以人為本的設計的技術,而不是依賴作為採用的理由。他認為,這種方法將帶來更安全、更道德、更有效的人機互動。

更多資訊:馬修‧博爾頓,《信任不是美德:為什麼我們不該信任信任》,設計中的人體工學:人為因素應用季刊(2022)。數字號碼:10.1177/10648046221130171

引文:信任不是答案:重新思考人機互動的道德工程(2024 年,10 月 17 日)檢索日期:2024 年 10 月 17 日來自 https://techxplore.com/news/2024-10-rethinking- human-machine-interaction-ethical.html

本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。