algorithm
图片来源:Pixabay/CC0 公共领域

在他的文章中,“信任不是美德:为什么我们不应该信任” 弗吉尼亚大学系统与信息工程副教授 Matthew L. Bolton 对强调培养人机交互信任提出了批判性的质疑。他特别关注使用人工智能、机器学习和自动化的系统。

这篇文章是发表在日记中设计中的人体工程学:人为因素应用季刊

博尔顿认为,虽然信任通常被认为对于采用新技术至关重要,但这是一个有问题且不精确的概念。信任很难定义,高度关联,并且与信心和感知风险等相关概念混为一谈,这使得它既没有选择性也没有诊断性,无法作为人类行为的衡量标准。

博尔顿认为,重点是建立信任实际上可能会破坏声音工程。工程师不应将信任作为目标,而应关注系统可靠性、透明度和可用性的客观衡量标准——直接影响人类体验和性能的元素。

博尔顿断言,信任本质上并不是人文主义的,可以被操纵来剥夺用户的权利,减少而不是增强自主权。这种操纵通常符合大型组织的利益,这些组织试图通过鼓励对其技术的盲目信任来绕过对可靠性的需求。

“有一个“信任研究的核心,”博尔顿说。“我们将人类纳入系统中,因为他们带来了经验、专业知识、本能和创造力,可以提高性能并使系统具有弹性......我们依靠他们来决定何时、为什么以及如何信任一个系统。如果工程师操纵人们按照他们(或其他人)想要的方式行事,我们就会失去人类操作员的好处。”

最终,博尔顿呼吁放弃以信任为中心的研究,转而采用更具体和道德的系统设计方法。

他强调,工程师应该优先开发能够为用户提供透明、可靠和以人为本的设计的技术,而不是依赖于作为采用的理由。他认为,这种方法将带来更安全、更道德、更有效的人机交互。

更多信息:马修·博尔顿,《信任不是美德:为什么我们不应该信任信任》,设计中的人体工程学:人为因素应用季刊(2022)。数字号码:10.1177/10648046221130171

引文:信任不是答案:重新思考人机交互的道德工程(2024 年,10 月 17 日)检索日期:2024 年 10 月 17 日来自 https://techxplore.com/news/2024-10-rethinking- human-machine-interaction-ethical.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。