algorithm
图片来源:Pixabay/CC0 公共领域

ChatGPT 和其他基于机器学习的解决方案正在风起云涌。但即使是最成功的算法也有局限性。哥本哈根大学的研究人员已经从数学上证明,除了简单的问题之外,不可能为人工智能创建始终稳定的算法。研究,发布到arXiv预印本服务器可能会带来如何更好地测试算法的指南,并提醒我们机器毕竟不具备人类智能。

他们翻译机器比医生更准确地解释医学扫描图像,并且可能很快就能比人类更安全地驾驶汽车。然而,即使是最好的算法也有弱点。哥本哈根大学计算机科学系的一个研究小组试图揭示它们。

以自动驾驶汽车读取路标为例。如果有人在标志上贴了贴纸,这不会分散人类驾驶员的注意力。但机器很容易被推迟,因为现在的标志与它训练时使用的标志不同。

“我们希望算法在某种意义上是稳定的,即如果输入稍微改变,输出将保持几乎相同。现实生活中涉及人类习惯于忽略的各种噪音,而可能会感到困惑,”该小组负责人 Amir Yehudayoff 教授说道。

一种讨论弱点的语言

“我想指出的是,我们还没有直接研究自动汽车应用。不过,这似乎是一个过于复杂的问题,算法无法始终保持稳定,”耶胡达奥夫说,他补充说,这并不一定意味着对开发产生重大影响自动驾驶汽车。“如果算法但如果在很多情况下都这样做,那就是坏消息了。”

该科学文章不能被行业应用来识别其算法中的错误。教授解释说,这不是本意。“我们正在开发一种语言来讨论算法。这可能会导致制定描述如何测试算法的指南。从长远来看,这可能会再次导致更好、更稳定算法的开发。”

从直觉到数学

一个可能的应用是测试保护数字隐私的算法。

“有些公司可能声称已经开发出绝对安全的隐私保护解决方案。首先,我们的方法可能有助于确定该解决方案不可能绝对安全。其次,它将能够查明弱点,”Yehudayoff 说。

不过,首先也是最重要的是,科学文章对理论做出了贡献。他补充道,尤其是数学内容具有开创性,

“我们直观地理解,一个稳定的算法在暴露于少量输入噪声时应该几乎和以前一样工作。就像上面贴着贴纸的路标一样。但作为理论计算机科学家,我们需要一个坚定的定义。我们必须能够用数学语言准确地描述该算法必须能够承受多少噪声,以及如果我们要接受该算法是稳定的,那么输出应该与原始输出有多接近?已提出答案。”

记住限制很重要

这篇科学文章引起了理论计算机科学界同事的极大兴趣,但科技行业却没有。至少现在还没有。

Yehudayoff 表示:“新的理论发展和应用人员的兴趣之间总会有一些延迟。”“一些理论的发展将永远不会被注意到。”

然而,他并不认为这种情况会发生:

“机器学习继续快速发展,重要的是要记住,即使是在领域非常成功的解决方案仍然有局限性。机器有时看似能够思考,但毕竟它们不具备。记住这一点很重要。”

更多信息:Zachary Chase 等人,学习的可重复性和稳定性,arXiv(2023)。DOI:10.48550/arxiv.2304.03757

期刊信息: arXiv

引文:研究指出人工智能的弱点(2024 年,1 月 11 日)检索日期:2024 年 1 月 11 日来自 https://techxplore.com/news/2024-01-weaknesses-ai.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。