作者:亚伦·J·斯诺斯韦尔,

Nobel
信用:维基百科

2024 年诺贝尔物理学奖因“通过人工神经网络实现机器学习的基础性发现和发明”而被授予科学家约翰·霍普菲尔德(John Hopfield)和杰弗里·辛顿(Geoffrey Hinton)。

受到物理学和生物学思想的启发,霍普菲尔德和辛顿开发了可以记忆数据模式并从中学习的计算机系统。尽管他们从未直接合作,但他们以彼此的工作为基础,为当前机器学习和应用领域的繁荣奠定了基础。(人工智能)。

什么是神经网络?(它们与物理学有什么关系?)

人工神经网络是我们今天使用的大部分人工智能技术的背后。

就像你的大脑一样人工神经网络通过突触连接,具有以各种配置连接的数字神经元。每个神经元的作用并不大。相反,神奇之处在于它们之间联系的模式和强度。

人工神经网络中的神经元由输入信号“激活”。这些激活以可以转换和处理输入信息的方式从一个神经元级联到下一个神经元。因此,网络可以执行分类、预测和决策等计算任务。

机器学习的大部分历史都是在寻找更复杂的方法来形成和更新人工神经元之间的连接。

虽然将节点系统连接在一起以存储和处理信息的基本思想来自生物学,但用于形成和更新这些链接的数学来自物理学。

能记住的网络

约翰·霍普菲尔德(John Hopfield,1933 年出生)是一位美国理论物理学家,在其职业生涯中在生物物理学领域做出了重要贡献。然而,诺贝尔物理学奖是因为他的工作开发霍普菲尔德网络1982年。

Hopfield 网络是最早的网络之一。受神经生物学和分子物理学原理的启发,这些系统首次演示了计算机如何使用节点“网络”来记忆和回忆信息。

霍普菲尔德开发的网络可以记忆数据(例如黑白图像的集合)。当网络被提示类似的图像时,这些图像可以通过关联来“回忆”。

虽然实际用途有限,但 Hopfield 网络证明这种类型的人工神经网络可以以新的方式存储和检索数据。他们为辛顿后来的工作奠定了基础。

可以学习的机器

Geoff Hinton(生于 1947 年),有时被称为“人工智能教父”,是一位英裔加拿大计算机科学家,在该领域做出了多项重要贡献。2018 年,他与 Yoshua Bengio 和 Yann LeCun 一起被授予图灵奖(计算机科学领域的最高荣誉),以表彰他在总体上推进机器学习,特别是它的一个分支,即深度学习。

然而,诺贝尔物理学奖专门奖励他与 Terrence Sejnowski 和其他同事在 1984 年的工作,开发了玻尔兹曼机

这些是 Hopfield 网络的扩展,展示了机器学习的理念——该系统让计算机不向程序员学习,而是从数据示例中学习。辛顿借鉴了统计物理学能量动力学的思想,展示了这种早期的生成计算机模型如何通过展示要记住的事情的例子来学习随着时间的推移存储数据。

玻尔兹曼机与之前的霍普菲尔德网络一样,并没有立即得到实际应用。然而,修改后的形式(称为受限玻尔兹曼机)在某些应用问题中很有用。

更重要的是人工神经网络可以从数据中学习的概念突破。辛顿继续发展这个想法。后来他发表了有影响力的论文反向传播(现代使用的学习过程系统)和卷积神经网络(当今用于处理图像和视频数据的人工智能系统的主要神经网络类型)。

为什么现在要这个奖?

与当今人工智能的壮举相比,霍普菲尔德网络和玻尔兹曼机器似乎异想天开。Hopfield 的网络仅包含 30 个神经元(他试图制作一个包含 100 个节点的网络,但这对于当时的计算资源来说太多了),而 ChatGPT 等现代系统可以拥有数百万个神经元。然而,今天的诺贝尔奖强调了这些早期贡献对该领域的重要性。

虽然人工智能领域最近的快速进展(我们大多数人都熟悉 ChatGPT 等生成式人工智能系统)似乎为神经网络的早期支持者辩护,但 Hinton 至少表达了担忧。2023 年,在辞去了在谷歌人工智能部门长达十年的工作后,他表示自己被发展速度吓到并加入了越来越多的呼吁更加积极主动的人工智能监管的声音。

辛顿获得诺贝尔奖后人工智能将“像工业革命一样,但它将超越我们的智力能力,而不是我们的物理能力。”他还表示,他仍然担心他的工作的后果可能是“比我们更聪明的系统最终可能会占据控制权”。

本文转载自对话根据知识共享许可。阅读原创文章The Conversation

引文:诺贝尔物理学奖授予为人工智能奠定基础的神经网络先驱(2024 年,10 月 8 日)检索日期:2024 年 10 月 8 日来自 https://techxplore.com/news/2024-10-physicals-nobel-awarded-neural-network.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。