New algorithm enables neural networks to learn continuously
在权重空间中构建 FIP 的微分几何框架。一个,左:任务的常规训练找到一个经过训练的网络(wt) 解决方案。右图:FIP 策略发现了等性能网络的子流形(w1,w2���w)对于感兴趣的任务,能够有效搜索具有对抗鲁棒性的网络(w2),具有高任务性能的稀疏网络(w3)以及学习多项任务而不忘记(w4)。,顶部:经过训练的具有权重配置的 CNN(wt),由连接网络不同层的线表示,接受输入图像x并产生一个十元素输出向量,f(x,wt)。底部:网络权重的扰动数据中心产生具有权重配置的新网络wtØ+数据中心改变输出向量,fx,wtØ+数据中心),对于相同的输入,xc, FIP 算法识别权重扰动* 最小化输出空间中移动的距离并最大化与次要目标函数的梯度的对齐(∇wL)。浅蓝色箭头表示Ïμ-范数权重扰动,最小化输出空间中移动的距离,深蓝色箭头表示Ïμ- 范数权重扰动,最大化与目标函数梯度的对齐,Lx,w)。次要目标函数Lx,w)是多种多样的,以解决不同的机器学习挑战。d, 路径采样算法定义FIPs,γ(t),通过迭代辨识Ïμ- 范数扰动(*(t)) 在权重空间中。信用:自然机器智能(2024)。DOI:10.1038/s42256-024-00902-x神经网络具有学习特定任务的非凡能力,例如识别手写数字。然而,这些模型在教授额外任务时经常会经历“灾难性遗忘”:它们可以成功学习新任务,但“忘记”如何完成原来的任务。对于许多人工神经网络来说,比如那些引导自动驾驶汽车的神经网络,学习额外的任务需要完全重新编程。另一方面,生物大脑却非常灵活。例如,人类和动物可以轻松学习如何玩新游戏,而无需重新学习如何走路和说话。受人类和动物大脑灵活性的启发,加州理工学院的研究人员现已开发出一种新型算法

这使得神经网络能够利用新数据不断更新,从而无需从头开始学习。

该算法被称为功能不变路径(FIP)算法,具有广泛的应用,从改进在线商店的推荐到微调自动驾驶汽车。

该算法是由计算生物学助理教授兼传统医学研究所 (HMRI) 研究员 Matt Thomson 的实验室开发的。新研究

出现在杂志上自然机器智能汤姆森和前研究生 Guru Raghavan 博士。受到启发

神经科学研究路易斯研究鸟类如何重新连接它们的大脑,以在停顿后重新学习如何唱歌。。人类也能做到这一点;经历过的人例如,中风患者通常可以建立新的神经连接,以再次学习日常功能。

“这是一个为期数年的项目,始于大脑如何灵活学习的基础科学,”汤姆森说。“我们如何赋予人工这种能力?”

该团队使用称为微分几何的数学技术开发了 FIP 算法。该框架允许修改神经网络而不会丢失先前编码的信息。

2022 年,在加州理工学院常驻企业家 Julie Schoenfeld 的指导下,Raghavan 和 Thomson 创办了一家名为 Yurts 的公司,以进一步开发 FIP 算法并大规模部署机器学习系统以解决许多不同的问题。Raghavan 与行业专业人士 Ben Van Roo 和 Jason Schnitzer 共同创立了 Yurts。

拉加万是该研究的第一作者。除了 Raghavan 和 Thomson 之外,加州理工学院的共同作者还有研究生 Surya Narayanan Hari 和 Shichen Rex Liu,以及合作者 Dhruvil Satani。埃及亚历山大大学的巴希·塔尔瓦特 (Bahey Tharwat) 也是该研究的合著者。汤姆森是加州理工学院陈天桥和克丽丝陈神经科学研究所的附属教员。

更多信息:Guruprasad Raghavan 等人,通过遍历功能不变的路径来设计灵活的机器学习系统,自然机器智能(2024)。DOI:10.1038/s42256-024-00902-x

引文:克服“灾难性遗忘”:受大脑启发的算法允许神经网络保留知识(2024 年 10 月 9 日)检索日期:2024 年 10 月 10 日来自 https://techxplore.com/news/2024-10-catastropic-algorithm-brain-neural-networks.html

本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。