这使得神经网络能够利用新数据不断更新,从而无需从头开始学习。
该算法被称为功能不变路径(FIP)算法,具有广泛的应用,从改进在线商店的推荐到微调自动驾驶汽车。
该算法是由计算生物学助理教授兼传统医学研究所 (HMRI) 研究员 Matt Thomson 的实验室开发的。该研究描述于新研究
出现在杂志上自然机器智能。汤姆森和前研究生 Guru Raghavan 博士。受到启发
神经科学研究在加州理工学院,特别是在生物学研究教授 Carlos Lois 的实验室。路易斯研究鸟类如何重新连接它们的大脑,以在停顿后重新学习如何唱歌。脑损伤。人类也能做到这一点;经历过的人脑损伤例如,中风患者通常可以建立新的神经连接,以再次学习日常功能。
“这是一个为期数年的项目,始于大脑如何灵活学习的基础科学,”汤姆森说。“我们如何赋予人工这种能力神经网络?”
该团队使用称为微分几何的数学技术开发了 FIP 算法。该框架允许修改神经网络而不会丢失先前编码的信息。
2022 年,在加州理工学院常驻企业家 Julie Schoenfeld 的指导下,Raghavan 和 Thomson 创办了一家名为 Yurts 的公司,以进一步开发 FIP 算法并大规模部署机器学习系统以解决许多不同的问题。Raghavan 与行业专业人士 Ben Van Roo 和 Jason Schnitzer 共同创立了 Yurts。
拉加万是该研究的第一作者。除了 Raghavan 和 Thomson 之外,加州理工学院的共同作者还有研究生 Surya Narayanan Hari 和 Shichen Rex Liu,以及合作者 Dhruvil Satani。埃及亚历山大大学的巴希·塔尔瓦特 (Bahey Tharwat) 也是该研究的合著者。汤姆森是加州理工学院陈天桥和克丽丝陈神经科学研究所的附属教员。
更多信息:Guruprasad Raghavan 等人,通过遍历功能不变的路径来设计灵活的机器学习系统,自然机器智能(2024)。DOI:10.1038/s42256-024-00902-x
引文:克服“灾难性遗忘”:受大脑启发的算法允许神经网络保留知识(2024 年 10 月 9 日)检索日期:2024 年 10 月 10 日来自 https://techxplore.com/news/2024-10-catastropic-algorithm-brain-neural-networks.html
本文档受版权保护。除了出于私人学习或研究目的的任何公平交易外,不得未经书面许可,不得复制部分内容。所提供的内容仅供参考。