這使得神經網路能夠利用新數據不斷更新,從而無需從頭開始學習。
該演算法被稱為功能不變路徑(FIP)演算法,具有廣泛的應用,從改進線上商店的推薦到微調自動駕駛汽車。
該演算法是由計算生物學助理教授兼傳統醫學研究所 (HMRI) 研究員 Matt Thomson 的實驗室開發的。該研究描述於新研究
出現在雜誌上自然機器智能。湯姆森和前研究生 Guru Raghavan 博士。受到啟發
神經科學研究在加州理工學院,特別是在生物學研究教授 Carlos Lois 的實驗室。路易斯研究鳥類如何重新連接它們的大腦,以便在停頓後重新學習如何唱歌。腦損傷。人類也能做到這一點;經歷過的人腦損傷例如,中風患者通常可以建立新的神經連接,以再次學習日常功能。
「這是一個為期數年的項目,始於大腦如何靈活學習的基礎科學,」湯姆森說。“我們如何賦予人工這種能力神經網路?
該團隊使用稱為微分幾何的數學技術開發了 FIP 演算法。該框架允許修改神經網路而不會丟失先前編碼的資訊。
2022 年,在加州理工學院常駐企業家 Julie Schoenfeld 的指導下,Raghavan 和 Thomson 創辦了一家名為 Yurts 的公司,以進一步開發 FIP 演算法並大規模部署機器學習系統以解決許多不同的問題。Raghavan 與行業專業人士 Ben Van Roo 和 Jason Schnitzer 共同創立了 Yurts。
拉加萬是該研究的第一作者。除了 Raghavan 和 Thomson 之外,加州理工學院的共同作者還有研究生 Surya Narayanan Hari 和 Shichen Rex Liu,以及合作者 Dhruvil Satani。埃及亞歷山大大學的巴希·塔爾瓦特 (Bahey Tharwat) 也是這項研究的合著者。湯姆森是加州理工學院陳天橋和克麗絲陳神經科學研究所的附屬教員。
更多資訊:Guruprasad Raghavan 等人,透過遍歷功能不變的路徑來設計靈活的機器學習系統,自然機器智能(2024)。DOI:10.1038/s42256-024-00902-x
引文:克服「災難性遺忘」:受大腦啟發的演算法允許神經網路保留知識(2024 年 10 月 9 日)檢索日期:2024 年 10 月 10 日來自 https://techxplore.com/news/2024-10-catastropic-algorithm-brain-neural-networks.html
本文檔受版權保護。除了出於私人學習或研究目的的任何公平交易外,不得未經書面許可,不得複製部分內容。所提供的內容僅供參考。