New algorithm enables neural networks to learn continuously
Marco geométrico diferencial para la construcción de FIP en el espacio de peso.a, Izquierda: el entrenamiento convencional en una tarea encuentra una única red entrenada (wt) solución.Derecha: la estrategia FIP descubre una subvariedad de redes de isorendimiento (w1,w2¦wnorte) para una tarea de interés, permitiendo la búsqueda eficiente de redes dotadas de robustez adversarial (w2), redes dispersas con alto rendimiento de tareas (w3) y para aprender múltiples tareas sin olvidar (w4).b, Arriba: una CNN entrenada con configuración de peso (wt), representado por líneas que conectan diferentes capas de la red, acepta una imagen de entradaincógnitay produce un vector de salida de diez elementos,F(incógnita,wt).Abajo: perturbación de los pesos de la red pordwda como resultado una nueva red con configuración de pesowt+dwcon un vector de salida alterado,F(incógnita,wt+dw), para la misma entrada,incógnita.do, El algoritmo FIP identifica perturbaciones de peso.I* que minimizan la distancia recorrida en el espacio de salida y maximizan la alineación con el gradiente de una función objetivo secundaria (âwl).La flecha azul claro indica unaϵ-perturbación del peso normal que minimiza la distancia recorrida en el espacio de salida y la flecha azul oscuro indica unaϵ-perturbación del peso normativo que maximiza la alineación con el gradiente de la función objetivo,l(incógnita,w).La función objetivo secundarial(incógnita,w) es variado para resolver distintos desafíos de aprendizaje automático.d, El algoritmo de muestreo de ruta define los FIP,γ(t), a través de la identificación iterativa deϵ-perturbaciones de normas (I*(t)) en el espacio de peso.Crédito:Inteligencia de la máquina de la naturaleza(2024).DOI: 10.1038/s42256-024-00902-xLas redes neuronales tienen una capacidad notable para aprender tareas específicas, como identificar dígitos escritos a mano.Sin embargo, estos modelos a menudo experimentan un "olvido catastrófico" cuando se les enseñan tareas adicionales: pueden aprender con éxito las nuevas tareas, pero "olvidan" cómo completar la original.Para muchas redes neuronales artificiales, como las que guían los vehículos autónomos, aprender tareas adicionales requiere una reprogramación completa.Los cerebros biológicos, por otra parte, son notablemente flexibles.Los humanos y los animales pueden aprender fácilmente a jugar un juego nuevo, por ejemplo, sin tener que volver a aprender a caminar y hablar.Inspirándose en la flexibilidad de los cerebros humanos y animales, los investigadores de Caltech han desarrollado un nuevo tipo dealgoritmo

que permite que las redes neuronales se actualicen continuamente con nuevos datos de los que puedan aprender sin tener que empezar desde cero.

El algoritmo, llamado algoritmo de ruta funcionalmente invariante (FIP), tiene una amplia gama de aplicaciones, desde mejorar las recomendaciones en tiendas en línea hasta perfeccionar los automóviles autónomos.

El algoritmo fue desarrollado en el laboratorio de Matt Thomson, profesor asistente de biología computacional e investigador del Heritage Medical Research Institute (HMRI).nuevo estudio

apareciendo en la revistaInteligencia de la máquina de la naturaleza.Thomson y el ex estudiante graduado Guru Raghavan, Ph.D.fueron inspirados por

investigación en neurocienciaLois estudia cómo los pájaros pueden reconfigurar sus cerebros para aprender a cantar nuevamente después de un.Los humanos también pueden hacer esto;personas que han experimentadode un derrame cerebral, por ejemplo, a menudo pueden forjar nuevas conexiones neuronales para aprender nuevamente las funciones cotidianas.

"Este fue un proyecto de un año de duración que comenzó con la ciencia básica de cómo el cerebro aprende de manera flexible", dice Thomson."¿Cómo damos esta capacidad a las plantas artificiales??"

El equipo desarrolló el algoritmo FIP utilizando una técnica matemática llamada geometría diferencial.El marco permite modificar una red neuronal sin perder información previamente codificada.

En 2022, con la orientación de Julie Schoenfeld, emprendedora residente de Caltech, Raghavan y Thomson fundaron una empresa llamada Yurts para desarrollar aún más el algoritmo FIP e implementar sistemas de aprendizaje automático a escala para abordar muchos problemas diferentes.Raghavan cofundó Yurts con los profesionales de la industria Ben Van Roo y Jason Schnitzer.

Raghavan es el primer autor del estudio.Además de Raghavan y Thomson, los coautores de Caltech son los estudiantes graduados Surya Narayanan Hari y Shichen Rex Liu, y el colaborador Dhruvil Satani.Bahey Tharwat de la Universidad de Alejandría en Egipto también es coautor.Thomson es miembro del cuerpo docente afiliado del Instituto de Neurociencia Tianqiao y Chrissy Chen de Caltech.

Más información:Guruprasad Raghavan et al, Ingeniería de sistemas flexibles de aprendizaje automático atravesando caminos funcionalmente invariantes,Inteligencia de la máquina de la naturaleza(2024).DOI: 10.1038/s42256-024-00902-x

Citación:Superar el 'olvido catastrófico': un algoritmo inspirado en el cerebro permite que las redes neuronales retengan el conocimiento (9 de octubre de 2024)recuperado el 10 de octubre de 2024de https://techxplore.com/news/2024-10-catastrophic-algorithm-brain-neural-networks.html

Este documento está sujeto a derechos de autor.Aparte de cualquier trato justo con fines de estudio o investigación privados, noparte puede ser reproducida sin el permiso por escrito.El contenido se proporciona únicamente con fines informativos.