Framework mejora el aprendizaje continuo para la inteligencia artificial

Framework mejora el ‘aprendizaje continuo’ para la inteligencia artificial

1 crédito

Los investigadores han desarrollado un nuevo marco para las redes neuronales profundas que permite que los sistemas de inteligencia artificial (IA) aprendan mejor las nuevas tareas mientras “olvidan” menos de lo que han aprendido con respecto a las tareas anteriores. Los investigadores también han demostrado que usar el marco para aprender una nueva tarea puede hacer que la IA sea mejor para realizar tareas anteriores, un fenómeno llamado transferencia hacia atrás.

“Las personas son capaces de aprender continuamente; aprendemos nuevas tareas todo el tiempo, sin olvidar lo que ya sabemos”, dice Tianfu Wu, profesor asistente de ingeniería eléctrica e informática en NC State y coautor de un artículo sobre el trabajo. “Hasta la fecha, los sistemas de inteligencia artificial que utilizan redes neuronales profundas no han sido muy buenos en esto”.

“Los sistemas de inteligencia artificial de redes neuronales profundas están diseñados para aprender tareas limitadas”, dice Xilai Li, coautor principal del artículo y Ph.D. candidato en NC State. “Como resultado, puede ocurrir una de varias cosas al aprender tareas nuevas. Los sistemas pueden olvidar tareas antiguas cuando aprenden otras nuevas, lo que se denomina olvido catastrófico. Los sistemas pueden olvidar algunas de las cosas que sabían sobre tareas antiguas, sin aprender a hacerlas”. los nuevos también. O los sistemas pueden corregir tareas antiguas en su lugar mientras agregan nuevas tareas que limitan la mejora y conducen rápidamente a un sistema de IA que es demasiado grande para operar de manera eficiente. Aprendizaje continuo, también llamado aprendizaje permanente o aprender a aprender, está tratando de abordar el problema”.

“Hemos propuesto un nuevo marco para el aprendizaje continuo, que desacopla el aprendizaje de la estructura de la red y el aprendizaje de los parámetros del modelo”, dice Yingbo Zhou, coautor principal del artículo y científico investigador de Salesforce Research. “Lo llamamos el marco Learn to Grow. En las pruebas experimentales, descubrimos que supera los enfoques anteriores para el aprendizaje continuo”.

Para comprender el marco Learn to Grow, piense en las redes neuronales profundas como una tubería llena de múltiples capas. Los datos sin procesar van por la parte superior de la tubería y los resultados de las tareas salen por la parte inferior. Cada “capa” en la tubería es un cálculo que manipula los datos para ayudar a la red a realizar su tarea, como identificar objetos en una imagen digital. Hay múltiples formas de organizar las capas en la tubería, que corresponden a diferentes “arquitecturas” de la red.

Cuando se le pide a una red neuronal profunda que aprenda una nueva tarea, el marco Learn to Grow comienza realizando algo llamado optimización de arquitectura neuronal explícita a través de la búsqueda. Lo que esto significa es que a medida que la red llega a cada capa de su sistema, puede decidir hacer una de estas cuatro cosas: omitir la capa; use la capa de la misma manera que la usaron las tareas anteriores; adjunte un adaptador liviano a la capa, que la modifica ligeramente; o crear una capa completamente nueva.

Esta optimización de la arquitectura establece efectivamente la mejor topología, o serie de capas, necesarias para realizar la nueva tarea. Una vez que esto se completa, la red usa la nueva topología para entrenarse sobre cómo realizar la tarea como cualquier otro sistema de inteligencia artificial de aprendizaje profundo.

“Hemos realizado experimentos utilizando varios conjuntos de datos, y lo que hemos encontrado es que cuanto más similar es una nueva tarea a las tareas anteriores, más superposición hay en términos de las capas existentes que se mantienen para realizar la nueva tarea”. Li dice. “Lo que es más interesante es que, con la topología optimizada o “aprendida”, una red entrenada para realizar nuevas tareas olvida muy poco de lo que necesitaba para realizar las tareas anteriores, incluso si las tareas anteriores no eran similares”.

Los investigadores también realizaron experimentos que compararon la capacidad del marco Learn to Grow para aprender nuevas tareas con varios otros métodos de aprendizaje continuo, y descubrieron que el marco Learn to Grow tenía una mayor precisión al completar nuevas tareas.

Para probar cuánto pudo haber olvidado cada red al aprender la nueva tarea, los investigadores luego probaron la precisión de cada sistema al realizar las tareas anteriores y el marco Learn to Grow nuevamente superó a las otras redes.

“En algunos casos, el marco Learn to Grow realmente mejoró en la realización de las tareas anteriores”, dice Caiming Xiong, director de investigación de Salesforce Research y coautor del trabajo. “Esto se llama transferencia hacia atrás y ocurre cuando descubres que aprender una nueva tarea te hace mejor en una tarea anterior. Vemos esto en las personas todo el tiempo, no tanto con la IA”.

El documento, “Aprender a crecer: un marco de aprendizaje de estructura continua para superar el olvido catastrófico”, se presentará en la 36.ª Conferencia internacional sobre aprendizaje automático, que se llevará a cabo del 9 al 15 de junio en Long Beach, California.


Similar Posts

Leave a Reply