¿Qué es el olvido catastrófico y cómo afecta al desarrollo de AI?

Las personas que sufren de pérdida de memoria podrían encontrar espíritus afines en las máquinas que sufren de una condición conocida como “olvido catastrófico “.

La aflicción es causada cuando las redes neuronales están entrenadas para completar nuevas tareas.
Estos sistemas aprenden analizando los datos de entrenamiento que les ayudan a interpretar la información futura, ya sea que sean software de reconocimiento facial, escaneando fotos de perfil para aprender a detectar a los humanos en un video, o autos auto-conductores estudiando obstáculos en el camino hacia entienda lo que necesitan evitar.

Cuando se les enseña una nueva tarea tienen que adaptar sus parámetros para resolverlo. Estos pueden sobrescribir los parámetros que aprendieron antes y llevarlos a “Forget ” el conocimiento que adquirieron previamente.

El fenómeno es uno de los mayores obstáculos a la creación de una inteligencia general artificial (AGI), ya que elimina la capacidad de aprendizaje continuo, un proceso de aprendizaje de nuevas tareas en una secuencia.

“Esta inteligencia general artificial debe tener esta capacidad de aprendizaje secuencial en un mundo cambiante, ya que siempre va a encontrar cosas nuevas que cambian y que debe adaptarse a estos cambios, ” dice Joan Serrà un científico de investigación especializado en Deep aprendizaje y aprendizaje de máquinas en Telefónica d. “y si al adaptarse a estos cambios se olvida entonces ya no es inteligente. ”

Los científicos de RelatedComputer han estado abordando el desafío durante décadas. El equipo de investigación de Serrà puede haber encontrado una solución.

Mejora de la memoria
El equipo de investigación de Telefónica de Barcelona ha desarrollado un sistema que aborda el problema del olvido catastrófico minimizando la cantidad de memoria que el algoritmo requiere.

Su mecanismo consiste en dos parámetros separados. Uno compacta la información que las redes neuronales requieren en la menor cantidad de neuronas posibles sin comprometer su precisión, mientras que la otra protege las unidades que eran esenciales para completar las tareas pasadas.

“Nuestra solución trata de minimizar el espacio mientras aprende una nueva tarea y al mismo tiempo no cambia lo que se aprendió antes en este espacio reducido donde se pone este conocimiento, ” dice Serrà.

La investigación dio vuelta a ideas establecidas en un sistema de funcionamiento.

“Todos sabemos que si no tocamos las neuronas no se olvidan”, dice Serrà. “Y también hay una tendencia en las redes neuronales y el aprendizaje de la máquina de tratar de aprender modelos muy compactas para el despliegue de estas redes neuronales Super avanzadas en los recursos de las máquinas pobres como un coche o un teléfono móvil o máquinas que tienen muy poca memoria o capacidad, por lo que quieres comprimir estas redes neuronales. Había dos cosas y las combinamos de manera inteligente. “

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *