Learning to Remember: A Synaptic Plasticity Driven Framework for Continual Learning
2. OverviewContinual learning은 online multi-task learning 방식으로 여러 task가 순차적으로 주어지는 환경에서 최종적으로 모든 task를 수행하는 단일 모델을 구축하는 것을 목표로 한다. Continual learning의 보다 구체적인 목표는 새로운 task를 학습하는 동안 이전에 학습했던 tasks의 정보를 유지하고, 순차적인 여러 tasks를 학습함으로써 정보의 양이 증가하는 상황에서 모델의 scalability를 보장하는 것이다. 오늘 공유하고자 하는 방법론은 여러 continual learning 모델의 갈래 중 complementary learning systems and memory replay 기반의 접근법에 속한다. 본 논문에서 제안하는 방법론인 Dynamic Generative Memory는 이전에 제안된 Deep Generative Replay 모델이 가지는 여러 개의 generators를 parameter level attention mechanism과 network expansion을 이용해 하나의 generator 구조로 통합한 모델이다. 이번 세미나를 통해 CVPR 2019에서 발표된 해당 방법론을 공유하고자 한다.
3. 발표자료 및 발표영상[1] 발표자료
[2] 발표영상
[1] Ostapenko, Oleksiy, et al. "Learning to Remember: A Synaptic Plasticity Driven Framework for Continual Learning." Proceedings of the IEEE Conference on Computer Vision and Pattern Recognition. 2019.
[2] Parisi, German I., et al. "Continual lifelong learning with neural networks: A review." Neural Networks (2019).
[3] Shin, Hanul, et al. "Continual learning with deep generative replay." Advances in Neural Information Processing Systems. 2017.