ContinualLearning

#Pocket #NLP #LanguageModel #Catastrophic Forgetting #memory
Issue Date: 2025-10-22 [Paper Note] Continual Learning via Sparse Memory Finetuning, Jessy Lin+, arXiv'25, 2025.10 GPT Summary- スパースメモリファインチューニングを用いて、破滅的忘却を軽減しながら継続的学習を可能にするモデルを提案。新しい知識を学習する際、メモリスロットの更新を制限することで、既存の能力との干渉を減少。実験では、スパースメモリファインチューニングが他の手法に比べて著しく少ない忘却を示し、継続的学習における有望なアプローチであることを示した。 Comment

元ポスト:

Loading…

関連:
- [Paper Note] Memory Layers at Scale, Vincent-Pierre Berges+, ICLR'25, 2024.12

ポイント解説:

Loading…


#Article #Blog #read-later
Issue Date: 2025-10-23 The Continual Learning Problem, Jessy Lin, 2025.10 Comment

元ポスト:

Loading…