感謝推薦XD
讓模型不要有災難性遺忘的問題其實應該是整個LLM領域最大的問題XD
其實比啟用LoRA來理解這個問題,我個人更推薦用continual learning的角度來思考。
如果用continual learning的視角來看
Lora就等於是weight regularization
在data中混入general data就等於knowledge replay
其餘像是Merging的方法最近也很紅,也是continual learning中近期比較有效、值得嘗試的方法。
不過forgetting在我這邊最難的問題是「很難衡量Forgetting」,這件事比較反直覺的是,大部分人會認為我們拿MMLU、GSM8k score來衡量就可以衡量forgetting了,但實際上這種作法只對學界有用,因為學界在意forgetting本身,但業界在意的是「我要的能力還在不在」
也就是說要衡量forgetting的前提,是我們收集一包「我們所要的所有能力的evaluation set」。
這比一般evaluation模型的進步更難,因為「進步」代表我們是有一個明確的方向性,藉此來收集資料,所以我們會預期他那些方面可能會更好,但遺忘是沒有明確的方向的,我們永遠不知道他會不會突然遺忘一個我們很在意但是不在evaluation data中的能力。
筆者認為這才是forgetting真正難的地方,大部分企業可能沒有做好「檢驗遺忘所需成本」的心理準備