倢愷 Oscar
Jun 3, 2024

感謝推薦XD

讓模型不要有災難性遺忘的問題其實應該是整個LLM領域最大的問題XD

其實比啟用LoRA來理解這個問題,我個人更推薦用continual learning的角度來思考。

如果用continual learning的視角來看

Lora就等於是weight regularization

在data中混入general data就等於knowledge replay

其餘像是Merging的方法最近也很紅,也是continual learning中近期比較有效、值得嘗試的方法。

不過forgetting在我這邊最難的問題是「很難衡量Forgetting」,這件事比較反直覺的是,大部分人會認為我們拿MMLU、GSM8k score來衡量就可以衡量forgetting了,但實際上這種作法只對學界有用,因為學界在意forgetting本身,但業界在意的是「我要的能力還在不在」

也就是說要衡量forgetting的前提,是我們收集一包「我們所要的所有能力的evaluation set」。

這比一般evaluation模型的進步更難,因為「進步」代表我們是有一個明確的方向性,藉此來收集資料,所以我們會預期他那些方面可能會更好,但遺忘是沒有明確的方向的,我們永遠不知道他會不會突然遺忘一個我們很在意但是不在evaluation data中的能力。

筆者認為這才是forgetting真正難的地方,大部分企業可能沒有做好「檢驗遺忘所需成本」的心理準備

倢愷 Oscar
倢愷 Oscar

Written by 倢愷 Oscar

我是倢愷,CTO at TeraThinker an AI Adaptive Learning System Company。AI/HCI研究者,超過100場的ML、DL演講、workshop經驗。主要學習如何將AI落地於業界。 有家教、演講合作,可以email跟我聯絡:axk51013@gmail.com

Responses (1)