倢愷 Oscar
Jun 3, 2024

感謝推薦XD

讓模型不要有災難性遺忘的問題其實應該是整個LLM領域最大的問題XD

其實比啟用LoRA來理解這個問題,我個人更推薦用continual learning的角度來思考。

如果用continual learning的視角來看

Lora就等於是weight regularization

在data中混入general data就等於knowledge replay

其餘像是Merging的方法最近也很紅,也是continual learning中近期比較有效、值得嘗試的方法。

不過forgetting在我這邊最難的問題是「很難衡量Forgetting」,這件事比較反直覺的是,大部分人會認為我們拿MMLU、GSM8k score來衡量就可以衡量forgetting了,但實際上這種作法只對學界有用,因為學界在意forgetting本身,但業界在意的是「我要的能力還在不在」

也就是說要衡量forgetting的前提,是我們收集一包「我們所要的所有能力的evaluation set」。

這比一般evaluation模型的進步更難,因為「進步」代表我們是有一個明確的方向性,藉此來收集資料,所以我們會預期他那些方面可能會更好,但遺忘是沒有明確的方向的,我們永遠不知道他會不會突然遺忘一個我們很在意但是不在evaluation data中的能力。

筆者認為這才是forgetting真正難的地方,大部分企業可能沒有做好「檢驗遺忘所需成本」的心理準備

Sign up to discover human stories that deepen your understanding of the world.

Free

Distraction-free reading. No ads.

Organize your knowledge with lists and highlights.

Tell your story. Find your audience.

Membership

Read member-only stories

Support writers you read most

Earn money for your writing

Listen to audio narrations

Read offline with the Medium app

倢愷 Oscar
倢愷 Oscar

Written by 倢愷 Oscar

我是倢愷,CTO at TeraThinker an AI Adaptive Learning System Company。AI/HCI研究者,超過100場的ML、DL演講、workshop經驗。主要學習如何將AI落地於業界。 有家教、演講合作,可以email跟我聯絡:axk51013@gmail.com

Responses (1)

Write a response