finetune与Bert
生活随笔
收集整理的這篇文章主要介紹了
finetune与Bert
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
文章目錄
- 一:過擬合
- 1.1 直接finetune
- 1.2 layer finetune
- 1.3ULMFiT
- 2 Bert節省內存
- 3 Bert蒸餾
- 4.post train
一:過擬合
1.1 直接finetune
容易過擬合
1.2 layer finetune
拷貝部分預訓練參數,而其他隨機初始化
李宏毅transfer learning.
How transferable are features in deep neural networks? 論文筆記
How transferable are features in deep neural networks?
1.3ULMFiT
Universal Language Model Fine-tuning for Text Classification
從最后一層到前層,逐層解凍
2 Bert節省內存
以時間節省內存
3 Bert蒸餾
Bert短路–>加速了
4.post train
不是很懂,大體是對已經與訓練過的模型,使用新的數據集進一步預訓練,之后再做finetune。 疫情期間微博數據情感分析的任務中,第一名(還是第三名?)用這個方法進行進一步預訓練,數據集大小10w總結
以上是生活随笔為你收集整理的finetune与Bert的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: AlphaFold 和 AI 蛋白质折叠
- 下一篇: 论文学习3-Improving Neur