7种常见的迁移学习
最近調(diào)研了不少遷移學(xué)習(xí)的工作,本文選取7種常見的遷移學(xué)習(xí)分享給大家。因為我感覺遷移學(xué)習(xí)在NLP領(lǐng)域的很多任務(wù)中有很大的利用價值,畢竟高質(zhì)量的標(biāo)注數(shù)據(jù)是很少的,而人工標(biāo)注費時費力,而且質(zhì)量不一定好。
1. Domain Adaptation 領(lǐng)域自適應(yīng)
1.1 動機
領(lǐng)域自適應(yīng)是一種遷移學(xué)習(xí),它將不同源領(lǐng)域的數(shù)據(jù)或特征映射到同一個特征空間,以便于利用其源領(lǐng)域數(shù)據(jù)或特征來增強目標(biāo)領(lǐng)域的訓(xùn)練,進而達到更好的訓(xùn)練效果。領(lǐng)域自適應(yīng)學(xué)習(xí)不要求訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)一定具有相同的分布。
1.2 目的
利用數(shù)據(jù)或特征更多的源領(lǐng)域來提升數(shù)據(jù)或特征相對較少的目標(biāo)領(lǐng)域的模型性能。
1.3論文和代碼
論文:https://arxiv.org/abs/1707.05956,ICCV 2017
代碼:https://github.com/poppinace/TAISL
推薦理由:無監(jiān)督的領(lǐng)域自適應(yīng)和張量表示。傳統(tǒng)的領(lǐng)域自適應(yīng)一般是針對向量的本文換了一種方式,值得借鑒。
論文遷移學(xué)習(xí)在對話系統(tǒng)領(lǐng)域論文也不少,簡單推薦幾篇:
https://arxiv.org/abs/1609.02846
https://arxiv.org/abs/1808.02586
http://www.aclweb.org/anthology/C18-1103
https://arxiv.org/abs/1111.0048
http://ttic.uchicago.edu/~klivescu/papers/margolis_etal_danlp2010.pdf
2. Online transfer learning 在線遷移學(xué)習(xí)
在線遷移學(xué)習(xí)的框架
2.1 動機
把在線學(xué)習(xí)和遷移學(xué)習(xí)相結(jié)合,用于訓(xùn)練的源領(lǐng)域的數(shù)據(jù)在開始訓(xùn)練前并不是全部確定的,而是隨著時間的推移而不斷增加。
2.2 目的
充分理由源領(lǐng)域的數(shù)據(jù)進行訓(xùn)練,以便于更好的遷移到目的領(lǐng)域。
2.3 論文和代碼
論文:https://icml.cc/Conferences/2010/papers/219.pdf,AIJ 2014.
代碼:http://stevenhoi.org/otl
推薦理由:把在線學(xué)習(xí)和遷移學(xué)習(xí)相結(jié)合,這更符合很實際情況下源領(lǐng)域數(shù)據(jù)一點一點源源不斷的積累的情況。這是在線遷移學(xué)習(xí)的第一個公開的研究成果,也是目前最值得學(xué)習(xí)的研究成果。
3. Lifelong transfer learning 終身遷移學(xué)習(xí)
?
3.1動機
不再單單是在特定領(lǐng)域終身學(xué)習(xí),而是通過終身不斷的學(xué)習(xí)來提升源領(lǐng)域到目標(biāo)領(lǐng)域的遷移效果。
3.2 目的
通過終身不斷的學(xué)習(xí)來增強源領(lǐng)域到目標(biāo)領(lǐng)域的遷移。
3.3 論文和代碼
論文:http://www.cis.upenn.edu/~eeaton/papers/BouAmmar2015Autonomous.pdf, IJCAI 2015.
代碼:https://github.com/haithamb/pginterella
推薦理由:終身策略梯度強化學(xué)習(xí)與自主跨領(lǐng)域知識轉(zhuǎn)移相結(jié)合,很適合缺少訓(xùn)練數(shù)據(jù)的決策類任務(wù),比如任務(wù)型對話系統(tǒng)中的DPL(對話策略學(xué)習(xí))。目前這方面工作極少,感覺很適合研究。
4. Heterogeneous Transfer Learning 異構(gòu)遷移學(xué)習(xí)
?
4.1 動機
遷移學(xué)習(xí)一般不要求訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)有相同的分布,而異構(gòu)遷移學(xué)習(xí)連訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)的特征維度也不再要求一樣。
4.2 目的
訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)的特征維度也允許不同,這樣更有利于擴大遷移學(xué)習(xí)的適用范圍。
4.3 論文和代碼
論文:http://proceedings.mlr.press/v95/shen18b/shen18b.pdf, ACML 2018。
代碼:https://github.com/Isilendil/OSTL
推薦理由:基于稀疏特征變換的無監(jiān)督異構(gòu)域自適應(yīng),用稀疏特征變換來做異構(gòu)遷移學(xué)習(xí)很貼近實際情況。
5. Deep Transfer Learning 深度遷移學(xué)習(xí)
?
5.1 動機
深度學(xué)習(xí)具有非常強的數(shù)據(jù)擬合能力,可學(xué)習(xí)到泛化能力更強的特征表達,而遷移學(xué)習(xí)能學(xué)習(xí)到領(lǐng)域無關(guān)的特征表達。如果通過深度神經(jīng)網(wǎng)絡(luò)利用其他領(lǐng)域的知識,能充分利用神經(jīng)網(wǎng)絡(luò)來學(xué)習(xí)所有領(lǐng)域共同具有的特征表示。
5.2 目的
將深度學(xué)習(xí)與遷移學(xué)習(xí)相結(jié)合,同時利用深度學(xué)習(xí)和遷移學(xué)習(xí)的優(yōu)勢。
5.3 論文和代碼
論文:https://arxiv.org/abs/1608.06019,NIPS 2016。
代碼:https://github.com/tensorflow/models/tree/master/research/domain_adaptation
推薦理由:
6. Reinforcement Transfer Learning 強化遷移學(xué)習(xí)
?
6.1 動機
強化學(xué)習(xí)需要多步?jīng)Q策,其實在決策時如果數(shù)據(jù)較少,可能可以嘗試策略的遷移學(xué)習(xí)。
6.2 目的
將強化學(xué)習(xí)與遷移學(xué)習(xí)相結(jié)合,同時利用強化學(xué)習(xí)和遷移學(xué)習(xí)的優(yōu)勢。
6.3 論文和代碼
論文:https://arxiv.org/abs/1810.06667,arXiv 1810.06667。
代碼:https://github.com/yaserkl/TransferRL
推薦理由:深度學(xué)習(xí)+強化學(xué)習(xí)+遷移學(xué)習(xí)做文本的自動摘要,充分理由三者的優(yōu)勢互補,很適合學(xué)習(xí)。
7. Adversarial transfer learning 對抗遷移學(xué)習(xí)
?
7.1 動機
遷移學(xué)習(xí)一般是單向的遷移,那么如果雙向進行對抗的遷移學(xué)習(xí)的話,效果可能會更好,因為可以互相遷移而共享共有的數(shù)據(jù)和特征。
7.2 目的
雙向?qū)沟倪w移學(xué)習(xí),盡最大努力的充分利用源領(lǐng)域和目標(biāo)領(lǐng)域的數(shù)據(jù)和特征。
7.3 論文和代碼
論文:https://arxiv.org/abs/1712.02560
代碼:
推薦理由:無監(jiān)督領(lǐng)域自適應(yīng)的最大分類器差異,讓分類器之間不斷對抗遷移,以便于提升效果。
開通贊賞不是為這點小錢,已經(jīng)手動調(diào)低金額。等贊賞積累到夠買書了,我就買AI相關(guān)的書找作者簽字,然后郵寄給一些幸運者(比如關(guān)注時間長、平時活躍等)。
總結(jié)
- 上一篇: TPU3.0今日上岗!谷歌AI芯片甩竞争
- 下一篇: Python程序设计之迭代器和生成器示例