【深度学习】这千层transformer让我目瞪口呆
?作者:十方
見過幾層的mlp,也見過幾十層的GoogleNet,還見過上百層的Resnet,上千層的transformer見過沒!這篇論文<DeepNet: Scaling Transformers to 1000 Layers>它來了。它提出了一個簡單有效的方法來訓練"極深"的transformer。這篇論文提出了一個新的標準化方程(DEEPNORM)去修改transformer中的殘差鏈接。該論文有著非常深入的理論分析模型在訓練過程中參數更新是非常穩定的,使得1000層的transformer誕生,并且在各項指標上吊打其他模型。
DEEPNORM
?基于Post-LN的transfomer,該文實現了DEEPNORM(如下圖偽代碼所示)。與Post-LN相比,DEEPNORM在進行layer-norm之前會擴大殘差連接。除此以外,在初始化過程中降低了參數的比例。需要注意的是,該方法只會擴大前饋網絡的權值的規模,以及attention層的投影值。
DEEPNET基于transformer架構,不同的就是用了deepnorm替換每層的post-LN,如下式所示,Gl是第l層attention和feed-forward網絡:
下圖中我們發現對比Post-LN,DeepNet更新更加穩定。
實驗
參考文獻
DeepNet: Scaling Transformers to 1000 Layers
https://arxiv.org/pdf/2203.00555.pdf
往期精彩回顧適合初學者入門人工智能的路線及資料下載(圖文+視頻)機器學習入門系列下載中國大學慕課《機器學習》(黃海廣主講)機器學習及深度學習筆記等資料打印《統計學習方法》的代碼復現專輯 AI基礎下載機器學習交流qq群955171419,加入微信群請掃碼: 與50位技術專家面對面20年技術見證,附贈技術全景圖總結
以上是生活随笔為你收集整理的【深度学习】这千层transformer让我目瞪口呆的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 用python画三维图、某区域的高程,p
- 下一篇: java常用class类_java常用类