Stanford UFLDL教程 微调多层自编码算法
生活随笔
收集整理的這篇文章主要介紹了
Stanford UFLDL教程 微调多层自编码算法
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
微調多層自編碼算法
Contents[hide]
|
介紹
微調是深度學習中的常用策略,可以大幅提升一個棧式自編碼神經網絡的性能表現。從更高的視角來講,微調將棧式自編碼神經網絡的所有層視為一個模型,這樣在每次迭代中,網絡中所有的權重值都可以被優化。
一般策略
幸運的是,實施微調棧式自編碼神經網絡所需的工具都已齊備!為了在每次迭代中計算所有層的梯度,我們需要使用稀疏自動編碼一節中討論的反向傳播算法。因為反向傳播算法可以延伸應用到任意多層,所以事實上,該算法對任意多層的棧式自編碼神經網絡都適用。
使用反向傳播法進行微調
為方便讀者,以下我們簡要描述如何實施反向傳播算法:
注:我們可以認為輸出層softmax分類器是附加上的一層,但是其求導過程需要單獨處理。具體地說,網絡“最后一層”的特征會進入softmax分類器。所以,第二步中的導數由 計算,其中。
中英文對照
總結
以上是生活随笔為你收集整理的Stanford UFLDL教程 微调多层自编码算法的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Day 26: TogetherJS —
- 下一篇: Stanford UFLDL教程 线性解