各种优化算法公式快速回忆优化器-深度学习
生活随笔
收集整理的這篇文章主要介紹了
各种优化算法公式快速回忆优化器-深度学习
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
本文是Deep Learning 之 最優化方法系列文章的RMSProp方法。主要參考Deep Learning 一書。
整個優化系列文章列表:
Deep Learning 之 最優化方法
Deep Learning 最優化方法之SGD
Deep Learning 最優化方法之Momentum(動量)
Deep Learning 最優化方法之Nesterov(牛頓動量)
Deep Learning 最優化方法之AdaGrad
Deep Learning 最優化方法之RMSProp
Deep Learning 最優化方法之Adam
先上結論
1.AdaGrad算法的改進。鑒于神經網絡都是非凸條件下的,RMSProp在非凸條件下結果更好,改變梯度累積為指數衰減的移動平均以丟棄遙遠的過去歷史。
2.經驗上,RMSProp被證明有效且實用的深度學習網絡優化算法。
相比于AdaGrad的歷史梯度:
再看原始的RMSProp算法:
再看看結合Nesterov動量的RMSProp,直觀上理解就是:
RMSProp改變了學習率,Nesterov引入動量改變了梯度,從兩方面改進更新方式。
總結
以上是生活随笔為你收集整理的各种优化算法公式快速回忆优化器-深度学习的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 数据耦合与控制耦合
- 下一篇: 一阶逻辑与二阶逻辑的区别一元谓词多元谓词