(Unfinished)RNN-循环神经网络之LSTM和GRU-04介绍及推导
生活随笔
收集整理的這篇文章主要介紹了
(Unfinished)RNN-循环神经网络之LSTM和GRU-04介绍及推导
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
(Unfinished)尚未完成
一、說明
- 關于LSTM的cell結構和一些計算在之前已經介紹了,可以點擊這里查看
- 本篇博客主要涉及一下內容:
- LSTM前向計算說明(之前的博客中LSTM部分實際已經提到過,這里結合圖更詳細說明)
二、LSTM前向計算step by step
1、結構review
- 我們知道RNN的結構如下圖
- 注意cell中的神經元可以有多個
- 注意cell中的神經元可以有多個
- LSTM就是對cell結構的改進
- 符號說明
- LSTM的關鍵就是state,就是對應上面的主線數據的傳遞
2、前向計算step by step
(1) 決定拋棄的信息
- 遺忘門 (forget gate layer)
- σ是Sigmoid激勵函數,因為它的值域是(0,1),0代表遺忘所有信息,1代表保留所有信息
(2) 決定存儲的新信息
- 包括兩個部分
- 第一個是輸入門 (input gate layer),對應的是Sigmoid函數
- 第二個是經過tanh激勵函數
(3) 更新stateCt?1成Ct
- ft是經過Sigmoid函數的,所以值域在(0,1)之間,Ct?1點乘0-1之間的數實際就是對Ct?1的一種縮放,(可以認為是記住之前信息的程度)
- 然后加入進來的新的信息
(4) 最后計算輸出
- 輸出門(output gate layer)
- 最后再放一下之前的圖, 數據流向可能更清晰
三、GRU (Gated Recurrent Unit)
1、結構和前向計算
- 如下圖所示
- 相比LSTM,GRU結合了遺忘門和輸入門
- 同樣也合并了cell state和hidden state?(就是LSTM中的c和h)
- GRU比LSTM更加簡單
Reference
- https://colah.github.io/posts/2015-08-Understanding-LSTMs/
- https://r2rt.com/written-memories-understanding-deriving-and-extending-the-lstm.html#dealing-with-vanishing-and-exploding-gradients
- http://proceedings.mlr.press/v9/glorot10a/glorot10a.pdf
- http://lawlite.me/2016/12/20/%E8%AE%BA%E6%96%87%E8%AE%B0%E5%BD%95-UnderstandingTheDifficultyOfTrainingDeepFeedforwardNeuralNetworks/
總結
以上是生活随笔為你收集整理的(Unfinished)RNN-循环神经网络之LSTM和GRU-04介绍及推导的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: RNN-LSTM循环神经网络-03Ten
- 下一篇: Tensorflow学习