深度学习-机器学习(神经网络 1)
生活随笔
收集整理的這篇文章主要介紹了
深度学习-机器学习(神经网络 1)
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1.多層向前神經網絡由以下部分組成:
??? ? 輸入層(input layer ),隱藏層(hidden layers ), 輸入層(output layers)
? (1)輸入層:數據集傳入到里面開始計算,訓練集的實例向量來傳入的。
(2)經過連接結點的權重(weight)傳入下一層,一層的輸出是下一層的輸入
(3)隱藏層的個數可以是任意的,輸入層有一層,輸出層有一層(4)一層中加權的求和,然后根據非線性方程轉化輸出
2.Backpropagation算法:
通過迭代性的來處理訓練集中的實例對比經過神經網絡后輸入層預測值(predicted value)與真實值(target value)之間反方向(從輸出層=>隱藏層=>輸入層)來以最小化誤差(error)來更新每個連接的權重(weight)算法詳細介紹輸入:D:數據集,l 學習率(learning rate), 一個多層前向神經網絡輸入:一個訓練好的神經網絡(a trained?neural?network)初始化權重(weights)和偏向(bias): 隨機初始化在-1到1之間,或者-0.5到0.5之間,每個單元有 ? ? ? ? ?一個偏向
1.[(輸入層的第一個神經元*對應權重)+(輸入層的第二個神經元*對應權重)+。。。]??
2.對于輸出層:誤差: 輸出層的值×(1-輸出層的值)×(真正的值-輸出層的值 )3.對于隱藏層:
? ? ?誤差:(當前層算出來的值)×(1-當前層算出來的值)×(上一層的值×當前層和上一層的權重)
4.權重的更新:
? ? 原來的權重 +? (學習率×后面層的誤差)× 前面層的值
? ? ?*****注意輸出層和隱藏層的區別********
5.偏向的更新:??
? ?原來的偏向+(學習率×當前點的誤差)
總結
以上是生活随笔為你收集整理的深度学习-机器学习(神经网络 1)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 深度学习框架TensorFlow(4.F
- 下一篇: 深度学习-机器学习(神经网络的应用