1.3.2 向量化实现浅层神经网络
生活随笔
收集整理的這篇文章主要介紹了
1.3.2 向量化实现浅层神经网络
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
多個數據點中的向量化
我們這里講解一下如何將不同的樣本向量化,輸出結果和Logistic回歸的結果非常類似。
如圖所示,對于傳統的不用向量化的辦法來計算多個變量的神經網絡我們需要對每個變量進行兩次梯度下降算法,然后用for循環來遍歷所有的變量。我們希望可以使用向量化的方式進行表示,這樣就不用使用for語句了。
要實現向量化我們先把訓練集x寫成矩陣的形式,也就是把小向量x堆疊到矩陣各列,構成大矩陣X。對于z和a我們也可以做同樣的事情,變成Z和A。
這些矩陣,比如說Z和A,橫向的話,是我們隊所有訓練樣本用指標排序。所以橫向指標就表示了不同的訓練樣本,當你從左到右掃描的時候,就掃過了整個訓練集。
而在豎向,豎向的指標對應了神經網絡的不同節點,如圖片右下角的矩陣左上角表示了第一個訓練樣本的第一個隱藏單元的激活函數。下面第二個點表示了第二個隱藏單元對應的第一個訓練樣本的激活函數。對于矩陣的第一排而言,如果你橫向往右移動的話,就從第一個訓練樣本的第一個隱藏單元到了第二個訓練樣本的第一個隱藏單元,再到第三個等等。所以橫向的話會掃過不同的訓練樣本,而豎向的話就會掃過不同的指標(節點)。
向量化現實的解釋
這里我們給出更多向量化在多樣本實現的例子。
這就是多個訓練樣本的向量化表示。
總結
以上是生活随笔為你收集整理的1.3.2 向量化实现浅层神经网络的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 1.3.1 单隐层网络的数学实现
- 下一篇: 1.3.3 激活函数介绍