机器学习之神经网络模型-下(Neural Networks: Representation)
機器學習之神經網絡模型-下(Neural Networks: Representation)
3. Model Representation I
1
神經網絡是在模仿大腦中的神經元或者神經網絡時發明的。因此,要解釋如何表示模型假設,我們不妨先來看單個神經元在大腦中是什么樣的。
我們的大腦中充滿了如上圖所示的這樣的神經元,神經元是大腦中的細胞。其中有兩點值得我們注意,一是神經元有像這樣的細胞主體(Nucleus),二是神經元有一定數量的輸入神經和輸出神經。這些輸入神經叫做樹突(Dendrite),可以把它們想象成輸入電線,它們接收來自其他神經元的信息。神經元的輸出神經叫做軸突(Axon),這些輸出神經是用來給其他神經元傳遞信號或者傳送信息的。
簡而言之,神經元是一個計算單元,它從輸入神經接受一定數目的信息,并做一些計算,然后將結果通過它的軸突傳送到其他節點或者大腦中的其他神經元。
下面是一組神經元的示意圖:
神經元利用微弱的電流進行溝通。這些弱電流也稱作動作電位,其實就是一些微弱的電流。所以如果神經元想要傳遞一個消息,它就會就通過它的軸突發送一段微弱電流給其他神經元。
2
上圖中,黃色的圓圈就代表了一個神經元,X為輸入向量,θ 代表神經元的權重(實際上就是我們之前所說的模型參數),hθ (X)代表激勵函數(在神經網絡術語中,激勵函數只是對類似非線性函數g(z)的另一個術語稱呼,g(z)等于1除以1加e的-z次方)。
實際上,你可以這樣理解,神經元就是權重θ。
當講輸入送進神經元后,經計算(實際上就是XTθ )會有一個輸出,這個輸出再送入激勵函數中,便得到了神經元的真實輸出。
注意:當我們繪制一個神經網絡時,當我繪制一個神經網絡時,通常我只繪制輸入節點 x1、x2、x3等等,但有時也可以增加一個額外的節點 x0 ,這個 x0 節點有時也被稱作偏置單位或偏置神經元。但因為 x0 總是等于1,所以有時候,我們會畫出它,有時我們不會畫出,這要看畫出它是否對例子有利。
神經網絡就是不同的神經元組合在一起。第一層為輸入層,最后一層為輸出層,而中間的所有層均為隱藏層。
注意:輸入單元x1、x2、x3,再說一次,有時也可以畫上額外的節點 x0。同時,這里有3個神經元,我在里面寫了a1(2) 、 a2(2)和a3(2) ,然后再次說明,我們可以在這里添加一個a0(2) ,這和 x0 一樣,代表一個額外的偏度單元,它的值永遠是1(注意:a1(2) 、 a2(2) 和 a3(2) 中計算的是g(XTθ)的值,而a0(2)中存放的就是偏置1)。
如果一個網絡在第 j 層有 sj 個單元,在 j+1 層有 sj +1 個單元,那么矩陣 θ(j) 即控制第 j 層到第 j+1 層的映射。
矩陣 θ(j) 的維度為 s(j+1) * (sj+1) ,s(j+1)行, (sj+1) 列。
總之,以上我們的這樣一張圖,展示了是怎樣定義一個人工神經網絡的。這個神經網絡定義了函數h:從輸入 x 到輸出 y 的映射。我將這些假設的參數
記為大寫的 θ,這樣一來不同的 θ,對應了不同的假設,所以我們有不同的函數,比如說從 x 到 y 的映射。
以上就是我們怎么從數學上定義神經網絡的假設。
4. Model Representation II
5. Examples and Intuitions I
運用神經網絡,解決“與”、“或”的分類問題。
6. Examples and Intuitions II
神經網絡還可以用于識別手寫數字。
它使用的輸入是不同的圖像或者說就是一些原始的像素點。第一層計算出一些特征,然后下一層再計算出一些稍復雜的特征,然后是更復雜的特征,然后這些特征實際上被最終傳遞給最后一層邏輯回歸分類器上,使其準確地預測出神經網絡“看”到的數字。
以下展示了通過神經網絡進行多分類的例子。
總結
以上是生活随笔為你收集整理的机器学习之神经网络模型-下(Neural Networks: Representation)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: Introduction to Mach
- 下一篇: 极大似然估计的朴素理解