机器学习笔记(七):神经网络:表示
目錄
1)Non-linear hypotheses
2)Model representation 1
3)Model representation 2
4)Examples and intuitions 1
5)Examples and intuitions 2
6)Multi-class classification
1)Non-linear hypotheses
我們之前介紹的線性回歸和邏輯回歸都有一個缺點,那就是特征太多時,計算量會很大,我們來看下面一個例子,假設我們有一組特征,兩兩組合就有5000個特征,3個組合就有17萬個特征,特征太多了。
下圖中我們采用50x50像素的小圖片,就會有2500個特征,如果兩兩特征組合的話就有300萬個特征,邏輯回歸模型是處理不了這么多的模型,這時我們就需要神經網絡了。
2)Model representation 1
神經網絡模型建立在很多神經元之上,每一個神經元又是一個學習模型,這些神經元也叫作激活單元。下圖是一個以邏輯回歸模型作為自身學習模型的神經元示例。在神經網絡中,參數又可以稱之為權重。
我們來看一個3層的神經網絡,第一層為輸入層,最后一層為輸出層,中間一層為隱藏層,我們為每一層都加一個偏差單元。
下面我們定義參數含義,分別有每一層用到的激活單元??為第j層的第i個激活單元,?為從第j層到第j+1層的權重矩陣。這樣從左到右的算法稱為前向傳播算法。
3)Model representation 2
我們來使用向量化來計算前向傳播,向量化會幫助我們快速計算。
下圖是我們向量化的計算結過程:(這部分可以看看吳恩達老師的深度學習課程,那里面詳細介紹了前向傳播向量化實現)。
神經網絡有點像邏輯回歸(激活函數為sigmoid函數),但只是中間層特征變成了邏輯回歸計算后的函數值。每一層都進行邏輯回歸計算。
4)Examples and intuitions 1
我們來看一個小例子:AND運算,只有輸入全為1時,輸出才為1,我們用下面的神經網絡表示。
或運算
5)Examples and intuitions 2
我們來看看如何用神經網絡表示。
6)Multi-class classification
針對多分類問題,我們可以使神經網絡的輸出為向量,多個神經單元表示,每個神經單元表示一類。向量中只有一項為1,其余全為0.
總結
以上是生活随笔為你收集整理的机器学习笔记(七):神经网络:表示的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 浦发信用卡积分查询方法 积分累积疯狂兑礼
- 下一篇: lexplore.exe是什么进程 有什