CS231n:卷积神经网络
Fully Connected Layer
對于一個32×32的RGB圖像,有三個顏色通道,故轉換成30172×1的向量
Wx 10×3072表示有10個類別,每個類別的權重用1×3072的向量表示,圖像向量與類別權重作點乘即得到每個類別的評分
Convolution?Layer
5×5×3?的卷積核用來做過濾器
圖像是32×32×3的 ,所以卷積核需要在圖像上滑動才能在空間覆蓋整張圖像
做點乘的時候,為方便計算依然是轉成向量的方式
當卷積核從圖像的邊角處開始,以步長為1的速度劃過整張圖,對每一個位置都進行點積運算,得到一個28*28*1的activation map
如果我們使用6個5*5*3的卷積核,則得到一個28*28*6的activation maps
在這里,原始圖像深度為3,中間的激活映射深度為6,綠色的深度是10,一個深度遞增的過程,也是實踐中得到的經驗
具體的在操作中卷積核的大小,滑動的步長,采用多少個卷積核都需要視情況而定
卷積核通常從圖像(輸入層)的邊界處開始滑動,從左往右,從上往下,移動的步長通常可以設為1, 2,...等,輸出的activation map的尺寸的計算公式為(N - F)/stride + 1?,
N表示輸入尺寸
F表示卷積核的尺寸
stride表示步長
上圖中的N = 7,F = 3,當步長等于1或2時,都沒有問題,但當步長等于3時,卷積核不能完全覆蓋整個輸入
In practice: Common to zero pad the border
做零填充的目的是為了保持輸入圖像的尺寸,假如你有多個卷積層時,輸入層的遲鈍會迅速縮小,這樣就丟失了很多信息,你只能用到很少的值來表示你的原始圖像,另外每次圖像尺寸縮小,邊角處的信息也會丟失更多
?
總結
以上是生活随笔為你收集整理的CS231n:卷积神经网络的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 美团大咖:程序员35岁前应做好的技术积累
- 下一篇: 句句属实,90%的人都被需求整“哭”过!