卷积神经网络理解
定義
卷積神經(jīng)網(wǎng)絡(luò)用于計(jì)算機(jī)視覺(jué),也就是計(jì)算機(jī)圖像(視頻,文本,音頻等),比如,人臉識(shí)別,自動(dòng)駕駛。
卷積神經(jīng)網(wǎng)絡(luò)相當(dāng)于一個(gè)函數(shù),黑盒(接下來(lái)破解這個(gè)黑盒),有輸入和輸出
運(yùn)算步驟
1.卷積運(yùn)算
通過(guò)合適的卷積核(濾波器)對(duì)原圖像進(jìn)行卷積運(yùn)算,得到新的Feature Map,下圖中使用從左上到右下的卷積核,在對(duì)原圖進(jìn)行卷積運(yùn)算時(shí),最后的結(jié)果中可以明顯看出1.00的位置是符合現(xiàn)實(shí)的。
以此類推,使用中間的3維矩陣和從左下到右上的3維矩陣即可得到3個(gè)Feature Map。
2.池化
因?yàn)楝F(xiàn)實(shí)世界中數(shù)據(jù)很多,如果每個(gè)都進(jìn)行卷積運(yùn)算后會(huì)得到很多數(shù)據(jù),不利于系統(tǒng)的反應(yīng),所以加入池化(Pooling),使數(shù)據(jù)量在減小的時(shí)候,也不會(huì)順勢(shì)數(shù)據(jù)。
一般使用Max Pooling.
因?yàn)閳D像的邊緣也充滿了特征,所以引入Padding(填充),用來(lái)保存邊緣數(shù)據(jù)。
3.激活函數(shù)
一方面,有利于矩陣計(jì)算,另一方面,對(duì)后面的梯度下降也是有好處的。
4.全連接層
和前面的每一個(gè)神經(jīng)元都進(jìn)行連接的。
把Pooling的結(jié)果按一維矩陣的形式排排坐。
需要通過(guò)訓(xùn)練得到的
權(quán)重如何選擇,以及卷積核如何選擇?
答案是需要訓(xùn)練。
ImageNet網(wǎng)站進(jìn)行數(shù)據(jù)訓(xùn)練的數(shù)據(jù)來(lái)源
在這個(gè)過(guò)程中,進(jìn)行損失函數(shù)的計(jì)算,不斷正向反向傳播,來(lái)不斷減小所有需要的參數(shù)。使得損失函數(shù)最小。
使用梯度下降方法!
5.超參數(shù)的設(shè)定
只需要使用已經(jīng)撘好的、成熟的框架即可。例如VGG16等。
總結(jié)
- 上一篇: 所见即所得的html制作,做一个所见即所
- 下一篇: python温度转换_一步一步教会你,详