Deep learning:卷积神经网络之卷积计算、作用与思想
【定義】
參考鏈接:https://baike.baidu.com/item/%E5%8D%B7%E7%A7%AF/9411006?fr=aladdin
大牛鏈接:https://www.cnblogs.com/shine-lee/p/9932226.html
在泛函分析中,卷積、旋積或摺積(英語(yǔ):Convolution)是通過(guò)兩個(gè)函數(shù)f 和g 生成第三個(gè)函數(shù)的一種數(shù)學(xué)算子,表征函數(shù)f 與g經(jīng)過(guò)翻轉(zhuǎn)和平移的重疊部分函數(shù)值乘積對(duì)重疊長(zhǎng)度的積分。
如果將參加卷積的一個(gè)函數(shù)看作區(qū)間的指示函數(shù),卷積還可以被看作是“滑動(dòng)平均”的推廣。
- 卷積內(nèi)涵
簡(jiǎn)單定義:卷積是分析數(shù)學(xué)中一種重要的運(yùn)算。
設(shè):f(x),g(x)是R1上的兩個(gè)可積函數(shù),作積分:
可以證明,關(guān)于幾乎所有的實(shí)數(shù)x,上述積分是存在的。這樣,隨著x的不同取值,這個(gè)積分就定義了一個(gè)新函數(shù)h(x),稱為函數(shù)f與g的卷積,記為h(x)=(fg)(x)。
容易驗(yàn)證,(f * g)(x) = (g * f)(x),并且(f * g)(x)仍為可積函數(shù)。這就是說(shuō),把卷積代替乘法,L1(R1)空間是一個(gè)代數(shù),甚至是巴拿赫代數(shù)。
卷積與傅里葉變換有著密切的關(guān)系。利用一點(diǎn)性質(zhì),即兩函數(shù)的傅里葉變換的乘積等于它們卷積后的傅里葉變換,能使傅里葉分析中許多問(wèn)題的處理得到簡(jiǎn)化。
由卷積得到的函數(shù)fg一般要比f(wàn)和g都光滑。特別當(dāng)g為具有緊致集的光滑函數(shù),f為局部可積時(shí),它們的卷積f * g也是光滑函數(shù)。利用這一性質(zhì),對(duì)于任意的可積函數(shù)f,都可以簡(jiǎn)單地構(gòu)造出一列逼近于f的光滑函數(shù)列fs,這種方法稱為函數(shù)的光滑化或正則化。
卷積的概念還可以推廣到數(shù)列、測(cè)度以及廣義函數(shù)上去。
【理解卷積】
理解卷積
這里提供兩個(gè)理解卷積的角度:
- 從函數(shù)(或者說(shuō)映射、變換)的角度理解。
卷積過(guò)程是在圖像每個(gè)位置進(jìn)行線性變換映射成新值的過(guò)程,將卷積核看成權(quán)重,若拉成向量記為w,圖像對(duì)應(yīng)位置的像素拉成向量記為x,則該位置卷積結(jié)果為y=w′x+b,即向量?jī)?nèi)積+偏置,將x變換為y。從這個(gè)角度看,多層卷積是在進(jìn)行逐層映射,整體構(gòu)成一個(gè)復(fù)雜函數(shù),訓(xùn)練過(guò)程是在學(xué)習(xí)每個(gè)局部映射所需的權(quán)重,訓(xùn)練過(guò)程可以看成是函數(shù)擬合的過(guò)程。
- 從模版匹配的角度理解。
前面我們已經(jīng)知道,卷積與相關(guān)在計(jì)算上可以等價(jià),相關(guān)運(yùn)算常用模板匹配,即認(rèn)為卷積核定義了某種模式,卷積(相關(guān))運(yùn)算是在計(jì)算每個(gè)位置與該模式的相似程度,或者說(shuō)每個(gè)位置具有該模式的分量有多少,當(dāng)前位置與該模式越像,響應(yīng)越強(qiáng)。下圖為圖像層面的模板匹配(圖片來(lái)自鏈接),右圖為響應(yīng)圖,可見(jiàn)狗頭位置的響應(yīng)最大。當(dāng)然,也可以在特征層面進(jìn)行模版匹配,卷積神經(jīng)網(wǎng)絡(luò)中的隱藏層即可以看成是在特征層面進(jìn)行模板匹配。這時(shí),響應(yīng)圖中每個(gè)元素代表的是當(dāng)前位置與該模式的相似程度,單看響應(yīng)圖其實(shí)看不出什么,可以想像每個(gè)位置都有個(gè)“狗頭”,越亮的地方越像“狗頭”,若給定模板甚至可以通過(guò)反卷積的方式將圖像復(fù)原出來(lái)。這里多說(shuō)一句,我們真的是想把圖像復(fù)原出來(lái)嗎,我們希望的是在圖像中找到需要的模式,若是通過(guò)一個(gè)非線性函數(shù),將響應(yīng)圖中完全不像“狗頭”的地方清零,而將像“狗頭”的地方保留,然后再將圖像復(fù)原,發(fā)現(xiàn)復(fù)原圖中只有一個(gè)“狗頭”,這是不是更美好——因?yàn)槲覀兠鞔_了圖像中的模式,而減少了其他信息的干擾!
總結(jié)
以上是生活随笔為你收集整理的Deep learning:卷积神经网络之卷积计算、作用与思想的全部?jī)?nèi)容,希望文章能夠幫你解決所遇到的問(wèn)題。
- 上一篇: Tkinter Learning:tki
- 下一篇: 相机开发:海康板卡相机开发