深度学习之upsampling downsampling
生活随笔
收集整理的這篇文章主要介紹了
深度学习之upsampling downsampling
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
通常采樣指的是下采樣,也就是對信號的抽取 。 ?連續-〉離散
轉自鏈接:https://www.zhihu.com/question/43609045/answer/132235276
upsampling
分別簡單介紹兩篇文章,FCN和DCAN。FCN[4]主要用來做pixel-wise的image segmentation預測,先用傳統的CNN結構得到feature map,同時將傳統的full connected轉換成了對應參數的卷積層,比如傳統pool5層的尺寸是7×7×512,fc6的尺寸是4096,傳統的full connected weight是7×7×512×4096這樣多的參數,將它轉成卷積核,kernel size為7×7,input channel為512,output channel為4096,則將傳統的分別帶有卷積和全連接的網絡轉成了全卷積網絡(fully convolutional network, FCN)。FCN的一個好處是輸入圖片尺寸大小可以任意,不受傳統網絡全連接層尺寸限制,傳統的方法還要用類似SPP結構來避免這個問題。FCN中為了得到pixel-wise的prediction,也要把feature map通過deconv轉化到像素空間。論文中還有一些具體的feature融合,詳情可參見論文。
作者:譚旭
鏈接:https://www.zhihu.com/question/43609045/answer/132235276
來源:知乎
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。
上采樣是下采樣的逆過程,也稱增取樣(Upsampling)或內插(Interpolating)。 離散-〉連續或加密!
在深度學習中,下采樣可用conv卷積實現;上采樣可用deconv反卷積實現(自己理解,不知對不對?)
轉自鏈接:https://www.zhihu.com/question/43609045/answer/132235276
upsampling
分別簡單介紹兩篇文章,FCN和DCAN。FCN[4]主要用來做pixel-wise的image segmentation預測,先用傳統的CNN結構得到feature map,同時將傳統的full connected轉換成了對應參數的卷積層,比如傳統pool5層的尺寸是7×7×512,fc6的尺寸是4096,傳統的full connected weight是7×7×512×4096這樣多的參數,將它轉成卷積核,kernel size為7×7,input channel為512,output channel為4096,則將傳統的分別帶有卷積和全連接的網絡轉成了全卷積網絡(fully convolutional network, FCN)。FCN的一個好處是輸入圖片尺寸大小可以任意,不受傳統網絡全連接層尺寸限制,傳統的方法還要用類似SPP結構來避免這個問題。FCN中為了得到pixel-wise的prediction,也要把feature map通過deconv轉化到像素空間。論文中還有一些具體的feature融合,詳情可參見論文。
DCGAN[5]中使用deconv就更自然了,本身GAN就需要generative model,需要通過deconv從特定分布的輸入數據中生成圖片。GAN這種模式被Yann LeCun特別看好,認為是unsupervised learning的一個未來。
[5] Unsupervised Representation Learning
with Deep Convolutional Generative Adversarial Networks
[6] Sparse Coding - Ufldl
[7] Denoising Autoencoders (dA)
[8] Convolution arithmetic tutorial
作者:譚旭
鏈接:https://www.zhihu.com/question/43609045/answer/132235276
來源:知乎
著作權歸作者所有。商業轉載請聯系作者獲得授權,非商業轉載請注明出處。
總結
以上是生活随笔為你收集整理的深度学习之upsampling downsampling的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 宝石迷阵
- 下一篇: deinterlace 隔行 progr