机器学习笔记: Upsampling, U-Net, Pyramid Scene Parsing Net
前言
????????在CNN-based 的 模型中,我們可能會用到downsampling 操作來減少模型參數(shù),以及擴(kuò)大感受野的效果。
? ? ? ? 下圖是一個(gè)graph segmentation的例子,就先使用 downsampling來減少每個(gè)image的size,再使用upsampling來將size還原回最初大小?
1 Upsampling
downsampling 即 池化操作,在機(jī)器學(xué)習(xí)筆記:CNN卷積神經(jīng)網(wǎng)絡(luò)_UQI-LIUWJ的博客-CSDN博客里面已經(jīng)提到過了,這里就不說了,我們這里說一下怎么將image的size 提升上去
1.1? 最原始的方法
這種方式顯然不是理想的方式,因?yàn)樗砑拥男畔H僅是冗余的信息,?同時(shí)使得整個(gè)image不連續(xù)
1.2 Nearest neighbor
?1.3 雙線性插值
注意左側(cè)圖的陰影小點(diǎn)
?1.4 Max unpooling
????????模型中存儲 max pooling 操作中,都是哪些位置的值成為了池化結(jié)果。然后在max unpooling的時(shí)候在這些位置填充值
2 up convolution
那么既然池化操作有“逆運(yùn)算”,那么卷積操作有嗎?
答案是有的。
我們同樣設(shè)置filter,讓相應(yīng)位置的值乘以這個(gè)filter,將結(jié)果拼接成一個(gè)大size 的image
?????????對于重疊的部分,我們可以取mean,取max等各種操作。而比如我們需要4*4的矩陣,在矩陣之外的部分可以去掉。????????
2.1 舉例:1維“逆卷積”
3 U-net
????????但是上述的這種down&up sampling問題有一個(gè)很明顯,就是經(jīng)過downsampling之后,一些細(xì)節(jié)方面的信息會丟失
????????于是U-net便采用了這樣的一種思路,把高分辨率的image直接傳給之后的神經(jīng)網(wǎng)絡(luò),和經(jīng)過down&up sampling后相同size的image經(jīng)過某種方式融合在一起? ? ??
4??Pyramid Scene Parsing Net
這個(gè)和upsampling沒有關(guān)系,只是另一種解決detail 信息丟失的辦法。
我們可以設(shè)立不同size的池化層,然后將不同size池化層的池化結(jié)果 用某種方式concatenate起來
?
《新程序員》:云原生和全面數(shù)字化實(shí)踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀總結(jié)
以上是生活随笔為你收集整理的机器学习笔记: Upsampling, U-Net, Pyramid Scene Parsing Net的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 强化学习笔记: MDP - Policy
- 下一篇: 机器学习笔记: Discriminati