【AI-1000问】为什么CNN中的卷积核半径都是奇数?
往期視頻(前往公眾號有三AI觀看)
為什么CNN中的卷積核一般都是奇數*奇數?
熟悉CNN應該都知道常見的卷積核都是3*3或者5*5等,也就是奇數*奇數,似乎都沒看過偶數的,這是為什么呢?
作者/編輯?湯興旺
?
在CNN中,卷積核的大小是3*3或者5*5是最常見的。也就是說我們見到的卷積核幾乎都是奇數*奇數的。在LeNet5中兩個卷積層的卷積核都是5*5。
而在AlexNet中共有5個卷積層,conv1的卷積核大小是11*11;conv2的卷積核大小是5*5;conv3的卷積核大小是3*3;conv4的卷積核大小是3*3;conv5的卷積核大小是3*3。
看到了嗎?都是奇數!這是為什么呢?
解答1:更容易padding!
在卷積時,我們有時候需要卷積前后的尺寸不變。這時候我們就需要用到padding。假設圖像的大小,也就是被卷積對象的大小為n*n,卷積核大小為k*k,padding的幅度設為(k-1)/2時,卷積后的輸出就為(n-k+2*((k-1)/2))/1+1=n,即卷積輸出為n*n,保證了卷積前后尺寸不變。但是如果k是偶數的話,(k-1)/2就不是整數了。
解答2:更容易找到卷積錨點!
在CNN中,進行卷積操作時一般會以卷積核模塊的一個位置為基準進行滑動,這個基準通常就是卷積核模塊的中心。若卷積核為奇數,卷積錨點很好找,自然就是卷積模塊中心,但如果卷積核是偶數,這時候就沒有辦法確定了,讓誰是錨點似乎都不怎么好。
思考
你現在知道為什么CNN中的卷積核一般都是奇數*奇數了嗎?對于卷積核還有許多細節值得我們思考!如果您對卷積核有什么問題或者見解,歡迎留言!
?
轉載文章請后臺聯系
侵權必究
技術交流請移步知識星球
感謝各位看官的耐心閱讀,不足之處希望多多指教。后續內容將會不定期奉上,歡迎大家關注有三公眾號 有三AI!
總結
以上是生活随笔為你收集整理的【AI-1000问】为什么CNN中的卷积核半径都是奇数?的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 【AI-1000问】训练为什么要分测试集
- 下一篇: 【AI不惑境】数据压榨有多狠,人工智能就