2.12 总结-深度学习第四课《卷积神经网络》-Stanford吴恩达教授
| 2.11 計算機(jī)視覺現(xiàn)狀 | 回到目錄 | 3.1 目標(biāo)定位 |
總結(jié)
習(xí)題
第 111 題
在典型的卷積神經(jīng)網(wǎng)絡(luò)中,隨著網(wǎng)絡(luò)的深度增加,你能看到的現(xiàn)象是?
A. nHn_HnH? 和 nWn_WnW? 增加,同時 ncn_cnc? 減少
B. nHn_HnH? 和 nWn_WnW? 減少,同時 ncn_cnc? 也減少
C. nHn_HnH? 和 nWn_WnW? 增加,同時 ncn_cnc? 也增加
D. nHn_HnH? 和 nWn_WnW? 減少,同時 ncn_cnc? 增加
第 112 題
在典型的卷積神經(jīng)網(wǎng)絡(luò)中,你能看到的是?
A.多個卷積層后面跟著的是一個池化層
B.多個池化層后面跟著的是一個卷積層
C.全連接層(FC)位于最后的幾層
D.全連接層(FC)位于開始的幾層
第 113 題
為了構(gòu)建一個非常深的網(wǎng)絡(luò),我們經(jīng)常在卷積層使用“valid”的填充,只使用池化層來縮小激活值的寬/高度,否則的話就會使得輸入迅速的變小。
A.對
B.不對
第 114 題
訓(xùn)練更深層的網(wǎng)絡(luò)(例如,在網(wǎng)絡(luò)中添加額外的層)可以使網(wǎng)絡(luò)適應(yīng)更復(fù)雜的功能,因此幾乎總是會導(dǎo)致更低的訓(xùn)練錯誤。對于這個問題,假設(shè)是指“普通”網(wǎng)絡(luò)
A.對 B.不對
第 115 題
下面計算殘差(ResNet)塊的公式中,橫線上應(yīng)該分別填什么?
a[l+2]=g(W[l+2]g(W[l+1]+b[l+1])+b[l+2]+_?_)+_?_)a^{[l+2]}=g(W^{[l+2]}g(W^{[l+1]}+b^{[l+1]})+b^{[l+2]}+\_?\_)+\_?\_)a[l+2]=g(W[l+2]g(W[l+1]+b[l+1])+b[l+2]+_?_)+_?_)
A.分別是 0 與 z[l+1]z^{[l+1]}z[l+1]
B.分別是 a[l]a^{[l]}a[l] 與 0
C.分別是 z[l]z^{[l]}z[l] 與 a[l]a^{[l]}a[l]
D.分別是 0 與 a[l]a^{[l]}a[l]
第 116 題
關(guān)于殘差網(wǎng)絡(luò)下面哪個(些)說法是正確的?
A.使用跳越連接能夠?qū)Ψ聪騻鞑サ奶荻认陆涤幸?#xff0c;且能夠幫你對更深的網(wǎng)絡(luò)進(jìn)行訓(xùn)練
B.跳躍連接計算輸入的復(fù)雜的非線性函數(shù)以傳遞到網(wǎng)絡(luò)中的更深層
C.有L層的殘差網(wǎng)絡(luò)一共有 L2L^2L2 種跳躍連接的順序
D.跳躍連接能夠使得網(wǎng)絡(luò)輕松地學(xué)習(xí)殘差塊類的輸入輸出間的身份映射
第 117 題
假設(shè)你的輸入的維度為64x64x16,單個1x1的卷積過濾器含有多少個參數(shù)(包括偏差)?
A.2
B.17
C.4097
D.1
第 118 題
假設(shè)你有一個維度為 nH?nW?ncn_H*n_W*n_cnH??nW??nc? 的卷積輸入,下面哪個說法是正確的(假設(shè)卷積層為1x1,步長為1,padding為0)?
A.你能夠使用1x1的卷積層來減少 ncn_cnc? ,但是不能減少 nH,nWn_H,n_WnH?,nW?
B.你可以使用池化層減少 nH,nWn_H,n_WnH?,nW? ,但是不能減少 ncn_cnc?
C.你可以使用一個1x1的卷積層來減少 nH,nWn_H,n_WnH?,nW? 和 ncn_cnc?
D.你可以使用池化層減少 nH,nWn_H,n_WnH?,nW? 和 ncn_cnc?
第 119 題
關(guān)于 Inception 網(wǎng)絡(luò)下面哪些說法是正確的
A.Inception 網(wǎng)絡(luò)包含了各種網(wǎng)絡(luò)的體系結(jié)構(gòu)(類似于隨機(jī)刪除節(jié)點模式,它會在每一步中隨機(jī)選擇網(wǎng)絡(luò)的結(jié)構(gòu)),因此它具有隨機(jī)刪除節(jié)點的正則化效應(yīng)。
B.Inception 塊通常使用1x1的卷積來減少輸入卷積的大小,然后再使用3x3和5x5的卷積。
C.一個inception 塊允許網(wǎng)絡(luò)使用1x1, 3x3, 5x5 的和卷積個池化層的組合。
D.通過疊加inception塊的方式讓inception網(wǎng)絡(luò)更深,不會損害訓(xùn)練集的表現(xiàn)。
第 120 題
下面哪些是使用卷積網(wǎng)絡(luò)的開源實現(xiàn)(包含模型/權(quán)值)的常見原因?
A.為一個計算機(jī)視覺任務(wù)訓(xùn)練的模型通常可以用來數(shù)據(jù)擴(kuò)充,即使對于不同的計算機(jī)視覺任務(wù)也是如此。
B.為一個計算機(jī)視覺任務(wù)訓(xùn)練的參數(shù)通常對其他計算機(jī)視覺任務(wù)的預(yù)訓(xùn)練是有用的。
C.使用獲得計算機(jī)視覺競賽獎項的相同的技術(shù),廣泛應(yīng)用于實際部署。
D.使用開源實現(xiàn)可以很簡單的來實現(xiàn)復(fù)雜的卷積結(jié)構(gòu)。
111-120題 答案
111.D 112.AC 113.B 114.B 115.B 116.BD 117.B 118.AB 119.BC 120.BCD
| 2.11 計算機(jī)視覺現(xiàn)狀 | 回到目錄 | 3.1 目標(biāo)定位 |
《新程序員》:云原生和全面數(shù)字化實踐50位技術(shù)專家共同創(chuàng)作,文字、視頻、音頻交互閱讀
總結(jié)
以上是生活随笔為你收集整理的2.12 总结-深度学习第四课《卷积神经网络》-Stanford吴恩达教授的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 2.11 计算机视觉现状-深度学习第四课
- 下一篇: 3.1 目标定位-深度学习第四课《卷积神