4.9 总结-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授
| 4.8 這和大腦有什么關系 | 回到目錄 | 1.1 訓練/開發/測試集 (第二課) |
總結
習題
第 31 題
在我們的前向傳播和后向傳播實現中使用的“緩存”是什么?
A.它用于在訓練期間緩存成本函數的中間值。
B.我們用它將在正向傳播過程中計算的變量傳遞到相應的反向傳播步驟。它包含了反向傳播計算導數的有用值。
C.它用于跟蹤我們正在搜索的超參數,以加快計算速度。
D.我們用它將反向傳播過程中計算的變量傳遞到相應的正向傳播步驟。它包含用于計算正向傳播的激活的有用值。
第 32 題
以下哪些是“超參數”?(選出所有正確項)
A.隱藏層規模 n[l]n^{[l]}n[l]
B.神經網絡的層數 LLL
C.激活向量 a[l]a^{[l]}a[l]
D.權重矩陣 W[l]W^{[l]}W[l]
E.學習率 α\alphaα
F.迭代次數
G.偏置向量 b[l]b^{[l]}b[l]
第 33 題
下列哪個說法是正確的?
A.神經網絡的更深層通常比前面的層計算更復雜的特征
B.神經網絡的前面的層通常比更深層計算更復雜的特性
第 34 題
向量化允許您在L層神經網絡中計算前向傳播時,不需要在層 l=1,2,…,Ll = 1, 2, …, Ll=1,2,…,L 間顯式的使用for循環(或任何其他顯式迭代循環)
A.對 B.不對
第 35 題
假設我們將 n[l]n^{[l]}n[l] 的值存儲在名為 layerslayerslayers 的數組中,如下所示: layer_dims=[nx,4,3,2,1]layer\_dims = [n_x, 4, 3, 2, 1]layer_dims=[nx?,4,3,2,1] 。 因此,第1層有4個隱藏單元,第2層有3個隱藏單元,依此類推。 您可以使用哪個for循環初始化模型參數?
A.
for(i in range(1, len(layer_dims/2))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01B.
for(i in range(1, len(layer_dims/2))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i - 1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i-1], 1) * 0.01C.
for(i in range(1, len(layer_dims))):parameter[‘W’ + str(i)] = np.random.randn(layers[i-1], layers[i])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01D.
for(i in range(1, len(layer_dims))):parameter[‘W’ + str(i)] = np.random.randn(layers[i], layers[i-1])) * 0.01parameter[‘b’ + str(i)] = np.random.randn(layers[i], 1) * 0.01第 36 題
考慮以下神經網絡:
該神經網絡有幾層?
A.層數 LLL 是4,隱藏層數是3
B.層數 LLL 是3,隱藏層數是3
C.層數 LLL 是4,隱藏層數是4
D.層數 LLL 是5,隱藏層數是4
第 37 題
在前向傳播期間,在層 lll 的前向傳播函數中,您需要知道 lll 層中的激活函數(Sigmoid,tanh,ReLU等)是什么。在反向傳播期間,相應的反向傳播函數也需要知道第 lll 層的激活函數是什么,因為梯度是根據它來計算的
A.對 B.不對
第 38 題
有一些函數具有以下特性:
(i) 當使用淺網絡計算時,需要一個大網絡(我們通過網絡中的邏輯門數量來度量大小),但是(ii)當使用深網絡來計算時,我們只需要一個指數級小的網絡
A.對 B.不對
第 39 題
在以下2層隱藏層的神經網絡中,以下哪句話是正確的?
A. W[1]W^{[1]}W[1] 的形狀是 (4, 4)
B. b[1]b^{[1]}b[1] 的形狀是 (4, 1)
C. W[2]W^{[2]}W[2] 的形狀是 (3, 4)
D. b[2]b^{[2]}b[2] 的形狀是 (3, 1)
E. W[3]W^{[3]}W[3] 的形狀是 (1, 1)
F. b[3]b^{[3]}b[3] 的形狀是 (1, 3)
第 40 題
前面的問題使用了一個特定的網絡,一般情況下,層 lll 的權重矩陣 W[l]W^{[l]}W[l] 的維數是多少?
A. W[l]W^{[l]}W[l] 的形狀是 (n[l],n[l?1])(n^{[l]},n^{[l-1]})(n[l],n[l?1])
B. W[l]W^{[l]}W[l] 的形狀是 (n[l?1],n[l])(n^{[l-1]},n^{[l]})(n[l?1],n[l])
C. W[l]W^{[l]}W[l] 的形狀是 (n[l+1],n[l])(n^{[l+1]},n^{[l]})(n[l+1],n[l])
D. W[l]W^{[l]}W[l] 的形狀是 (n[l],n[l+1])(n^{[l]},n^{[l+1]})(n[l],n[l+1])
31-40題 答案
31.B 32.ABEF 33.A 34.B 35.D 36.A 37.A 38.A 39.ABCD 40.A
| 4.8 這和大腦有什么關系 | 回到目錄 | 1.1 訓練/開發/測試集 (第二課) |
總結
以上是生活随笔為你收集整理的4.9 总结-深度学习第一课《神经网络与深度学习》-Stanford吴恩达教授的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 4.8 这和大脑有什么关系-深度学习第一
- 下一篇: 深度学习- Dropout 稀疏化原理解