3.12 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授
| 3.11 TensorFlow | 回到目錄 | 1.1 為什么是ML策略 (第三課) |
總結(jié)
習(xí)題
第 61 題
如果在大量的超參數(shù)中搜索最佳的參數(shù)值,那么應(yīng)該嘗試在網(wǎng)格中搜索而不是使用隨機值,以便更系統(tǒng)的搜索,而不是依靠運氣,請問這句話是正確的嗎?
A.對 B.不對
第 62 題
每個超參數(shù)如果設(shè)置得不好,都會對訓(xùn)練產(chǎn)生巨大的負(fù)面影響,因此所有的超參數(shù)都要調(diào)整好,請問這是正確的嗎?
A.對 B.不對
第 63 題
在超參數(shù)搜索過程中,你嘗試只照顧一個模型(使用熊貓策略)還是一起訓(xùn)練大量的模型(魚子醬策略)在很大程度上取決于:
A.是否使用批量(batch)或小批量優(yōu)化(mini-batch optimization)
B.神經(jīng)網(wǎng)絡(luò)中局部最小值(鞍點)的存在性
C.在你能力范圍內(nèi),你能夠擁有多大的計算能力(博主注:就是高性能電腦和低性能電腦的區(qū)別)
D.需要調(diào)整的超參數(shù)的數(shù)量
第 64 題
如果您認(rèn)為 β\betaβ (動量超參數(shù))介于0.9和0.99之間,那么推薦采用以下哪一種方法來對 β\betaβ 值進(jìn)行取樣?
A.
r = np.random.rand() beta = r * 0.09 + 0.9B.
r = np.random.rand() beta = 1 - 10 ** ( - r - 1 )C.
r = np.random.rand() beta = 1 - 10 ** ( - r + 1 )D.
r = np.random.rand() beta = r * 0.9 + 0.09第 65 題
找到好的超參數(shù)的值是非常耗時的,所以通常情況下你應(yīng)該在項目開始時做一次,并嘗試找到非常好的超參數(shù),這樣你就不必再次重新調(diào)整它們。請問這正確嗎?
A.對 B.不對
第 66 題
在視頻中介紹的批量標(biāo)準(zhǔn)化中,如果將其應(yīng)用于神經(jīng)網(wǎng)絡(luò)的第 lll 層,您應(yīng)該對誰進(jìn)行標(biāo)準(zhǔn)化?
A. z[l]z^{[l]}z[l]
B. W[l]W^{[l]}W[l]
C. a[l]a^{[l]}a[l]
D. b[l]b^{[l]}b[l]
第 67 題
在標(biāo)準(zhǔn)化公式 znorm(i)=z(i)?μσ2+?z^{(i)}_{norm}=\frac{z^{(i)}-\mu}{\sqrt{\sigma^2+\epsilon}}znorm(i)?=σ2+??z(i)?μ? ,為什么要使用epsilon(?)?
A.為了更準(zhǔn)確地標(biāo)準(zhǔn)化
B.為了避免除零操作
C.為了加速收斂
D.防止 μ\muμ 太小
第 68 題
批標(biāo)準(zhǔn)化中關(guān)于 γ\gammaγ 和 β\betaβ 的以下哪些陳述是正確的?
A.對于每個層,有一個全局值 γ∈R\gamma\in\Rγ∈R 和一個全局值 β∈R\beta\in\Rβ∈R ,適用于于該層中的所有隱藏單元。
B. γ\gammaγ 和 β\betaβ 是算法的超參數(shù),我們通過隨機采樣進(jìn)行調(diào)整
C.它們確定了給定層的線性變量 z[l]z^{[l]}z[l] 的均值和方差
D.最佳值是 γ=σ2+?,β=μ\gamma=\sqrt{\sigma^2+\epsilon},\ \beta=\muγ=σ2+??,?β=μ
E.它們可以用Adam、動量的梯度下降或RMSprop,而不僅僅是用梯度下降來學(xué)習(xí)
第 69 題
在訓(xùn)練了具有批標(biāo)準(zhǔn)化的神經(jīng)網(wǎng)絡(luò)之后,在用新樣本評估神經(jīng)網(wǎng)絡(luò)的時候,您應(yīng)該:
A.如果你在256個例子的mini-batch上實現(xiàn)了批標(biāo)準(zhǔn)化,那么如果你要在一個測試?yán)由线M(jìn)行評估,你應(yīng)該將這個例子重復(fù)256次,這樣你就可以使用和訓(xùn)練時大小相同的mini-batch進(jìn)行預(yù)測。
B.使用最新的mini-batch的 μ\muμ 和 σ2\sigma^2σ2 值來執(zhí)行所需的標(biāo)準(zhǔn)化
C.跳過用 μ\muμ 和 σ2\sigma^2σ2 值標(biāo)準(zhǔn)化的步驟,因為一個例子不需要標(biāo)準(zhǔn)化
D.執(zhí)行所需的標(biāo)準(zhǔn)化,使用在訓(xùn)練期間,通過指數(shù)加權(quán)平均值得出的 μ\muμ 和 σ2\sigma^2σ2
第 70 題
關(guān)于深度學(xué)習(xí)編程框架的這些陳述中,哪一個是正確的?(選出所有正確項)
A.即使一個項目目前是開源的,項目的良好管理有助于確保它即使在長期內(nèi)仍然保持開放,而不是僅僅為了一個公司而關(guān)閉或修改。
B.通過編程框架,您可以使用比低級語言(如Python)更少的代碼來編寫深度學(xué)習(xí)算法。
C.深度學(xué)習(xí)編程框架的運行需要基于云的機器。
61-70題 答案
61.B 62.B 63.C 64.B 65.B 66.A 67.B 68.CE 69.D 70.AB
| 3.11 TensorFlow | 回到目錄 | 1.1 為什么是ML策略 (第三課) |
總結(jié)
以上是生活随笔為你收集整理的3.12 总结-深度学习第二课《改善深层神经网络》-Stanford吴恩达教授的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 3.11 TensorFlow-深度学习
- 下一篇: 零 目录-机器学习老师板书-斯坦福吴恩达