tf.nn.dropout
生活随笔
收集整理的這篇文章主要介紹了
tf.nn.dropout
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
轉自:https://blog.csdn.net/huahuazhu/article/details/73649389
tf.nn.dropout是TensorFlow里面為了防止或減輕過擬合而使用的函數,它一般用在全連接層。
Dropout就是在不同的訓練過程中隨機扔掉一部分神經元。也就是讓某個神經元的激活值以一定的概率p,讓其停止工作,這次訓練過程中不更新權值,也不參加神經網絡的計算。但是它的權重得保留下來(只是暫時不更新而已),因為下次樣本輸入時它可能又得工作了。
但在測試及驗證中:每個神經元都要參加運算,但其輸出要乘以概率p。
函數說明:
tf.nn.dropout(x, keep_prob, noise_shape=None, seed=None,name=None)?上面方法中常用的是前兩個參數:
第一個參數x:輸入
第二個參數keep_prob: 設置神經元被選中的概率,在初始化時keep_prob是一個占位符, ?keep_prob?=?tf.placeholder(tf.float32)?。tensorflow在run時設置keep_prob具體的值,例如keep_prob: 0.5
第五個參數name:指定該操作的名字。
?
總結
以上是生活随笔為你收集整理的tf.nn.dropout的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: JavaSE——类集(上)(Collec
- 下一篇: OpenCV中的函数子