keras从入门到放弃(十八)批量标准化
生活随笔
收集整理的這篇文章主要介紹了
keras从入门到放弃(十八)批量标准化
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
什么是批量標準化
批標準化(Batch Normalization,BN),又叫批量歸一化,是一種用于改善人工神經網絡的性能和穩定性的技術。 這是一種為神經網絡中的任何層提供零均值/單位方差輸入的技術。批量標準化用于通過調整和縮放激活來規范化輸入層。
在keras中主要使用BatchNormalization
keras.layers.BatchNormalization(axis=-1, momentum=0.99, epsilon=0.001, center=True, scale=True, beta_initializer='zeros', gamma_initializer='ones', moving_mean_initializer='zeros', moving_variance_initializer='ones', beta_regularizer=None, gamma_regularizer=None, beta_constraint=None, gamma_constraint=None)在每一個批次的數據中標準化前一層的激活項, 即,應用一個維持激活項平均值接近 0,標準差接近 1 的轉換。
參數
- axis: 整數,需要標準化的軸 (通常是特征軸)。 例如,在 data_format=“channels_first” 的 Conv2D 層之后, 在 BatchNormalization 中設置 axis=1。
- momentum: 移動均值和移動方差的動量。
- epsilon: 增加到方差的小的浮點數,以避免除以零。
- cent
總結
以上是生活随笔為你收集整理的keras从入门到放弃(十八)批量标准化的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 无法进入u盘启动怎么办 U盘启动失败,如
- 下一篇: u盘怎么缓存数据 U盘如何缓存大量数据