batchnomal_pytorch的batch normalize使用详解
torch.nn.BatchNorm1d()
1、BatchNorm1d(num_features, eps = 1e-05, momentum=0.1, affine=True)
對于2d或3d輸入進行BN。在訓練時,該層計算每次輸入的均值和方差,并進行平行移動。移動平均默認的動量為0.1。在驗證時,訓練求得的均值/方差將用于標準化驗證數據。
num_features:表示輸入的特征數。該期望輸入的大小為'batch_size x num_features [x width]'
Shape:?- 輸入:(N, C)或者(N, C, L) - 輸出:(N, C)或者(N,C,L)(輸入輸出相同)
2、BatchNorm2d(同上)
對3d數據組成的4d輸入進行BN。
num_features:?來自期望輸入的特征數,該期望輸入的大小為'batch_size x num_features x height x width'
Shape:?- 輸入:(N, C,H, W) - 輸出:(N, C, H, W)(輸入輸出相同)
3、BatchNorm3d(同上)
對4d數據組成的5d輸入進行BN。
以上這篇pytorch的batch normalize使用詳解就是小編分享給大家的全部內容了,希望能給大家一個參考,也希望大家多多支持服務器之家。
原文鏈接:https://blog.csdn.net/qq_16305985/article/details/79102607
總結
以上是生活随笔為你收集整理的batchnomal_pytorch的batch normalize使用详解的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: oracle中的and用法,Oracle
- 下一篇: ipv6地址为什么显示两个_【聚焦】IP