Pytorch 各种模块:降低学习率,
生活随笔
收集整理的這篇文章主要介紹了
Pytorch 各种模块:降低学习率,
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1.訓練過程中學習率衰減
if (self.e+1) > (self.num_epochs - self.num_epochs_decay):g_lr -= (self.g_lr / float(self.num_epochs_decay))d_lr -= (self.d_lr / float(self.num_epochs_decay))self.update_lr(g_lr, d_lr)print('Decay learning rate to g_lr: {}, d_lr:{}.'.format(g_lr, d_lr)) def update_lr(self, g_lr, d_lr):for param_group in self.g_optimizer.param_groups:param_group['lr'] = g_lrfor param_group in self.d_A_optimizer.param_groups:param_group['lr'] = d_lrfor param_group in self.d_B_optimizer.param_groups:param_group['lr'] = d_lr總結
以上是生活随笔為你收集整理的Pytorch 各种模块:降低学习率,的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 新手打新需注意,了解规则总是好的
- 下一篇: @async 默认线程池_SpringB