PyTorch基础-Adam优化器使用-06
生活随笔
收集整理的這篇文章主要介紹了
PyTorch基础-Adam优化器使用-06
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
當不知道使用什么優化器的時候可以使用adam優化器
代碼
import numpy as np import torch from torch import nn,optim from torch.autograd import Variable from torchvision import datasets,transforms from torch.utils.data import DataLoader # 訓練集 train_data = datasets.MNIST(root="./", # 存放位置train = True, # 載入訓練集transform=transforms.ToTensor(), # 把數據變成tensor類型download = True # 下載) # 測試集 test_data = datasets.MNIST(root="./",train = False,transform=transforms.ToTensor(),download = True) # 批次大小 batch_size = 64 # 裝載訓練集 train_loader = DataLoader(dataset=train_data,batch_size=batch_size,shuffle=True) # 裝載測試集 test_loader = DataLoader(dataset=test_data,batch_size=batch_size,shuffle=True) for i,data in enumerate(train_loader):inputs,labels = dataprint(inputs.shape)print(labels.shape)break # 定義網絡結構 class Net(nn.Module):def __init__(self):super(Net,self).__init__()# 初始化self.fc1 = nn.Linear(784,10) # 784個輸入10個輸出self.softmax = nn.Softmax(dim=1) # 激活函數 dim=1表示對第一個維度進行概率計算def forward(self,x):# torch.Size([64, 1, 28, 28]) -> (64,784)x = x.view(x.size()[0],-1) # 4維變2維 (在全連接層做計算只能2維)x = self.fc1(x) # 傳給全連接層繼續計算x = self.softmax(x) # 使用softmax激活函數進行計算return x # 定義模型 model = Net() # 定義代價函數 mse_loss = nn.CrossEntropyLoss()# 交叉熵 # 定義優化器 optimizer = optim.Adam(model.parameters(),lr=0.001)# Adam梯度下降 # 定義模型訓練和測試的方法 def train():for i,data in enumerate(train_loader):# 獲得一個批次的數據和標簽inputs,labels = data# 獲得模型預測結果(64,10)out = model(inputs)# 交叉熵代價函數out(batch,C:類別的數量),labels(batch)loss = mse_loss(out,labels)# 梯度清零optimizer.zero_grad()# 計算梯度loss.backward()# 修改權值optimizer.step()def test():correct = 0for i,data in enumerate(test_loader):# 獲得一個批次的數據和標簽inputs,labels = data# 獲得模型預測結果(64,10)out = model(inputs)# 獲得最大值,以及最大值所在的位置_,predicted = torch.max(out,1)# 預測正確的數量correct += (predicted==labels).sum()print("Test acc:{0}".format(correct.item()/len(test_data))) # 訓練 for epoch in range(10):print("epoch:",epoch)train()test()總結
以上是生活随笔為你收集整理的PyTorch基础-Adam优化器使用-06的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: PyTorch基础-Dropout和正则
- 下一篇: PyTorch基础-使用卷积神经网络CN