pytorch笔记——简易回归问题
生活随笔
收集整理的這篇文章主要介紹了
pytorch笔记——简易回归问题
小編覺得挺不錯的,現在分享給大家,幫大家做個參考.
1 數據集部分
#導入庫 import torch import matplotlib.pyplot as plt#建議數據集 x=torch.linspace(-1,1,100) x=x.view(-1,1) y=torch.pow(x,2)+0.2*torch.rand(x.shape) #y=x*x+噪聲#可視化 plt.scatter(x,y)2 模型定義部分
import torch import torch.nn.functional as F#定義模型 class Net(torch.nn.Module):def __init__(self,n_input,n_hidden,n_output):super(Net,self).__init__()self.hidden=torch.nn.Linear(n_input,n_hidden)self.predict=torch.nn.Linear(n_hidden,n_output)#定義每一層的形式(輸入維度和輸出維度)#定義前向傳播方式def forward(self,x):x=F.relu(self.hidden(x))x=self.predict(x)return x#聲明模型 net=Net(n_input=1,n_hidden=10,n_output=1) print(net) ''' Net((hidden): Linear(in_features=1, out_features=10, bias=True)(predict): Linear(in_features=10, out_features=1, bias=True) ) '''3 模型訓練+繪圖
import matplotlib.pyplot as plt#使用SGD進行梯度下降,設置學習率為0.2 optimizer=torch.optim.SGD(net.parameters(),lr=0.2)#設置誤差函數 loss_func=torch.nn.MSELoss()#誤差值組成的列表 losses=[]#開始訓練 for epoch in range(100):prediction=net(x)#喂給net訓練數據x,輸出預測值loss=loss_func(prediction,y)losses.append(loss.item())#每十次畫一張圖if(epoch%10==0):plt.scatter(x,y,c='green')plt.plot(x,prediction.detach(),c='blue')#這里prediction是帶requires_grad的,需要detach掉plt.show()optimizer.zero_grad()#清空上一步殘余的參數更新值loss.backward()#誤差反向傳播,計算參數更新值optimizer.step()#將參數更新值施加到net的parameters上 print(losses[-1]) #0.004355926997959614第一張圖:
最后一張圖:
總結
以上是生活随笔為你收集整理的pytorch笔记——简易回归问题的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: pytorch笔记——autograd和
- 下一篇: 文巾解题 1744. 你能在你最喜欢的那