最新翻译的官方PyTorch简易入门教程(PyTorch1.0版本)
“PyTorch 深度學習:60分鐘快速入門”為PyTorch官網教程,網上已經有部分翻譯作品,隨著PyTorch1.0版本的公布,這個教程有較大的代碼改動,本人對教程進行重新翻譯,并測試運行了官方代碼,制作成Jupyter Notebook文件(中文注釋)在github予以公布。(黃海廣)
本文內容較多,可以在線學習,如果需要本地調試,請到github下載:
https://github.com/fengdu78/machine_learning_beginner/tree/master/PyTorch_beginner
此教程為翻譯官方地址:
https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html
作者:Soumith Chintala
本教程的目標:
在高層次上理解PyTorch的張量(Tensor)庫和神經網絡
訓練一個小型神經網絡對圖像進行分類
本教程假設您對numpy有基本的了解
注意: 務必確認您已經安裝了 torch 和 torchvision 兩個包。
目錄
一、Pytorch是什么?
二、AUTOGRAD
三、神經網絡
四、訓練一個分類器
五、數據并行
一、PyTorch 是什么
他是一個基于Python的科學計算包,目標用戶有兩類
為了使用GPU來替代numpy
一個深度學習研究平臺:提供最大的靈活性和速度
開始
張量(Tensors)
張量類似于numpy的ndarrays,不同之處在于張量可以使用GPU來加快計算。
from __future__ import print_function import torch構建一個未初始化的5*3的矩陣:
輸出 :
構建一個零矩陣,使用long的類型
輸出:
tensor([[0, 0, 0],[0, 0, 0],[0, 0, 0],[0, 0, 0],[0, 0, 0]])從數據中直接構建一個張量(tensor):
x = torch.tensor([5.5, 3]) print(x)輸出:
tensor([5.5000, 3.0000])或者在已有的張量(tensor)中構建一個張量(tensor). 這些方法將重用輸入張量(tensor)的屬性,例如, dtype,除非用戶提供新值
輸出:
tensor([[1., 1., 1.],[1., 1., 1.],[1., 1., 1.],[1., 1., 1.],[1., 1., 1.]], dtype=torch.float64) tensor([[ 1.1701, -0.8342, -0.6769],[-1.3060, ?0.3636, ?0.6758],[ 1.9133, ?0.3494, ?1.1412],[ 0.9735, -0.9492, -0.3082],[ 0.9469, -0.6815, -1.3808]])獲取張量(tensor)的大小
print(x.size())輸出:
torch.Size([5, 3])注意
torch.Size實際上是一個元組,所以它支持元組的所有操作。
操作
張量上的操作有多重語法形式,下面我們以加法為例進行講解。
語法1
y = torch.rand(5, 3) print(x + y)輸出:
語法二
輸出:
tensor([[ 1.7199, -0.1819, -0.1543],[-0.5413, ?1.1591, ?1.4098],[ 2.0421, ?0.5578, ?2.0645],[ 1.7301, -0.3236, ?0.4616],[ 1.2805, -0.4026, -0.6916]])語法三:給出一個輸出張量作為參數
輸出:
語法四:原地操作(in-place)
輸出:
注意
任何在原地(in-place)改變張量的操作都有一個’_‘后綴。例如x.copy_(y), x.t_()操作將改變x.
你可以使用所有的numpy索引操作。你可以使用各種類似標準NumPy的花哨的索引功能
print(x[:, 1])輸出:
調整大小:如果要調整張量/重塑張量,可以使用torch.view:
x = torch.randn(4, 4) y = x.view(16) z = x.view(-1, 8) ?# -1的意思是沒有指定維度 print(x.size(), y.size(), z.size())輸出:
torch.Size([4, 4]) torch.Size([16]) torch.Size([2, 8])如果你有一個單元素張量,使用.item()將值作為Python數字
x = torch.randn(1) print(x) print(x.item())輸出:
tensor([0.3441]) 0.34412217140197754numpy橋
把一個torch張量轉換為numpy數組或者反過來都是很簡單的。
Torch張量和numpy數組將共享潛在的內存,改變其中一個也將改變另一個。
把Torch張量轉換為numpy數組
a = torch.ones(5) print(a)輸出:
tensor([1., 1., 1., 1., 1.])輸入:
b = a.numpy() print(b) print(type(b))輸出:
[ 1. ?1. ?1. ?1. ?1.] <class 'numpy.ndarray'>通過如下操作,我們看一下numpy數組的值如何在改變。
輸出:
tensor([2., 2., 2., 2., 2.]) [ 2. ?2. ?2. ?2. ?2.]把numpy數組轉換為torch張量
看看改變numpy數組如何自動改變torch張量。
輸出:
[ 2. ?2. ?2. ?2. ?2.] tensor([2., 2., 2., 2., 2.], dtype=torch.float64)所有在CPU上的張量,除了字符張量,都支持在numpy之間轉換。
CUDA張量
可以使用.to方法將張量移動到任何設備上。
# let us run this cell only if CUDA is available # We will use ``torch.device`` objects to move tensors in and out of GPU if torch.cuda.is_available():device = torch.device("cuda") ? ? ? ? ?# a CUDA device objecty = torch.ones_like(x, device=device) ?# directly create a tensor on GPUx = x.to(device) ? ? ? ? ? ? ? ? ? ? ? # or just use strings ``.to("cuda")``z = x + yprint(z)print(z.to("cpu", torch.double)) ? ? ? # ``.to`` can also change dtype together!腳本總運行時間:0.003秒
二、Autograd: 自動求導(automatic differentiation)
PyTorch 中所有神經網絡的核心是autograd包.我們首先簡單介紹一下這個包,然后訓練我們的第一個神經網絡.
autograd包為張量上的所有操作提供了自動求導.它是一個運行時定義的框架,這意味著反向傳播是根據你的代碼如何運行來定義,并且每次迭代可以不同.
接下來我們用一些簡單的示例來看這個包:
張量(Tensor)
torch.Tensor是包的核心類。如果將其屬性.requires_grad設置為True,則會開始跟蹤其上的所有操作。完成計算后,您可以調用.backward()并自動計算所有梯度。此張量的梯度將累積到.grad屬性中。
要阻止張量跟蹤歷史記錄,可以調用.detach()將其從計算歷史記錄中分離出來,并防止將來的計算被跟蹤。
要防止跟蹤歷史記錄(和使用內存),您還可以使用torch.no_grad()包裝代碼塊:在評估模型時,這可能特別有用,因為模型可能具有requires_grad = True的可訓練參數,但我們不需要梯度。
還有一個類對于autograd實現非常重要 - Function。
Tensor和Function互相連接并構建一個非循環圖構建一個完整的計算過程。每個張量都有一個.grad_fn屬性,該屬性引用已創建Tensor的Function(除了用戶創建的Tensors - 它們的grad_fn為None)。
如果要計算導數,可以在Tensor上調用.backward()。如果Tensor是標量(即它包含一個元素數據),則不需要為backward()指定任何參數,但是如果它有更多元素,則需要指定一個梯度參數,該參數是匹配形狀的張量。
import torch創建一個張量并設置requires_grad = True以跟蹤它的計算
x = torch.ones(2, 2, requires_grad=True) print(x)輸出:
在張量上執行操作:
輸出:
tensor([[3., 3.],[3., 3.]], grad_fn=<AddBackward>)因為y是通過一個操作創建的,所以它有grad_fn,而x是由用戶創建,所以它的grad_fn為None.
輸出:
在y上執行操作
輸出:
.requires\_grad_(...)就地更改現有的Tensor的requires_grad標志。 如果沒有給出,輸入標志默認為False。
a = torch.randn(2, 2) a = ((a * 3) / (a - 1)) print(a.requires_grad) a.requires_grad_(True) print(a.requires_grad) b = (a * a).sum() print(b.grad_fn)輸出:
False True <SumBackward0 object at 0x000001E020B79FD0>梯度(Gradients)
現在我們來執行反向傳播,out.backward()相當于執行out.backward(torch.tensor(1.))
out.backward()輸出out對x的梯度d(out)/dx:
print(x.grad)輸出:
你應該得到一個值全為4.5的矩陣,我們把張量out稱為"o". 則:
雅可比向量積的這種特性使得將外部梯度饋送到具有非標量輸出的模型中非常方便。
現在讓我們來看一個雅可比向量積的例子:
x = torch.randn(3, requires_grad=True) y = x * 2 while y.data.norm() < 1000:y = y * 2 print(y)輸出:
tensor([ ?384.5854, ? -13.6405, -1049.2870], grad_fn=<MulBackward0>)現在在這種情況下,y不再是標量。?torch.autograd無法直接計算完整雅可比行列式,但如果我們只想要雅可比向量積,只需將向量作為參數向后傳遞:
v = torch.tensor([0.1, 1.0, 0.0001], dtype=torch.float) y.backward(v) print(x.grad)輸出:
tensor([5.1200e+01, 5.1200e+02, 5.1200e-02])您還可以通過torch.no_grad()代碼,在張量上使用.requires_grad = True來停止使用跟蹤歷史記錄。
print(x.requires_grad) print((x ** 2).requires_grad) with torch.no_grad():print((x ** 2).requires_grad)輸出:
True True False關于autograd和Function的文檔在http://pytorch.org/docs/autograd
三、神經網絡
可以使用torch.nn包來構建神經網絡.
你已知道autograd包,nn包依賴autograd包來定義模型并求導.一個nn.Module包含各個層和一個forward(input)方法,該方法返回output.
例如,我們來看一下下面這個分類數字圖像的網絡.
convnet
他是一個簡單的前饋神經網絡,它接受一個輸入,然后一層接著一層的輸入,直到最后得到結果.
神經網絡的典型訓練過程如下:
定義神經網絡模型,它有一些可學習的參數(或者權重);
在數據集上迭代;
通過神經網絡處理輸入;
計算損失(輸出結果和正確值的差距大小)
將梯度反向傳播會網絡的參數;
更新網絡的參數,主要使用如下簡單的更新原則:
定義網絡
我們先定義一個網絡
import torch import torch.nn as nn import torch.nn.functional as Fclass Net(nn.Module):def __init__(self):super(Net, self).__init__()# 1 input image channel, 6 output channels, 5x5 square convolution# kernelself.conv1 = nn.Conv2d(1, 6, 5)self.conv2 = nn.Conv2d(6, 16, 5)# an affine operation: y = Wx + bself.fc1 = nn.Linear(16 * 5 * 5, 120)self.fc2 = nn.Linear(120, 84)self.fc3 = nn.Linear(84, 10)def forward(self, x):# Max pooling over a (2, 2) windowx = F.max_pool2d(F.relu(self.conv1(x)), (2, 2))# If the size is a square you can only specify a single numberx = F.max_pool2d(F.relu(self.conv2(x)), 2)x = x.view(-1, self.num_flat_features(x))x = F.relu(self.fc1(x))x = F.relu(self.fc2(x))x = self.fc3(x)return xdef num_flat_features(self, x):size = x.size()[1:] ?# all dimensions except the batch dimensionnum_features = 1for s in size:num_features *= sreturn num_featuresnet = Net() print(net)輸出:
你只需定義forward函數,backward函數(計算梯度)在使用autograd時自動為你創建.你可以在forward函數中使用Tensor的任何操作.
net.parameters()返回模型需要學習的參數。
params = list(net.parameters()) print(len(params)) print(params[0].size())輸出:
讓我們嘗試一個隨機的32x32輸入。 注意:此網絡(LeNet)的預期輸入大小為32x32。 要在MNIST數據集上使用此網絡,請將數據集中的圖像大小調整為32x32。
input = torch.randn(1, 1, 32, 32) out = net(input) print(out)輸出:
tensor([[-0.1217, ?0.0449, -0.0392, -0.1103, -0.0534, -0.1108, -0.0565, ?0.0116,0.0867, ?0.0102]], grad_fn=<AddmmBackward>)將所有參數的梯度緩存清零,然后進行隨機梯度的的反向傳播.
net.zero_grad() out.backward(torch.randn(1, 10))注意
torch.nn只支持小批量輸入,整個torch.nn包都只支持小批量樣本,而不支持單個樣本
??例如,nn.Conv2d將接受一個4維的張量,每一維分別是:
nSamples×nChannels×Height×Width(樣本數*通道數*高*寬).??
如果你有單個樣本,只需使用input.unsqueeze(0)來添加其它的維數.
在繼續之前,我們回顧一下到目前為止見過的所有類.
回顧
torch.Tensor-支持自動編程操作(如backward())的多維數組。 同時保持梯度的張量。
nn.Module-神經網絡模塊.封裝參數,移動到GPU上運行,導出,加載等
nn.Parameter-一種張量,當把它賦值給一個Module時,被自動的注冊為參數.
autograd.Function-實現一個自動求導操作的前向和反向定義, 每個張量操作都會創建至少一個Function節點,該節點連接到創建張量并對其歷史進行編碼的函數。
損失函數
一個損失函數接受一對(output, target)作為輸入(output為網絡的輸出,target為實際值),計算一個值來估計網絡的輸出和目標值相差多少.
在nn包中有幾種不同的損失函數.一個簡單的損失函數是:nn.MSELoss,他計算輸入(個人認為是網絡的輸出)和目標值之間的均方誤差.
例如:
output = net(input) target = torch.randn(10) ?# a dummy target, for example target = target.view(1, -1) ?# make it the same shape as output criterion = nn.MSELoss() loss = criterion(output, target) print(loss)輸出:
現在,你反向跟蹤loss,使用它的.grad_fn屬性,你會看到向下面這樣的一個計算圖:
所以, 當你調用loss.backward(),整個圖被區分為損失以及圖中所有具有requires_grad = True的張量,并且其.grad?張量的梯度累積。
為了說明,我們反向跟蹤幾步:
print(loss.grad_fn) ?# MSELoss print(loss.grad_fn.next_functions[0][0]) ?# Linear print(loss.grad_fn.next_functions[0][0].next_functions[0][0])輸出:
<MseLossBackward object at 0x0000029E54C509B0> <AddmmBackward object at 0x0000029E54C50898> <AccumulateGrad object at 0x0000029E54C509B0>反向傳播
為了反向傳播誤差,我們所需做的是調用loss.backward().你需要清除已存在的梯度,否則梯度將被累加到已存在的梯度。
現在,我們將調用loss.backward(),并查看conv1層的偏置項在反向傳播前后的梯度。
net.zero_grad() ? ? # zeroes the gradient buffers of all parameters print('conv1.bias.grad before backward') print(net.conv1.bias.grad) loss.backward() print('conv1.bias.grad after backward') print(net.conv1.bias.grad)輸出:
更新權重
實踐中最簡單的更新規則是隨機梯度下降(SGD)。
weight=weight?learning_rate?gradient我們可以使用簡單的Python代碼實現這個規則.
learning_rate = 0.01 for f in net.parameters():f.data.sub_(f.grad.data * learning_rate)然而,當你使用神經網絡是,你想要使用各種不同的更新規則,比如SGD,Nesterov-SGD,Adam,?RMSPROP等.為了能做到這一點,我們構建了一個包torch.optim實現了所有的這些規則.使用他們非常簡單:
注意
觀察如何使用optimizer.zero_grad()手動將梯度緩沖區設置為零。 這是因為梯度是反向傳播部分中的說明那樣是累積的。
四、訓練一個分類器
你已經學會如何去定義一個神經網絡,計算損失值和更新網絡的權重。
你現在可能在思考:數據哪里來呢?
關于數據
通常,當你處理圖像,文本,音頻和視頻數據時,你可以使用標準的Python包來加載數據到一個numpy數組中.然后把這個數組轉換成torch.*Tensor。
對于圖像,有諸如Pillow,OpenCV包等非常實用
對于音頻,有諸如scipy和librosa包
對于文本,可以用原始Python和Cython來加載,或者使用NLTK和SpaCy 對于視覺,我們創建了一個torchvision包,包含常見數據集的數據加載,比如Imagenet,CIFAR10,MNIST等,和圖像轉換器,也就是torchvision.datasets和torch.utils.data.DataLoader。
這提供了巨大的便利,也避免了代碼的重復。
在這個教程中,我們使用CIFAR10數據集,它有如下10個類別:’airplane’,’automobile’,’bird’,’cat’,’deer’,’dog’,’frog’,’horse’,’ship’,’truck’。這個數據集中的圖像大小為3*32*32,即,3通道,32*32像素。
在這個教程中,我們使用CIFAR10數據集,它有如下10個類別:’airplane’,’automobile’,’bird’,’cat’,’deer’,’dog’,’frog’,’horse’,’ship’,’truck’.這個數據集中的圖像大小為3*32*32,即,3通道,32*32像素.
訓練一個圖像分類器
我們將按照下列順序進行:
使用torchvision加載和歸一化CIFAR10訓練集和測試集.
定義一個卷積神經網絡
定義損失函數
在訓練集上訓練網絡
在測試集上測試網絡
1. 加載和歸一化CIFAR0
使用torchvision加載CIFAR10是非常容易的。
import torch import torchvision import torchvision.transforms as transformstorchvision的輸出是[0,1]的PILImage圖像,我們把它轉換為歸一化范圍為[-1, 1]的張量。
transform = transforms.Compose([transforms.ToTensor(),transforms.Normalize((0.5, 0.5, 0.5), (0.5, 0.5, 0.5))]) trainset = torchvision.datasets.CIFAR10(root='./data', train=True,download=True, transform=transform) trainloader = torch.utils.data.DataLoader(trainset, batch_size=4,shuffle=True, num_workers=2) testset = torchvision.datasets.CIFAR10(root='./data', train=False,download=True, transform=transform) testloader = torch.utils.data.DataLoader(testset, batch_size=4,shuffle=False, num_workers=2) classes = ('plane', 'car', 'bird', 'cat','deer', 'dog', 'frog', 'horse', 'ship', 'truck') #這個過程有點慢,會下載大約340mb圖片數據。torchvision的輸出是[0,1]的PILImage圖像,我們把它轉換為歸一化范圍為[-1, 1]的張量.
輸出:
我們展示一些有趣的訓練圖像。
import matplotlib.pyplot as plt import numpy as np # functions to show an image def imshow(img):img = img / 2 + 0.5 ? ? # unnormalizenpimg = img.numpy()plt.imshow(np.transpose(npimg, (1, 2, 0)))plt.show() # get some random training images dataiter = iter(trainloader) images, labels = dataiter.next()# show images imshow(torchvision.utils.make_grid(images)) # print labels print(' '.join('%5s' % classes[labels[j]] for j in range(4)))輸出:
plane ?deer ? dog plane2. 定義一個卷積神經網絡
從之前的神經網絡一節復制神經網絡代碼,并修改為接受3通道圖像取代之前的接受單通道圖像。
import torch.nn as nn import torch.nn.functional as Fclass Net(nn.Module):def __init__(self):super(Net, self).__init__()self.conv1 = nn.Conv2d(3, 6, 5)self.pool = nn.MaxPool2d(2, 2)self.conv2 = nn.Conv2d(6, 16, 5)self.fc1 = nn.Linear(16 * 5 * 5, 120)self.fc2 = nn.Linear(120, 84)self.fc3 = nn.Linear(84, 10)def forward(self, x):x = self.pool(F.relu(self.conv1(x)))x = self.pool(F.relu(self.conv2(x)))x = x.view(-1, 16 * 5 * 5)x = F.relu(self.fc1(x))x = F.relu(self.fc2(x))x = self.fc3(x)return xnet = Net()3. 定義損失函數和優化器
我們使用交叉熵作為損失函數,使用帶動量的隨機梯度下降。
import torch.optim as optim criterion = nn.CrossEntropyLoss() optimizer = optim.SGD(net.parameters(), lr=0.001, momentum=0.9)4. 訓練網絡
這是開始有趣的時刻,我們只需在數據迭代器上循環,把數據輸入給網絡,并優化。
for epoch in range(2): ?# loop over the dataset multiple timesrunning_loss = 0.0for i, data in enumerate(trainloader, 0):# get the inputsinputs, labels = data# zero the parameter gradientsoptimizer.zero_grad()# forward + backward + optimizeoutputs = net(inputs)loss = criterion(outputs, labels)loss.backward()optimizer.step()# print statisticsrunning_loss += loss.item()if i % 2000 == 1999: ? ?# print every 2000 mini-batchesprint('[%d, %5d] loss: %.3f' %(epoch + 1, i + 1, running_loss / 2000))running_loss = 0.0print('Finished Training')輸出:
[1, ?2000] loss: 2.286 [1, ?4000] loss: 1.921 [1, ?6000] loss: 1.709 [1, ?8000] loss: 1.618 [1, 10000] loss: 1.548 [1, 12000] loss: 1.496 [2, ?2000] loss: 1.435 [2, ?4000] loss: 1.409 [2, ?6000] loss: 1.373 [2, ?8000] loss: 1.348 [2, 10000] loss: 1.326 [2, 12000] loss: 1.313 Finished Training5. 在測試集上測試網絡
我們在整個訓練集上訓練了兩次網絡,但是我們還需要檢查網絡是否從數據集中學習到東西。
我們通過預測神經網絡輸出的類別標簽并根據實際情況進行檢測,如果預測正確,我們把該樣本添加到正確預測列表。
第一步,顯示測試集中的圖片一遍熟悉圖片內容。
dataiter = iter(testloader) images, labels = dataiter.next() # print images imshow(torchvision.utils.make_grid(images)) print('GroundTruth: ', ' '.join('%5s' % classes[labels[j]] for j in range(4)))輸出:
GroundTruth: ? ?cat ?ship ?ship plane現在我們來看看神經網絡認為以上圖片是什么?
輸出是10個標簽的概率。一個類別的概率越大,神經網絡越認為他是這個類別。所以讓我們得到最高概率的標簽。
_, predicted = torch.max(outputs, 1) print('Predicted: ', ' '.join('%5s' % classes[predicted[j]]for j in range(4)))輸出:
Predicted: ? ?cat ?ship ?ship plane這結果看起來非常的好。
接下來讓我們看看網絡在整個測試集上的結果如何。
correct = 0 total = 0 with torch.no_grad():for data in testloader:images, labels = dataoutputs = net(images)_, predicted = torch.max(outputs.data, 1)total += labels.size(0)correct += (predicted == labels).sum().item()print('Accuracy of the network on the 10000 test images: %d %%' % (100 * correct / total))輸出:Accuracy of the network on the 10000 test images: 54 %
結果看起來好于偶然,偶然的正確率為10%,似乎網絡學習到了一些東西。
那在什么類上預測較好,什么類預測結果不好呢?
class_correct = list(0. for i in range(10)) class_total = list(0. for i in range(10)) with torch.no_grad():for data in testloader:images, labels = dataoutputs = net(images)_, predicted = torch.max(outputs, 1)c = (predicted == labels).squeeze()for i in range(4):label = labels[i]class_correct[label] += c[i].item()class_total[label] += 1 for i in range(10):print('Accuracy of %5s : %2d %%' % (classes[i], 100 * class_correct[i] / class_total[i]))輸出:
Accuracy of plane : 52 % Accuracy of ? car : 63 % Accuracy of ?bird : 43 % Accuracy of ? cat : 33 % Accuracy of ?deer : 36 % Accuracy of ? dog : 46 % Accuracy of ?frog : 68 % Accuracy of horse : 62 % Accuracy of ?ship : 80 % Accuracy of truck : 63 %在GPU上訓練
你是如何把一個Tensor轉換GPU上,你就如何把一個神經網絡移動到GPU上訓練。這個操作會遞歸遍歷有所模塊,并將其參數和緩沖區轉換為CUDA張量。
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu") # Assume that we are on a CUDA machine, then this should print a CUDA device: #假設我們有一臺CUDA的機器,這個操作將顯示CUDA設備。 print(device)輸出:
cuda:0接下來假設我們有一臺CUDA的機器,然后這些方法將遞歸遍歷所有模塊并將其參數和緩沖區轉換為CUDA張量:
net.to(device)輸出:
Net((conv1): Conv2d(3, 6, kernel_size=(5, 5), stride=(1, 1))(pool): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)(conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))(fc1): Linear(in_features=400, out_features=120, bias=True)(fc2): Linear(in_features=120, out_features=84, bias=True)(fc3): Linear(in_features=84, out_features=10, bias=True) )請記住,你也必須在每一步中把你的輸入和目標值轉換到GPU上:
inputs, labels = inputs.to(device), labels.to(device)為什么我們沒注意到GPU的速度提升很多?那是因為網絡非常的小.
實踐:嘗試增加你的網絡的寬度(第一個nn.Conv2d的第2個參數, 第二個nn.Conv2d的第一個參數,他們需要是相同的數字),看看你得到了什么樣的加速。
實現的目標:
深入了解了PyTorch的張量庫和神經網絡.
訓練了一個小網絡來分類圖片.
五、數據并行(選讀)
作者:Sung Kim和Jenny Kang
在這個教程里,我們將學習如何使用數據并行(DataParallel)來使用多GPU。
PyTorch非常容易的就可以使用GPU,你可以用如下方式把一個模型放到GPU上:
device = torch.device("cuda:0") model.to(device)然后你可以復制所有的張量到GPU上:
mytensor = my_tensor.to(device)請注意,只調用mytensor.gpu()并沒有復制張量到GPU上。你需要把它賦值給一個新的張量并在GPU上使用這個張量。
在多GPU上執行前向和反向傳播是自然而然的事。然而,PyTorch默認將只是用一個GPU。你可以使用DataParallel讓模型并行運行來輕易的讓你的操作在多個GPU上運行。
model = nn.DataParallel(model)這是這篇教程背后的核心,我們接下來將更詳細的介紹它。
導入和參數
導入PyTorch模塊和定義參數。
import torch import torch.nn as nn from torch.utils.data import Dataset, DataLoader # Parameters and DataLoaders input_size = 5 output_size = 2 batch_size = 30 data_size = 100設備:
device = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")虛擬數據集
制作一個虛擬(隨機)數據集,你只需實現__getitem__。
class RandomDataset(Dataset):def __init__(self, size, length):self.len = lengthself.data = torch.randn(length, size)def __getitem__(self, index):return self.data[index]def __len__(self):return self.len rand_loader = DataLoader(dataset=RandomDataset(input_size, data_size),batch_size=batch_size, shuffle=True)簡單模型
作為演示,我們的模型只接受一個輸入,執行一個線性操作,然后得到結果。然而,你能在任何模型(CNN,RNN,Capsule Net等)上使用DataParallel。
我們在模型內部放置了一條打印語句來檢測輸入和輸出向量的大小。請注意批等級為0時打印的內容。
class Model(nn.Module):# Our modeldef __init__(self, input_size, output_size):super(Model, self).__init__()self.fc = nn.Linear(input_size, output_size)def forward(self, input):output = self.fc(input)print("\tIn Model: input size", input.size(),"output size", output.size())return output創建一個模型和數據并行
這是本教程的核心部分。首先,我們需要創建一個模型實例和檢測我們是否有多個GPU。如果我們有多個GPU,我們使用nn.DataParallel來包裝我們的模型。然后通過model.to(device)把模型放到GPU上。
model = Model(input_size, output_size) if torch.cuda.device_count() > 1:print("Let's use", torch.cuda.device_count(), "GPUs!")# dim = 0 [30, xxx] -> [10, ...], [10, ...], [10, ...] on 3 GPUsmodel = nn.DataParallel(model) model.to(device)輸出:
Model((fc): Linear(in_features=5, out_features=2, bias=True) )運行模型
現在我們可以看輸入和輸出張量的大小。
for data in rand_loader:input = data.to(device)output = model(input)print("Outside: input size", input.size(),"output_size", output.size())輸出:
In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([30, 5]) output size torch.Size([30, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2]) Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])結果
當我們對30個輸入和輸出進行批處理時,我們和期望的一樣得到30個輸入和30個輸出,但是如果你有多個GPU,你得到如下的結果。
2個GPU
如果你有2個GPU,你將看到:
# on 2 GPUs Let's use 2 GPUs!In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2])In Model: input size torch.Size([15, 5]) output size torch.Size([15, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2])In Model: input size torch.Size([5, 5]) output size torch.Size([5, 2]) Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])3個GPU
如果你有3個GPU,你將看到:
Let's use 3 GPUs!In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2])In Model: input size torch.Size([10, 5]) output size torch.Size([10, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2]) Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])8個GPU
Let's use 8 GPUs!In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([4, 5]) output size torch.Size([4, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2]) Outside: input size torch.Size([30, 5]) output_size torch.Size([30, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2])In Model: input size torch.Size([2, 5]) output size torch.Size([2, 2]) Outside: input size torch.Size([10, 5]) output_size torch.Size([10, 2])總結
DataParallel自動的劃分數據,并將作業發送到多個GPU上的多個模型。在每個模型完成作業后,DataParallel收集并合并結果返回給你。
更多信息請看這里:
http://pytorch.org/tutorials/beginner/former_torchies/parallelism_tutorial.html
全文完
本文的所有代碼在黃海廣的github公布(還會更新):
https://github.com/fengdu78/machine_learning_beginner/tree/master/PyTorch_beginner
官方原版內容(英語):
https://pytorch.org/tutorials/beginner/deep_learning_60min_blitz.html
請關注和分享↓↓↓?
機器學習初學者
QQ群:554839127
(注意:本站有6個qq群,加入過任何一個的不需要再加)
往期精彩回顧
良心推薦:機器學習入門資料匯總及學習建議(2018版)
黃海廣博士的github鏡像下載(機器學習及深度學習資源)
吳恩達老師的機器學習和深度學習課程筆記打印版
機器學習小抄-(像背托福單詞一樣理解機器學習)
首發:深度學習入門寶典-《python深度學習》原文代碼中文注釋版及電子書
科研工作者的神器-zotero論文管理工具
機器學習的數學基礎
機器學習必備寶典-《統計學習方法》的python代碼實現、電子書及課件
吐血推薦收藏的學位論文排版教程(完整版)
機器學習入門的百科全書-2018年“機器學習初學者”公眾號文章匯總
總結
以上是生活随笔為你收集整理的最新翻译的官方PyTorch简易入门教程(PyTorch1.0版本)的全部內容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 使用scikit-learn进行机器学习
- 下一篇: Pandas基本操作指南-2天学会pan