PyTorch教程(一):张量数据类型
| int | IntTensor of size() |
| float | FloatTensor of size() |
| Int array | IntTensor of size[d1,d2,…] |
| Float array | FloatTensor of size [d1,d2,…] |
| string | – |
需要注意的是,python中的string,在PyTorch中沒有對應(yīng)的數(shù)據(jù)類型,一般使用One-hot可以進(jìn)行表示,也就是[0,1,0,0,0]的方式表示一個字符串,或者使用Embedding的方式,常用的有Word2vec和glove
1. 類型推斷
import torcha = torch.randn(2,3) # 使用隨機(jī)正態(tài)分布方法,均值0,方差1,N(0,1),新建了2維向量,兩行三列, a.type() # 'torch.FloatTensor' type(a) # <class 'torch.Tensor'> isinstance(a, torch.FloatTensor) # True需要注意的是同一個tensor在CPU和GPU中是不一樣的。
isinstance(a, torch.cuda.FloatTensor) # False a = a.cuda() isinstance(a, torch.cuda.FloatTensor) # Truea.cuda()會返回一個gpu上的引用。
標(biāo)量
b = torch.tensor(1.3) b.shape # torch.Size([]) b.dim() # 0 b.size() # torch.Size([])torch.tensor(1.)就創(chuàng)建了值為1的標(biāo)量。torch.tensor(1.3)創(chuàng)建了值為1.3000的標(biāo)量。
注意,1.3是0維,但是[1.3]是1維,長度為1的Tensor
我們通常使用的loss就是維度為0的標(biāo)量。
向量
在PyTorch中統(tǒng)一稱向量為張量。
c = torch.tensor([1.1]) # 創(chuàng)建了1維的張量,值為1.100 c = torch.tensor([1.1, 2.2]) # 創(chuàng)建了2維的張量,值為1.1000, 2.2000torch.FloatTensor(1) # 隨機(jī)創(chuàng)建一個1維的Float張量,值隨機(jī) tensor([0.]) torch.FloatTensor(2) # 隨機(jī)創(chuàng)建一個2維的Float張量,值隨機(jī) tensor([1.0842e-19, 1.9859e+00])# 可以通過引入numpy來創(chuàng)建張量 data = numpy.ones(2) # 長度維2的向量,值為array([1., 1.]) torch.from_numpy(data) # 從numpy中引入數(shù)據(jù),值為tensor([1., 1.], dtype=torch.float64)我們通常使用的bias偏置,就是維度為1的張量。
需要注意的是,在PyTorch0.3以及之前的版本中,維度為0的張量是不存在的,例如loss=0.3的dim為1,在PyTorch0.4以及以后的版本中,loss=0.3表示一個標(biāo)量。
舉例:
下面一個例子中,dim=2,隨機(jī)正態(tài)分布數(shù)據(jù):
下面一個例子中,dim=3,隨機(jī)均勻分布數(shù)據(jù):
a = torch.rand(1,2,3) #生成隨機(jī)均勻分布數(shù)據(jù) # tensor([[[0.9005, 0.5394, 0.7798], # [0.5691, 0.3837, 0.1468]]]) a[0] # tensor([[0.9005, 0.5394, 0.7798], # [0.5691, 0.3837, 0.1468]])三維張量,適合RNN這種網(wǎng)絡(luò)結(jié)構(gòu)。
下面一個例子中,dim=4,隨機(jī)均勻分布數(shù)據(jù):
四維張量,適合卷積神經(jīng)網(wǎng)絡(luò)。
a = torch.rand(2,3,28,28) a.numel() # 表示tensor占用內(nèi)存的數(shù)量 number of element a.dim() # a的維度總結(jié)
以上是生活随笔為你收集整理的PyTorch教程(一):张量数据类型的全部內(nèi)容,希望文章能夠幫你解決所遇到的問題。
- 上一篇: 机器学习(四) 下采样和上采样
- 下一篇: 浅谈中国剩余定理