函数 | 功能 |
---|---|
Tensor(*sizes) | 基础构造函数 |
tensor(data,) | 相似np.array的构造函数 |
ones(*sizes) | 全1Tensor |
zeros(*sizes) | 全0Tensor |
eye(*sizes) | 对角线为1,其余为0 |
arange(s,e,step) | 从s到e,步长为step |
linspace(s,e,steps) | 从s到e,均匀切分红steps份 |
rand/randn(*sizes) | 均匀/标准分布 |
normal(mean,std)/uniform(from,to) | 正态分布/均匀分布 |
randperm(m) | 长度为5随机排列 |
这些建立方法均可以在建立的时候指定数据类型dtype和存放device(cpu/gpu)html
查看tensor的形状,tensor.shape
等价于tensor.size()
python
import torch as t
# 用list的数据建立tensor
b = t.Tensor([[1,2,3],[4,5,6]])
b.tolist() # 把tensor转为list
b_size = b.size()
b.numel() # b中元素总个数,2*3,等价于b.nelement()
# 建立一个和b形状同样的tensor
c = t.Tensor(b_size)
# 建立一个元素为2和3的tensor
d = t.Tensor((2, 3))
复制代码
>>> torch.arange(0,10,1)
tensor([ 0., 1., 2., 3., 4., 5., 6., 7., 8., 9.])
>>> torch.range(0,10,1)
tensor([ 0., 1., 2., 3., 4., 5., 6., 7., 8., 9.,
10.])
复制代码
Data type | dtype | CPU tensor | GPU tensor |
---|---|---|---|
32-bit floating point | torch.float32 or torch.float |
torch.FloatTensor |
torch.cuda.FloatTensor |
64-bit floating point | torch.float64 or torch.double |
torch.DoubleTensor |
torch.cuda.DoubleTensor |
16-bit floating point | torch.float16 or torch.half |
torch.HalfTensor |
torch.cuda.HalfTensor |
8-bit integer (unsigned) | torch.uint8 |
torch.ByteTensor |
torch.cuda.ByteTensor |
8-bit integer (signed) | torch.int8 |
torch.CharTensor |
torch.cuda.CharTensor |
16-bit integer (signed) | torch.int16 or torch.short |
torch.ShortTensor |
torch.cuda.ShortTensor |
32-bit integer (signed) | torch.int32 or torch.int |
torch.IntTensor |
torch.cuda.IntTensor |
64-bit integer (signed) | torch.int64 or torch.long |
torch.LongTensor |
torch.cuda.LongTensor |
import torch as t
# 设置默认tensor,注意参数是字符串
t.set_default_tensor_type('torch.DoubleTensor')
a = t.Tensor(2,3)
a.dtype # 如今a是DoubleTensor,dtype是float64
# 恢复以前的默认设置
t.set_default_tensor_type('torch.FloatTensor')
t.zeros_like(a) #等价于t.zeros(a.shape,dtype=a.dtype,device=a.device)
t.zeros_like(a, dtype=t.int16) #能够修改某些属性
复制代码
>>> c = torch.tensor([3,4,5], dtype=torch.long)
>>> c
tensor([3, 4, 5])
>>> c.dtype
torch.int64
>>> a = torch.Tensor([2,3])
>>> a.dtype
torch.float32
>>> a.requires_grad
False
>>> a.int()
tensor([2, 3], dtype=torch.int32)
>>> a.short()
tensor([2, 3], dtype=torch.int16)
>>> a.type(torch.FloatTensor)
tensor([2., 3.])
>>> a.dtype
torch.float32
>>> a.long()# 为何修改失败
tensor([2, 3])
>>> a.dtype
torch.float32
>>> a.double()
tensor([2., 3.], dtype=torch.float64)
>>> b=torch.LongTensor([4,5])
>>> b
tensor([4, 5])
>>> b.dtype
torch.int64
复制代码
函数 | 功能 |
---|---|
abs/sqrt/div/exp/fmod/log/pow.. | 绝对值/平方根/除法/指数/求余/求幂.. |
cos/sin/asin/atan2/cosh.. | 相关三角函数 |
ceil/round/floor/trunc | 上取整/四舍五入/下取整/只保留整数部分 |
clamp(input, min, max) | 超过min和max部分截断 |
sigmod/tanh.. | 激活函数 |
Tensor---->Numpy 可使用 data.numpy(),data为Tensor变量ide
Numpy ----> Tensor 可使用torch.from_numpy(data),data为numpy变量函数
import numpy as np
a = np.ones([2, 3],dtype=np.float32)
b = t.from_numpy(a)
b = t.Tensor(a) # 也能够直接将numpy对象传入Tensor
c = b.numpy() # a, b, c三个对象共享内存
# 当numpy的数据类型和Tensor的类型不同的时候,数据会被复制,不会共享内存。
# 不论输入的类型是什么,t.tensor(a)都会进行数据拷贝,不会共享内存
复制代码
自动求导须要指定,默认建立的tensor不能求导ui
#在建立tensor的时候指定requires_grad
a = t.randn(3,4, requires_grad=True)
# 或者
a = t.randn(3,4).requires_grad_()
# 或者
a = t.randn(3,4)
a.requires_grad=True
复制代码
在tensor attributes中有三个类,分别为torch.dtype, torch.device, 和 torch.layoutspa
其中, torch.dtype 是展现 torch.Tensor 数据类型的类,pytorch 有八个不一样的数据类型,下表是完整的 dtype 列表.scala
Torch.device 是表现 torch.Tensor被分配的设备类型的类,其中分为’cpu’ 和 ‘cuda’两种,若是设备序号没有显示则表示此 tensor 被分配到当前设备, 好比: 'cuda' 等同于 'cuda': X , X 为torch.cuda.current _device() 返回值3d
咱们能够经过 tensor.device 来获取其属性,同时能够利用字符或字符+序号的方式来分配设备code
经过字符串:
>>> torch.device('cuda:0')
device(type='cuda', index=0)
>>> torch.device('cpu')
device(type='cpu')
>>> torch.device('cuda') # 当前设备
device(type='cuda')
经过字符串和设备序号:
>>> torch.device('cuda', 0)
device(type='cuda', index=0)
>>> torch.device('cpu', 0)
device(type='cpu', index=0)
复制代码
此外,cpu 和 cuda 设备的转换使用 'to' 来实现:orm
>>> device_cpu = torch.device("cuda") #声明cuda设备
>>> device_cuda = torch.device('cuda') #设备cpu设备
>>> data = torch.Tensor([1])
>>> data.to(device_cpu) #将数据转为cpu格式
>>> data.to(device_cuda) #将数据转为cuda格式
复制代码
torch.layout 是表现 torch.Tensor 内存分布的类,目前只支持 torch.strided
torch.tensor(data, dtype=None, device=None,requires_grad=False)
data - 能够是list, tuple, numpy array, scalar或其余类型
dtype - 能够返回想要的tensor类型
device - 能够指定返回的设备
requires_grad - 能够指定是否进行记录图的操做,默认为False
须要注意的是,torch.tensor 老是会复制 data, 若是你想避免复制,可使 torch.Tensor. detach(),若是是从 numpy 中得到数据,那么你能够用 torch.from_numpy(), 注from_numpy() 是共享内存的
>>> torch.tensor([[0.1, 1.2], [2.2, 3.1], [4.9, 5.2]])
tensor([[ 0.1000, 1.2000],
[ 2.2000, 3.1000],
[ 4.9000, 5.2000]])
>>> torch.tensor([0, 1]) # Type inference on data
tensor([ 0, 1])
>>> torch.tensor([[0.11111, 0.222222, 0.3333333]],
dtype=torch.float64,
device=torch.device('cuda:0')) # creates a torch.cuda.DoubleTensor
tensor([[ 0.1111, 0.2222, 0.3333]], dtype=torch.float64, device='cuda:0')
>>> torch.tensor(3.14159) # Create a scalar (zero-dimensional tensor)
tensor(3.1416)
>>> torch.tensor([]) # Create an empty tensor (of size (0,))
tensor([])
复制代码
torch.from_numpy(ndarry)
注:生成返回的tensor会和ndarry共享数据,任何对tensor的操做都会影响到ndarry, 反之亦然
>>> a = numpy.array([1, 2, 3])
>>> t = torch.from_numpy(a)
>>> t
tensor([ 1, 2, 3])
>>> t[0] = -1
>>> a
array([-1, 2, 3])
复制代码
根据数值要求:
torch.zeros(*sizes, out=None, ..)# 返回大小为sizes的零矩阵
torch.zeros_like(input, ..) # 返回与input相同size的零矩阵
torch.ones(*sizes, out=None, ..) #f返回大小为sizes的单位矩阵
torch.ones_like(input, ..) #返回与input相同size的单位矩阵
torch.full(size, fill_value, …) #返回大小为sizes,单位值为fill_value的矩阵
torch.full_like(input, fill_value, …) 返回与input相同size,单位值为fill_value的矩阵
torch.arange(start=0, end, step=1, …) #返回从start到end, 单位步长为step的1-d tensor.
torch.linspace(start, end, steps=100, …) #返回从start到end, 间隔中的插值数目为steps的1-d tensor
torch.logspace(start, end, steps=100, …) #返回1-d tensor ,从10^start到10^end的steps个对数间隔
复制代码
根据矩阵要求:
torch.eye(n, m=None, out=None,…) #返回2-D 的单位对角矩阵
torch.empty(*sizes, out=None, …) #返回被未初始化的数值填充,大小为sizes的tensor
torch.empty_like(input, …) # 返回与input相同size,并被未初始化的数值填充的tensor
复制代码
torch.normal(mean, std, out=None)
torch.rand(*size, out=None, dtype=None, …) #返回[0,1]之间均匀分布的随机数值
torch.rand_like(input, dtype=None, …) #返回与input相同size的tensor, 填充均匀分布的随机数值
torch.randint(low=0, high, size,…) #返回均匀分布的[low,high]之间的整数随机值
torch.randint_like(input, low=0, high, dtype=None, …) #
torch.randn(*sizes, out=None, …) #返回大小为size,由均值为0,方差为1的正态分布的随机数值
torch.randn_like(input, dtype=None, …)
torch.randperm(n, out=None, dtype=torch.int64) # 返回0到n-1的数列的随机排列
复制代码
基本操做:
Joining ops:
torch.cat(seq,dim=0,out=None) # 沿着dim链接seq中的tensor, 全部的tensor必须有相同的size或为empty, 其相反的操做为 torch.split() 和torch.chunk()
torch.stack(seq, dim=0, out=None) #同上
#注: .cat 和 .stack的区别在于 cat会增长现有维度的值,能够理解为续接,stack会新加增长一个维度,能够
理解为叠加
>>> a=torch.Tensor([1,2,3])
>>> torch.stack((a,a)).size()
torch.size(2,3)
>>> torch.cat((a,a)).size()
torch.size(6)
复制代码
torch.gather(input, dim, index, out=None) #返回沿着dim收集的新的tensor
>> t = torch.Tensor([[1,2],[3,4]])
>> index = torch.LongTensor([[0,0],[1,0]])
>> torch.gather(t, 0, index) #因为 dim=0,因此结果为
| t[index[0, 0] 0] t[index[0, 1] 1] |
| t[index[1, 0] 0] t[index[1, 1] 1] |
对于3-D 的张量来讲,能够做为
out[i][j][k] = input[index[i][j][k]][j][k] # if dim == 0
out[i][j][k] = input[i][index[i][j][k]][k] # if dim == 1
out[i][j][k] = input[i][j][index[i][j][k]] # if dim == 2
复制代码
clicing ops:
torch.split(tensor, split_size_or_sections, dim=0) #将tensor 拆分红相应的组块
torch.chunk(tensor, chunks, dim=0) #将tensor 拆分红相应的组块, 最后一块会小一些若是不能整除的话#
#注:split和chunk的区别在于:
split的split_size_or_sections 表示每个组块中的数据大小,chunks表示组块的数量
>>> a = torch.Tensor([1,2,3])
>>> torch.split(a,1)
(tensor([1.]), tensor([2.]), tensor([3.]))
>>> torch.chunk(a,1)
(tensor([ 1., 2., 3.]),)
复制代码
Indexing ops:
torch.index_select(input, dim, index, out=None) #返回沿着dim的指定tensor, index需为longTensor类型,不共用内存
torch.masked_select(input, mask, out=None) #根据mask来返回input的值其为1-D tensor. Mask为ByteTensor, true返回,false不返回,返回值不共用内存
>>> x = torch.randn(3, 4)
>>> x
tensor([[ 0.3552, -2.3825, -0.8297, 0.3477],
[-1.2035, 1.2252, 0.5002, 0.6248],
[ 0.1307, -2.0608, 0.1244, 2.0139]])
>>> mask = x.ge(0.5)
>>> mask
tensor([[ 0, 0, 0, 0],
[ 0, 1, 1, 1],
[ 0, 0, 0, 1]], dtype=torch.uint8)
>>> torch.masked_select(x, mask)
tensor([ 1.2252, 0.5002, 0.6248, 2.0139])
复制代码
Mutation ops:
torch.transpose(input, dim0, dim1, out=None) #返回dim0和dim1交换后的tensor
torch.t(input, out=None) #专为2D矩阵的转置,是transpose的便捷函数
torch.squeeze(input, dim, out=None) #默认移除全部size为1的维度,当dim指定时,移除指定size为1的维度. 返回的tensor会和input共享存储空间,因此任何一个的改变都会影响另外一个
torch.unsqueeze(input, dim, out=None) #扩展input的size, 如 A x B 变为 1 x A x B
torch.reshape(input, shape) #返回size为shape具备相同数值的tensor, 注意 shape=(-1,)这种表述,-1表示任意的。
#注 reshape(-1,)
>>> a=torch.Tensor([1,2,3,4,5]) #a.size 是 torch.size(5)
>>> b=a.reshape(1,-1) #表示第一维度是1,第二维度按a的size填充满
>>> b.size()
torch.size([1,5])
torch.where(condition,x,y) #根据condition的值来相应x,y的值,true返回x的值,false返回y的值,造成新的tensor
torch.unbind(tensor, dim=0) #返回tuple 解除指定的dim的绑定,至关于按指定dim拆分
>>> a=torch.Tensor([[1,2,3],[2,3,4]])
>>> torch.unbind(a,dim=0)
(torch([1,2,3]),torch([2,3,4])) # 将一个(2,3) 分为两个(3)
torch.nonzero(input, out=None) # 返回非零值的索引, 每一行都是一个非零值的索引值
>>> torch.nonzero(torch.tensor([1, 1, 1, 0, 1]))
tensor([[ 0],
[ 1],
[ 2],
[ 4]])
>>> torch.nonzero(torch.tensor([[0.6, 0.0, 0.0, 0.0],
[0.0, 0.4, 0.0, 0.0],
[0.0, 0.0, 1.2, 0.0],
[0.0, 0.0, 0.0,-0.4]]))
tensor([[ 0, 0],
[ 1, 1],
[ 2, 2],
[ 3, 3]])
复制代码
三角函数:
torch.abs(input, out=None)
torch.acos(input, out=None)
torch.asin(input, out=None)
torch.atan(input, out=None)
torch.atan2(input, inpu2, out=None)
torch.cos(input, out=None)
torch.cosh(input, out=None)
torch.sin(input, out=None)
torch.sinh(input, out=None)
torch.tan(input, out=None)
torch.tanh(input, out=None)
复制代码
基本运算,加减乘除
Torch.add(input, value, out=None)
.add(input, value=1, other, out=None)
.addcdiv(tensor, value=1, tensor1, tensor2, out=None)
.addcmul(tensor, value=1, tensor1, tensor2, out=None)
torch.div(input, value, out=None)
.div(input, other, out=None)
torch.mul(input, value, out=None)
.mul(input, other, out=None)
复制代码
对数运算:
torch.log(input, out=None) # y_i=log_e(x_i)
torch.log1p(input, out=None) #y_i=log_e(x_i+1)
torch.log2(input, out=None) #y_i=log_2(x_i)
torch.log10(input,out=None) #y_i=log_10(x_i)
复制代码
幂函数:
torch.pow(input, exponent, out=None) # y_i=input^(exponent)
复制代码
指数运算
torch.exp(tensor, out=None) #y_i=e^(x_i)
torch.expm1(tensor, out=None) #y_i=e^(x_i) -1
复制代码
截断函数
torch.ceil(input, out=None) #返回向正方向取得最小整数
torch.floor(input, out=None) #返回向负方向取得最大整数
torch.round(input, out=None) #返回相邻最近的整数,四舍五入
torch.trunc(input, out=None) #返回整数部分数值
torch.frac(tensor, out=None) #返回小数部分数值
torch.fmod(input, divisor, out=None) #返回input/divisor的余数
torch.remainder(input, divisor, out=None) #同上
复制代码
其余运算
torch.erf(tensor, out=None)
torch.erfinv(tensor, out=None)
torch.sigmoid(input, out=None)
torch.clamp(input, min, max out=None) #返回 input<min,则返回min, input>max,则返回max,其他返回input
torch.neg(input, out=None) #out_i=-1*(input)
torch.reciprocal(input, out=None) # out_i= 1/input_i
torch.sqrt(input, out=None) # out_i=sqrt(input_i)
torch.rsqrt(input, out=None) #out_i=1/(sqrt(input_i))
torch.sign(input, out=None) #out_i=sin(input_i) 大于0为1,小于0为-1
torch.lerp(start, end, weight, out=None)
复制代码
torch.argmax(input, dim=None, keepdim=False) #返回最大值排序的索引值
torch.argmin(input, dim=None, keepdim=False) #返回最小值排序的索引值
torch.cumprod(input, dim, out=None) #y_i=x_1 * x_2 * x_3 *…* x_i
torch.cumsum(input, dim, out=None) #y_i=x_1 + x_2 + … + x_i
torch.dist(input, out, p=2) #返回input和out的p式距离
torch.mean() #返回平均值
torch.sum() #返回总和
torch.median(input) #返回中间值
torch.mode(input) #返回众数值
torch.unique(input, sorted=False) #返回1-D的惟一的tensor,每一个数值返回一次.
>>> output = torch.unique(torch.tensor([1, 3, 2, 3], dtype=torch.long))
>>> output
tensor([ 2, 3, 1])
torch.std( #返回标准差)
torch.var() #返回方差
torch.norm(input, p=2) #返回p-norm的范式
torch.prod(input, dim, keepdim=False) #返回指定维度每一行的乘积
复制代码
torch.eq(input, other, out=None) #按成员进行等式操做,相同返回1
torch.equal(tensor1, tensor2) #若是tensor1和tensor2有相同的size和elements,则为true
>>> torch.eq(torch.tensor([[1, 2], [3, 4]]), torch.tensor([[1, 1], [4, 4]]))
tensor([[ 1, 0],
[ 0, 1]], dtype=torch.uint8)
>>> torch.eq(torch.tensor([[1, 2], [3, 4]]), torch.tensor([[1, 1], [4, 4]]))
tensor([[ 1, 0],
[ 0, 1]], dtype=torch.uint8)
torch.ge(input, other, out=None) # input>= other
torch.gt(input, other, out=None) # input>other
torch.le(input, other, out=None) # input=<other
torch.lt(input, other, out=None) # input<other
torch.ne(input, other, out=None) # input != other 不等于
torch.max() # 返回最大值
torch.min() # 返回最小值
torch.isnan(tensor) #判断是否为’nan’
torch.sort(input, dim=None, descending=False, out=None) #对目标input进行排序
torch.topk(input, k, dim=None, largest=True, sorted=True, out=None) #沿着指定维度返回最大k个数值及其索引值
torch.kthvalue(input, k, dim=None, deepdim=False, out=None) #沿着指定维度返回最小k个数值及其索引值
复制代码
torch.fft(input, signal_ndim, normalized=False)
torch.ifft(input, signal_ndim, normalized=False)
torch.rfft(input, signal_ndim, normalized=False, onesided=True)
torch.irfft(input, signal_ndim, normalized=False, onesided=True)
torch.stft(signa, frame_length, hop, …)
复制代码
torch.cross(input, other, dim=-1, out=None) #叉乘(外积)
torch.dot(tensor1, tensor2) #返回tensor1和tensor2的点乘
torch.mm(mat1, mat2, out=None) #返回矩阵mat1和mat2的乘积
torch.eig(a, eigenvectors=False, out=None) #返回矩阵a的特征值/特征向量
torch.det(A) #返回矩阵A的行列式
torch.trace(input) #返回2-d 矩阵的迹(对对角元素求和)
torch.diag(input, diagonal=0, out=None) #
torch.histc(input, bins=100, min=0, max=0, out=None) #计算input的直方图
torch.tril(input, diagonal=0, out=None) #返回矩阵的下三角矩阵,其余为0
torch.triu(input, diagonal=0, out=None) #返回矩阵的上三角矩阵,其余为0
复制代码
因为pytorch 0.4后,python number的获取统一经过 .item()方式实现:
>>> a = torch.Tensor([1,2,3])
>>> a[0] #直接取索引返回的是tensor数据
tensor(1.)
>>> a[0].item() #获取python number
1
复制代码
判断:
torch.is_tensor() #若是是pytorch的tensor类型返回true
torch.is_storage() # 若是是pytorch的storage类型返回ture
复制代码
这里还有一个小技巧,若是须要判断tensor是否为空,能够以下
>>> a=torch.Tensor()
>>> len(a)
0
>>> len(a) is 0
True
复制代码
设置: 经过一些内置函数,能够实现对tensor的精度, 类型,print打印参数等进行设置
torch.set_default_dtype(d) #对torch.tensor() 设置默认的浮点类型
torch.set_default_tensor_type() # 同上,对torch.tensor()设置默认的tensor类型
>>> torch.tensor([1.2, 3]).dtype # initial default for floating point is torch.float32
torch.float32
>>> torch.set_default_dtype(torch.float64)
>>> torch.tensor([1.2, 3]).dtype # a new floating point tensor
torch.float64
>>> torch.set_default_tensor_type(torch.DoubleTensor)
>>> torch.tensor([1.2, 3]).dtype # a new floating point tensor
torch.float64
torch.get_default_dtype() #得到当前默认的浮点类型torch.dtype
torch.set_printoptions(precision=None, threshold=None, edgeitems=None, linewidth=None, profile=None)#)
## 设置printing的打印参数
复制代码