PyTorch 第一章第三节:张量操作与线性回归

文章目录

    • 张量操作:拼接、切分、索引和变换
    • 张量的数学运算
    • 线性回归

张量操作:拼接、切分、索引和变换

一、张量拼接与切分
1.1 torch.cat()
功能:将张量按维度dim进行拼接

  • tensors:张量序列
  • dim:要拼接的维度
torch.cat(tensors,dim=0,out=None)
import torch
t=torch.ones((2,3))
t_0=torch.cat([t,t],dim=0)
t_1=torch.cat([t,t],dim=1)
t_2=torch.cat([t,t,t],dim=2)
print("t_0:{} shape:{}\nt_1:{} shape:{}".format(t_0,t_0.shape,t_1,t_1.shape))
结果:t_0返回 4x3 张量 
	 t_1返回 2x6 张量
	 t_2    2x9

1.2 torch.stack()
功能:在新创建的维度dim上进行拼接

  • tensors:张量序列
  • dim:要拼接的维度
torch.stack(tensors,dim=0,out=None)

代码示例

t=torch.ones((2,3))
t_stack1=torch.stack([t,t],dim=2)
t_stack2=torch.stack([t,t],dim=0)
t_stack3=torch.stack([t,t,t],dim=0)
print('\nt_stack:{} shape:{}'.format(t_stack,t_stack.shape))
结果:
t_stack1 返回 2x3x2 ([[[1,1],[1,1],[1,1]],[[1,1],[1,1],[1,1]]])
t_stack2 返回 2x2x3 ([[[1,1,1],[1,1,1]],[[1,1,1],[1,1,1]]])
t_stack3 返回 3x2x3 ([[[1,1,1],[1,1,1]],[[1,1,1],[1,1,1]],[[1,1,1],[1,1,1]]])

1.3 torch.chunk()
功能:将张量按维度dim进行平均切分
返回值:张量列表
注意事项:若不能整除,最后一份张量小于其他张量

  • input:要切分的张量
  • chunks:要切分的份数
  • dim:要切分的维度
torch.chunk(input,chunks,dim=0)

代码实现

a=torch.ones((2,5))
list_of_tensors=torch.chunk(a,dim=1,chunks=2)
for idx,t in enumerate(list_of_tensors):
	print('第{}个张量,shape is {}'.format(idx+1,t,t.shape))
#结果:(2,5)返回两个张量,第一个2x3,第二个2x2
#(2,7)2x3,2x2,2x2

1.4 torch.split()
功能:将张量按维度dim进行切分
返回值:张量列表

  • Tensor:要切分的张量
  • split_size_or_sections:为int时,表示每一份的长度;为list时,按list元素切分
  • dim:要切分的长度
torch.split(tensor,
			split_size_or_sections,
			dim=0)
t=torch.ones((2,5))
list_of_tensors=torch.split(t,[2,1,2],dim=1)
for idx,t in enumerate(list_of_tensors):
	print('第{}个张量,shape is {}'.format(idx+1,t,t.shape)) 
#[2,1,2] 求和等于指定维度长度

二、张量索引
2.1 torch.index_select()
功能:在维度dim上,按index索引数据
返回值:依index索引数据拼接的张量

  • input:要索引的张量
  • dim:要索引的维度
  • index:要索引数据的序号
t=torch.randint(0,9,size=(3,3))
idx=torch.tensor([0,2],dtype=torch.long)#torch.long 64位整型
t_select=torch.index_select(t,dim=0,index=idx)#索引第0维度上的第0个和第2个
print('t:\n{}\nt_select:\n{}\n'.format(t,t_select))

2.2 torch.masked_select()
功能:按mask中的True进行索引
返回值:一维张量

  • input:要索引的张量
  • mask:与input同形状的布尔类型张量
t=torch.randint(0,9,size=(3,3))
mask=t.ge(5)#ge 大于等于  gt大于  le小于等于 lt小于
t_select=torch.mask_select(t,mask)#索引第0维度上的第0个和第2个
print('t:\n{}\nmask:\nt_select:\n{}\n'.format(t,mask,t_select))
#t_select  一维张量 大于等于5的数

三、张量变换
3.1 torch.reshape()
功能:变换张量形状
注意事项:当张量在内存中是连续时,新张量与input共享数据内存

  • input:要变换的张量
  • shape:新张量的形状
t=t.torch.randperm(8)#生成从0到n-1的随机排列
t_reshape=torch.reshape(t,(2,4))#(-1,4)-1这个维度不关心 通过8/4得到
print('t:{}\nt_reshape:\n{}'.format(t,t_shape))

t[0]=1024
print('t:{}\nt_reshape:\n{}'.format(t,t_shape))
print('t.data 内存地址:{}'.format(id(t.data)))
print('t_reshape.data内存地址:{}'.format(id(t_reshape.data)))
#结果 地址一样  内存共享

3.2 torch.transpose()
功能:交换张量的两个维度

  • input:要变换的张量
  • dim0:要交换的维度
  • dim1:要交换的维度
t=torch.rand((2,3,4))#在区间[0,1),生成均匀分布
t_transpose=torch.transpose(t,dim0=1,dim1=2)
print('t.shape:{}\nt_transpose.shape:{}'.format(t.shape,t_transpose.shape))
#[2,3,4]转为[2,4,3]

3.3 torch.t()
功能:2维张量转置,对矩阵而言,等价于torch.transpose(input,0,1)
3.4 torch.squeeze()
功能:压缩长度为1的维度(轴)

  • dim:若为None,移除所有长度为1的轴;若指定维度,当且仅当该轴长度为1时,可以被移除
    3.5 torch.unsqueeze()
    功能:依据dim扩展维度
  • dim:扩展的维度
t=torch.rand((1,2,3,1))
t_sq=torch.squeeze(t)
t_0=torch.squeeze(t,dim=0)
t_1=torch.squeeze(t,dim=1)
print(t.shape)#torch.Size([1,2,3,1])
print(t_sq.shape)#torch.Size([2,3])
print(t_0.shape)#torch.Size([2,3,1])
print(t_1.shape)#torch.Size([1,2,3])

张量的数学运算

PyTorch 第一章第三节:张量操作与线性回归_第1张图片

线性回归

你可能感兴趣的:(PyTorch,pytorch)