PyTorch概述(六)---View

Tensor.view(*shape)-->Tensor

  • 返回一个新的张量同之前的张量具有相同的数据,但是具有不同的形状;
  • 返回的张量同之前的张量共享相同的数据,必须具有相同数目的元素,可能具有不同的形状;
  • 对于经过view操作的张量,新的尺寸必须同原始的张量大小和步长兼容;
  • 每一个新的观察维度必须或者是一个原始维度的子空间;
  • 或者跨越原始维度,满足以下条件:
  • 不满足上述条件,在不拷贝原始张量的情况下将不会view成功;
  • 当不了解是否一个view可以执行时,推荐使用reshape();
  • reshape()返回一个view如果形状是兼容的,且复制原始的张量,等效于调用contiguous();

参数

  • shape(torch.Size or int)---要求的尺寸

实例

python 复制代码
import torch

x=torch.randn(4,4)
x.size()
#torch.Size([4,4]}
y=x.view(16)
y.size()
#torch.Size([16])
z=x.view(-1,8) #the size -1 is inferred from other dimensions
z.size()
#torch.Size([2,8])

a=torch.randn(1,2,3,4)
a.size()
#torch.Size([1,2,3,4])
b=a.transpose(1,2) #swap 2nd and 3rd dimension
b.size()
#torch.Size([1,3,2,4])
c=a.view(1,3,2,4) #Does not change tensor layout in memeory
c.size()
#torch.Size([1,3,2,4])
torch.equal(b,c)
#Flase

view(dtype)-->Tensor

  • 返回一个同原始张量具有相同数据的新张量,但是具有不同的数据类型;
  • 如果dtype的单元尺寸不同于原始张量dtype的尺寸;
  • 那么输出的最后一个维度的大小将按比例缩放;
  • 比如:如果dtype的单元尺寸两倍于原始dtype的单元尺寸;
  • 那么原始张量中的最后一个维度中的单元,两两一组进行合并;
  • 新张量的最后一个维度的尺寸将会是原始张量的最后一个维度的一半;
  • 如果新的张量的dtype单元尺寸是原始张量的dtype单元尺寸的一半;
  • 那么原始张量中的最后一个维度将一分为2;
  • 新张量的最后一个维度的尺寸将会使原始张量最后一个维度的2倍;
  • 以上实例描述可能得话,必须满足以下条件:
  • self.dim()必须大于0;
  • self.stride(-1)必须为1;
  • 还有,如果dtype的单元尺寸大于原始张量的dtype的尺寸,以下条件必须同样满足:
  • self.size(-1)必须是对dtype单元尺寸的比率可整除的;
  • self.storage_offset()必须是对dtype单元尺寸的比率可整除的;
  • 所有维度的步长,除了最后一个维度外,必须是对dtype单元尺寸的比率可整除的;
  • 如果以上条件任一不满足,将会出错;
  • torchscript不支持上述描述的这种重载,在torchscript中使用将会引起未定义的错误;

参数

  • dtype(torch.dtype)---要求的dtype类型

实例

python 复制代码
import torch

x=torch.randn(4,4)
x
#tensor([[ 0.9482, -0.0310,  1.4999, -0.5316],
#       [-0.1520,  0.7472,  0.5617, -0.8649],
#       [-2.4724, -0.0334, -0.2976, -0.8499],
#       [-0.2109,  1.9913, -0.9607, -0.6123]])
x.dtype
#torch.float32

y=x.view(torch.int32)
y
# tensor([[ 1064483442, -1124191867,  1069546515, -1089989247],
#         [-1105482831,  1061112040,  1057999968, -1084397505],
#         [-1071760287, -1123489973, -1097310419, -1084649136],
#         [-1101533110,  1073668768, -1082790149, -1088634448]],
#     dtype=torch.int32)
y[0,0]=1000000000
x
# tensor([[ 0.0047, -0.0310,  1.4999, -0.5316],
#         [-0.1520,  0.7472,  0.5617, -0.8649],
#         [-2.4724, -0.0334, -0.2976, -0.8499],
#         [-0.2109,  1.9913, -0.9607, -0.6123]])
x.view(torch.cfloat)
# tensor([[ 0.0047-0.0310j,  1.4999-0.5316j],
#         [-0.1520+0.7472j,  0.5617-0.8649j],
#         [-2.4724-0.0334j, -0.2976-0.8499j],
#         [-0.2109+1.9913j, -0.9607-0.6123j]])
x.view(torch.cfloat).size()
#torch.Size([4,2])
x.view(torch.uint8)
# tensor([[  0, 202, 154,  59, 182, 243, 253, 188, 185, 252, 191,  63, 240,  22,
#            8, 191],
#         [227, 165,  27, 190, 128,  72,  63,  63, 146, 203,  15,  63,  22, 106,
#           93, 191],
#         [205,  59,  30, 192, 112, 206,   8, 189,   7,  95, 152, 190,  12, 147,
#           89, 191],
#         [ 43, 246,  87, 190, 235, 226, 254,  63, 111, 240, 117, 191, 177, 191,
#           28, 191]], dtype=torch.uint8)
x.view(torch.uint8).size()
#torch.Size([4,16])
相关推荐
草莓熊Lotso20 分钟前
Linux 文件描述符与重定向实战:从原理到 minishell 实现
android·linux·运维·服务器·数据库·c++·人工智能
Coder_Boy_1 小时前
技术发展的核心规律是「加法打底,减法优化,重构平衡」
人工智能·spring boot·spring·重构
会飞的老朱3 小时前
医药集团数智化转型,智能综合管理平台激活集团管理新效能
大数据·人工智能·oa协同办公
聆风吟º5 小时前
CANN runtime 实战指南:异构计算场景中运行时组件的部署、调优与扩展技巧
人工智能·神经网络·cann·异构计算
Codebee7 小时前
能力中心 (Agent SkillCenter):开启AI技能管理新时代
人工智能
聆风吟º8 小时前
CANN runtime 全链路拆解:AI 异构计算运行时的任务管理与功能适配技术路径
人工智能·深度学习·神经网络·cann
uesowys8 小时前
Apache Spark算法开发指导-One-vs-Rest classifier
人工智能·算法·spark
AI_56788 小时前
AWS EC2新手入门:6步带你从零启动实例
大数据·数据库·人工智能·机器学习·aws
User_芊芊君子8 小时前
CANN大模型推理加速引擎ascend-transformer-boost深度解析:毫秒级响应的Transformer优化方案
人工智能·深度学习·transformer
智驱力人工智能8 小时前
小区高空抛物AI实时预警方案 筑牢社区头顶安全的实践 高空抛物检测 高空抛物监控安装教程 高空抛物误报率优化方案 高空抛物监控案例分享
人工智能·深度学习·opencv·算法·安全·yolo·边缘计算