深度学习02-pytorch-06-张量的形状操作

在 PyTorch 中,张量的形状操作是非常重要的,可以让你灵活地调整和处理张量的维度和数据结构。以下是一些常用的张量形状函数及其用法,带有详细解释和举例说明:

1. reshape()

功能: 改变张量的形状,但不改变数据的顺序。

语法 : tensor.reshape(*shape)

示例:

python 复制代码
import torch
x = torch.tensor([[1, 2, 3], [4, 5, 6]])
x_reshaped = x.reshape(3, 2)
print(x_reshaped)

输出:

复制代码
tensor([[1, 2],
      [3, 4],
      [5, 6]])

在这个例子中,张量 x 被从形状 (2, 3) 重塑为 (3, 2)

2. squeeze()

功能 : 去除张量中大小为1的维度(例如,形状是 (1, 3, 1) 会变成 (3))。

语法 : tensor.squeeze(dim=None)

示例:

python 复制代码
x = torch.tensor([[[1, 2, 3]]])  # shape: (1, 1, 3)
x_squeezed = x.squeeze()
print(x_squeezed)

输出:

复制代码
tensor([1, 2, 3])

在这个例子中,squeeze() 去除了前两个大小为1的维度。

3. unsqueeze()

功能: 在指定的维度插入大小为1的新维度。

语法 : tensor.unsqueeze(dim)

示例:

python 复制代码
x = torch.tensor([1, 2, 3])  # shape: (3,)
x_unsqueezed = x.unsqueeze(0)  # 插入新的0维
print(x_unsqueezed.shape)  # 输出: torch.Size([1, 3])

在这个例子中,

unsqueeze(0) 在第0个维度插入一个新的大小为1的维度,将形状从 (3,) 变成 (1, 3)

4. transpose()

功能: 交换张量的两个维度。

语法 : tensor.transpose(dim0, dim1)

示例:

python 复制代码
x = torch.tensor([[1, 2, 3], [4, 5, 6]])  # shape: (2, 3)
x_transposed = x.transpose(0, 1)
print(x_transposed)

输出:

复制代码
tensor([[1, 4],
      [2, 5],
      [3, 6]])

在这个例子中,transpose(0, 1) 交换了维度0和维度1,使张量的形状从 (2, 3) 变成 (3, 2)

5. permute()

功能: 改变张量的维度顺序,允许对多个维度进行交换。

语法 : tensor.permute(*dims)

示例:

python 复制代码
x = torch.randn(2, 3, 5)  # shape: (2, 3, 5)
x_permuted = x.permute(2, 0, 1)
print(x_permuted.shape)  # 输出: torch.Size([5, 2, 3])

在这个例子中,permute(2, 0, 1) 重新排列了维度顺序,

使得形状从 (2, 3, 5) 变为 (5, 2, 3)

6. view()

功能 : 类似于 reshape(),但是 view() 需要张量在内存中是连续的。

语法 : tensor.view(*shape)

示例:

python 复制代码
x = torch.tensor([[1, 2, 3], [4, 5, 6]])
x_viewed = x.view(3, 2)
print(x_viewed)

输出:

复制代码
tensor([[1, 2],
      [3, 4],
      [5, 6]])

view() 的使用需要张量是连续的,否则会报错。

关于连续性,可以结合 contiguous() 使用。

7. contiguous()

功能: 将非连续的张量转换为在内存中连续存储的张量。

语法 : tensor.contiguous()

示例:

python 复制代码
x = torch.randn(2, 3, 5)
x_permuted = x.permute(2, 0, 1)  # 这使得张量不再连续
x_contiguous = x_permuted.contiguous().view(5, 6)  # 转换为连续后再进行view操作
print(x_contiguous.shape)

permute() 操作后的张量不一定是连续的,因此需要 contiguous() 来保证可以使用 view()

8. expand()repeat()

功能: 扩展张量到更高的维度。

  • expand() 只是广播,不复制内存。

  • repeat() 会实际复制数据。

示例:

python 复制代码
x = torch.tensor([1, 2, 3])
x_expanded = x.expand(3, 3)  # 广播
x_repeated = x.repeat(3, 1)  # 重复数据
print(x_expanded)
print(x_repeated)

输出:

复制代码
tensor([[1, 2, 3],
      [1, 2, 3],
      [1, 2, 3]])
​
tensor([[1, 2, 3],
      [1, 2, 3],
      [1, 2, 3]])

区别在于 expand() 不会占用更多内存,而 repeat() 会真正复制数据。

总结

上述这些张量操作函数在处理多维数据时非常有用,能够灵活地调整和转换张量的形状,以便进行各种操作和模型设计。

相关推荐
garrulousabyss14 分钟前
机器学习查漏补缺(3)
人工智能·机器学习
xuehaishijue15 分钟前
村落检测系统源码分享
人工智能·计算机视觉·目标跟踪
Linux猿1 小时前
828华为云征文 | 云服务器Flexus X实例:RAG 开源项目 FastGPT 部署,玩转大模型
服务器·人工智能·机器学习·华为云·fastgpt·flexus云服务器x实例·华为云服务器
Luo_LA2 小时前
Chat2VIS: Generating Data Visualizations via Natural Language
论文阅读·人工智能·信息可视化·chatgpt
yixiaai_com2 小时前
亲测好用,ChatGPT 3.5/4.0新手使用手册,最好论文指令手册~
人工智能·gpt·chatgpt·ai编程·ai写作
FL16238631292 小时前
[数据集][目标检测]文本表格检测数据集VOC+YOLO格式6688张5类别
深度学习·yolo·目标检测
达柳斯·绍达华·宁2 小时前
感知算法引入时序模型的优势
深度学习·算法·卷积神经网络
时髦的琉璃682 小时前
HumanNeRF:Free-viewpoint Rendering of Moving People from Monocular Video 精读
人工智能·算法
阿利同学2 小时前
即插即用 | YOLOv8热力图可视化方法详解
人工智能·yolo·计算机视觉·信息可视化·热力图·卷积可视化
cv2016_DL3 小时前
YOLOv8模型ONNX格式INT8量化轻松搞定
人工智能·yolo