【pytorch】reshape的使用

torch.reshape 是 PyTorch 中用于改变张量形状的函数。它的作用是重新安排张量的维度,使其符合指定的形状,但不会改变数据的顺序。

Returns a tensor with the same data and number of elements as input, but with the specified shape.

基本语法

python 复制代码
input_reshape = torch.reshape(input, shape)

或者:

python 复制代码
input_reshape = input.reshape(shape)
  • input(tensor):输入张量。
  • shape(tuple of int):目标形状,可以是一个整数或一个整数元组,表示张量的新维度。

例子

python 复制代码
import torch

# 创建一个形状为 (4, 3) 的张量
x = torch.arange(12).reshape(4, 3)
print(x)

输出:

复制代码
tensor([[ 0,  1,  2],
        [ 3,  4,  5],
        [ 6,  7,  8],
        [ 9, 10, 11]])

你可以将这个张量重新调整成其他形状,比如将它变成一个 (2, 6) 的张量:

python 复制代码
y = x.reshape(2, 6)
print(y)

输出:

复制代码
tensor([[ 0,  1,  2,  3,  4,  5],
        [ 6,  7,  8,  9, 10, 11]])

特别的用法

使用 1 自动推算维度

如果你不确定某个维度应该是多少,可以使用 -1 来自动推算。例如,如果你只知道张量的总元素数和某些维度,可以让 PyTorch 自动计算某个维度。

A single dimension may be -1, in which case it's inferred from the remaining dimensions and the number of elements in input.

python 复制代码
z = x.reshape(2, -1)  # PyTorch 会自动推算第二维度的大小
print(z)

输出:

复制代码
tensor([[ 0,  1,  2,  3,  4,  5],
        [ 6,  7,  8,  9, 10, 11]])

torch.reshape(x, (-1,)) 将张量 展平成一维 (即向量)等效于 x.flatten()

  • 此时 PyTorch 会自动计算该维度的大小,计算公式为:

    新维度大小 = 原始张量的总元素数

  • 因为要展成向量,所以只有一个维度(表示有多少个数),所以只需要一个-1,后面空着就行

    • 所以其实也可以写成 (-1),即torch.reshape(x, (-1))推荐保留逗号

注意:这跟 (1,-1)有区别 ,(-1,)是展平成一维向量,

而(1,-1)是1*n,这被视作二维的(一个维度是1个数,另一个维度是n个数)

例子:

python 复制代码
x = torch.tensor([[0, 1],
                  [2, 3]])

x_vec = x.reshape(-1,)
print(x_vec)

x_matrix = x.reshape(1,-1)
print(x_matrix)

输出:

python 复制代码
tensor([0, 1, 2, 3])
tensor([[0, 1, 2, 3]])
  • 总元素数2 × 2 = 4

  • 执行 torch.reshape(x, (-1,)) 后:

    → 新形状为 (4,)

    → 结果:tensor([0, 1, 2, 3])

  • 执行 torch.reshape(x, (1,-1)) 后:

    → 新形状为 (1,4)

    → 结果:tensor([[0, 1, 2, 3]])

注意事项

保持元素数量一致

使用 reshape 时,新形状的元素数量必须和原形状一致。例如,原来是 (4, 3),总共有 12 个元素,不能reshape成 (3, 5) 因为会丢失元素。

python 复制代码
# 错误的 reshape
# x.reshape(3, 5)  # 会抛出错误,无法reshape

总之,要接收返回的tensor

  • reshape 不会修改原始张量,它会返回一个新的张量,除非原张量已经在内存中是以连续的方式存储。

When possible, the returned tensor will be a view of input. Otherwise, it will be a copy. Contiguous inputs and inputs with compatible strides can be reshaped without copying, but you should not depend on the copying vs. viewing behavior.

  • 如果原张量的内存布局不连续,reshape 会返回一个新的内存副本。
  • torch.viewtorch.reshape 在功能上相似,但 torch.view 要求张量是连续的,而 torch.reshape 会自动处理不连续的张量。
相关推荐
萧鼎22 分钟前
Python pyzmq 库详解:从入门到高性能分布式通信
开发语言·分布式·python
yujkss1 小时前
Python脚本每天爬取微博热搜-终版
开发语言·python
yzx9910131 小时前
小程序开发APP
开发语言·人工智能·python·yolo
飞翔的佩奇2 小时前
【完整源码+数据集+部署教程】二维码与查找模式检测系统源码和数据集:改进yolo11-CSwinTransformer
python·yolo·计算机视觉·数据集·yolo11·二维码与查找模式检测
大霞上仙2 小时前
实现自学习系统,输入excel文件,能学习后进行相应回答
python·学习·excel
无规则ai2 小时前
动手学深度学习(pytorch版):第四章节—多层感知机(5)权重衰减
人工智能·pytorch·python·深度学习
你知道网上冲浪吗3 小时前
【原创理论】Stochastic Coupled Dyadic System (SCDS):一个用于两性关系动力学建模的随机耦合系统框架
python·算法·数学建模·数值分析
钢铁男儿3 小时前
Python 正则表达式核心元字符全解析
python
杨荧4 小时前
基于Python的宠物服务管理系统 Python+Django+Vue.js
大数据·前端·vue.js·爬虫·python·信息可视化