深度学习02-pytorch-02-张量的拼接操作

在 PyTorch 中,张量的拼接操作可以通过以下几种主要方法来实现,最常用的包括 torch.cat(), torch.stack(), 以及 torch.chunk()。这些操作可以将多个张量沿某个维度拼接在一起或拆分张量。下面将详细介绍如何使用这些操作。

1. torch.cat()

torch.cat() 是最常用的拼接函数,它沿着指定维度将张量拼接在一起。需要确保拼接时除拼接维度外的其他维度大小相同。

python 复制代码
import torch
​
# 定义两个形状为 (2, 3) 的张量
tensor1 = torch.randn(2, 3)
tensor2 = torch.randn(2, 3)
​
# 沿着维度 0 进行拼接 (行方向)
concat_tensor = torch.cat((tensor1, tensor2), dim=0)
print(concat_tensor.size())  # 输出: torch.Size([4, 3])
​
# 沿着维度 1 进行拼接 (列方向)
concat_tensor = torch.cat((tensor1, tensor2), dim=1)
print(concat_tensor.size())  # 输出: torch.Size([2, 6])

注意:在使用 torch.cat() 时,拼接的张量在除拼接维度外的其他维度必须相同。

2. torch.stack()

torch.stack() 会在新的维度上将多个张量堆叠在一起,返回的张量维度会比输入张量多一维。

python 复制代码
# 定义两个形状为 (2, 3) 的张量
tensor1 = torch.randn(2, 3)
tensor2 = torch.randn(2, 3)
​
# 在维度 0 进行堆叠
stacked_tensor = torch.stack((tensor1, tensor2), dim=0)
print(stacked_tensor.size())  # 输出: torch.Size([2, 2, 3])
​
# 在维度 1 进行堆叠
stacked_tensor = torch.stack((tensor1, tensor2), dim=1)
print(stacked_tensor.size())  # 输出: torch.Size([2, 2, 3])

cat() 不同,stack() 会增加一个新的维度。

3. torch.chunk()

torch.chunk() 将张量按指定的数量切分成多个张量。

python 复制代码
tensor = torch.randn(4, 6)  # 形状为 (4, 6)
​
# 将张量沿着第 1 维切分成 2 份
chunks = torch.chunk(tensor, 2, dim=1)
for chunk in chunks:
   print(chunk.size())  # 输出两个 (4, 3) 的张量

4. torch.split()

torch.split() 按照指定的大小切分张量。

python 复制代码
tensor = torch.randn(4, 6)
​
# 将张量沿着第 1 维,按照每块大小为 2 切分
splits = torch.split(tensor, 2, dim=1)
for split in splits:
   print(split.size())  # 输出三个 (4, 2) 的张量

5. torch.hstack()torch.vstack()

这些函数分别是 torch.cat() 在水平方向(列方向)和垂直方向(行方向)的简便形式。

python 复制代码
# 水平堆叠
hstacked_tensor = torch.hstack((tensor1, tensor2))
print(hstacked_tensor.size())  # 输出: torch.Size([2, 6])
​
# 垂直堆叠
vstacked_tensor = torch.vstack((tensor1, tensor2))
print(vstacked_tensor.size())  # 输出: torch.Size([4, 3])

总结:

  • torch.cat():沿某一维度拼接张量。

  • torch.stack():在新维度上堆叠张量。

  • torch.chunk():按指定份数拆分张量。

  • torch.split():按指定大小拆分张量。

  • torch.hstack() / torch.vstack():简便的横向和纵向拼接方法。

根据不同的场景选择合适的拼接或拆分方式。

torch.cat(), torch.stack(), torch.hstack(), torch.vstack() 等函数都可以用于拼接多个张量。它们的功能稍有不同,主要是在拼接的方式和增加新维度上有所差别:

  1. torch.cat(): 沿着现有维度拼接多个张量,不会增加新的维度。

    • 适合需要在某个维度上连接多个张量的情况。
  2. torch.stack(): 在指定的维度上增加一个新维度,然后堆叠张量。

    • 适合需要在新维度上堆叠多个张量的情况。
  3. torch.hstack() : 沿水平方向(列方向)拼接多个张量,本质上是 torch.cat()dim=1 的简写。

    • 适合将张量沿列方向拼接。
  4. torch.vstack() : 沿垂直方向(行方向)拼接多个张量,本质上是 torch.cat()dim=0 的简写。

    • 适合将张量沿行方向拼接。

这些函数都可以用于拼接多个张量,不过需要注意的是,拼接时要确保除拼接维度以外,其他维度大小相同。例如,使用 torch.cat() 沿维度 0 拼接时,所有张量的列数需要相同。

相关推荐
聆风吟º11 分钟前
CANN hccl 深度解析:异构计算集群通信库的跨节点通信与资源管控实现逻辑
人工智能·wpf·transformer·cann
张3蜂12 分钟前
深入理解 Python 的 frozenset:为什么要有“不可变集合”?
前端·python·spring
狸奴算君17 分钟前
告别机械回复:三步微调AI模型,打造会“读心”的智能客服
人工智能
七夜zippoe19 分钟前
脉向AI|当豆包手机遭遇“全网封杀“:GUI Agent是通向AGI的必经之路吗?
人工智能·ai·智能手机·agent·gui
木非哲20 分钟前
机器学习--随机森林--从一棵树的直觉到一片林的哲学
人工智能·随机森林·机器学习
神的泪水23 分钟前
CANN 系列底层篇:基于 shmem 实现 NPU 设备内存的高效共享
人工智能
皮卡丘不断更25 分钟前
手搓本地 RAG:我用 Python 和 Spring Boot 给 AI 装上了“实时代码监控”
人工智能·spring boot·python·ai编程
浪子小院35 分钟前
ModelEngine 智能体全流程开发实战:从 0 到 1 搭建多协作办公助手
大数据·人工智能
程序员打怪兽39 分钟前
详解YOLOv8网络结构
人工智能·深度学习
Yuer202539 分钟前
全国首例“AI 幻觉”侵权案判了:这不是 AI 准不准的问题,而是谁该为 AI 负责
人工智能·edca os·可控ai