pytorch张量列表索引和多维度张量索引比较

pytorch张量的高级索引取值原理解读

代码:

复制代码
import torch
x = torch.tensor([[10, 20, 30], [40, 50, 60]])
x1 = x[[[0, 1], [1, 0]]]
x2 = x[torch.tensor([[0, 1], [1, 0]])]
print(f"x1:{x1}")
print(f"x2:{x2}")

输出:

复制代码
x1:tensor([20, 40])
x2:tensor([[[10, 20, 30],
         [40, 50, 60]],

        [[40, 50, 60],
         [10, 20, 30]]])

代码解读:

**张量 x**是一个 2x3 的张量:

x1 的取值

复制代码
x1 = x[[[0, 1], [1, 0]]]
  • 索引机制 : 这里的索引 [[0, 1], [1, 0]]高级整数索引

    • 它取的是第 1 维的具体位置。
  • 步骤

    • x[[0, 1], [1, 0]] 等价于以下操作:
      • x[0, 1] -> 20
      • x[1, 0] -> 40

因此:

复制代码
x1 = [20, 40]

注:x[[[0, 1], [1, 0]]] 结果同 x[[0, 1], [1, 0]]

x2 的取值

复制代码
x2 = x[torch.tensor([[0, 1], [1, 0]])]

### 复杂索引,在0维和1维度都取
#x3 = x[torch.tensor([[0, 1], [1, 0]]),torch.tensor([[0, 1], [1, 0]])]
#print(f"x3:{x3}")

#x 3:tensor([[10, 50],
#        [50, 10]])

#print(f"x3.shape:{x3.shape}")   # x3.shape:torch.Size([2, 2])
  • 索引机制 : 这里的索引 torch.tensor([[0, 1], [1, 0]])多维整形张量索引

    • 这种索引会在第 0 维上按张量的形状进行广播
  • 广播行为

    • 索引张量的形状是 (2, 2)
    • PyTorch 会沿第 0 维取出对应的行,并按照索引结果重新排列。
  • 步骤

    • x[0] -> [10, 20, 30]
    • x[1] -> [40, 50, 60]

    根据索引张量 [[0, 1], [1, 0]],结果排列为:

    [[[10, 20, 30], # 对应索引 (0, 0)
    [40, 50, 60]], # 对应索引 (0, 1)

    [[40, 50, 60], # 对应索引 (1, 0)
    [10, 20, 30]]] # 对应索引 (1, 1)

总结:

  • x1 使用的是高级整数索引,按指定的具体位置取值(减少维度)。
  • x2 使用的是多维张量索引,按张量形状广播,生成一个更高维的结果(不减少维度)。
相关推荐
Hyxino3 分钟前
海曦技术高燃“擦边”!擦出AI硬核底气
人工智能
G***技5 分钟前
LM2-100-V0算力模组为新零售为注入“本地智能”
人工智能
美狐美颜sdk5 分钟前
企业级美颜SDK开发全流程:AI算法、渲染链路与性能优化
人工智能·音视频·直播美颜sdk·美颜api
布朗克1688 分钟前
大模型初步介绍:从基本概念到全球排行榜
人工智能·大模型·llm
方向研究9 分钟前
规模因子策略
人工智能
陆业聪9 分钟前
架构哲学与工程化:从开发体验到CI/CD的全维度对比|跨平台框架深度对决(三)
人工智能·aigc
朝新_12 分钟前
【LangChain】少样本提示(few-shorting) 大模型 Few-Shot 提示工程:四大 Example Selector应用
java·人工智能·自然语言处理·langchain
Soonyang Zhang13 分钟前
vllm分析(二)——http request的入口处理
人工智能·vllm·推理框架
风儿吟13 分钟前
【论文速递】【高被引论文】ECG-ADGAN:基于时序生成对抗网络的心电异常检测新范式,多项指标超越现有SOTA。
人工智能·神经网络·生成对抗网络
Vol火山14 分钟前
灵魂的躯体:论企业架构(EA)与 Palantir 本体论在 AI 时代的深度融合
人工智能·架构