Tensor 基本操作1 | PyTorch 深度学习实战

目录

创建 Tensor

使用 Torch 接口创建 Tensor

复制代码
import torch

参考:https://pytorch.org/tutorials/beginner/basics/tensorqs_tutorial.html

常用操作

unsqueeze

将多维数组解套,并嵌入新的一层维度。

复制代码
    data = [[1, 2],[3, 4]]
    x_data = torch.tensor(data)
    print("x_data")
    print(x_data)

    x2_data = x_data.unsqueeze(-1)
    print("x_data>> unsqueeze -1")
    print(x2_data)

    x2_data = x_data.unsqueeze(0)
    print("x_data>> unsqueeze 0")
    print(x2_data)

    x2_data = x_data.unsqueeze(1)
    print("x_data>> unsqueeze 1")
    print(x2_data)

    x2_data = x_data.unsqueeze(2)
    print("x_data>> unsqueeze 2")
    print(x2_data)

结果:

复制代码
x_data
tensor([[1, 2],
        [3, 4]])
x_data>> unsqueeze -1   # -1 代表最内层,将最内层的数用一个新的维度包起来
tensor([[[1],
         [2]],

        [[3],
         [4]]])
x_data>> unsqueeze 0 # 0 代表最外层,将原来的多维数组整个多套一层
tensor([[[1, 2],
         [3, 4]]])
x_data>> unsqueeze 1 # 代表原来第一维里的每个元素,套一层
tensor([[[1, 2]],

        [[3, 4]]])
x_data>> unsqueeze 2 # 代表原来第二维里的每个元素,套一层
tensor([[[1],        # 当前一共两维,所以效果和 -1 一样
         [2]],

        [[3],
         [4]]])

squeeze

去掉指定或全部的维度中只有一个元素的多维数组。

比如输入为 Ax1xBxCx1xD 维的数组,输出变成了 AxBxCxD 维的数组。

https://pytorch.org/docs/stable/generated/torch.squeeze.html

复制代码
    data = [[1], [2],[3], [4]]
    x_data = torch.tensor(data)
    print("x_data")
    print(x_data)

    x2_data = x_data.squeeze()
    print("x_data>> squeeze")
    print(x2_data)

    x2_data = x_data.squeeze(1)
    print("x_data>> squeeze 1")
    print(x2_data)

结果:

复制代码
x_data
tensor([[1],
        [2],
        [3],
        [4]])
x_data>> squeeze
tensor([1, 2, 3, 4])
x_data>> squeeze 1
tensor([1, 2, 3, 4])

Softmax

https://pytorch.org/docs/stable/generated/torch.softmax.html

归一化操作。

代码1
复制代码
    data = torch.tensor([1,2,3], dtype=torch.float) # 维度 3; 注意,此处 dtype 是 int 或 long 接口报错
    x_data = torch.softmax(data, 0)
    print("x_data")
    print(x_data)

结果:

复制代码
x_data
tensor([0.0900, 0.2447, 0.6652])  # 维度 3
代码2
复制代码
    data = torch.tensor([[1],[2],[3]], dtype=torch.float) # 维度 3x1
    x_data2 = torch.softmax(data, 0)
    print("x_data2")
    print(x_data2)

结果:

复制代码
x_data2  # 维度 3x1
tensor([[0.0900],
        [0.2447],
        [0.6652]])
代码3
复制代码
    data = torch.tensor([[1],[2],[3]], dtype=torch.float) # 维度 3x1
    x_data2 = torch.softmax(data, 1) # 沿着第一维求
    print("x_data2")
    print(x_data2)

结果:

复制代码
x_data2
tensor([[1.],
        [1.],
        [1.]])

此时,每维都是 1 个元素,针对自身求 softmax,所以,结果是 1.

argmax

https://pytorch.org/docs/stable/generated/torch.argmax.html

返回一个多维数组的最大值的索引,如果是多维数组,则返回第一维的索引。

item

https://pytorch.org/docs/stable/generated/torch.Tensor.item.html

返回一个 Tensor 中携带的 Python Number 对象。该接口只对 Tensor 是一维的有效。

复制代码
x = torch.tensor([1.0])
x.item()
相关推荐
Mintopia9 小时前
OpenClaw 是什么?为什么节后热度如此之高?
人工智能
爱可生开源社区9 小时前
DBA 的未来?八位行业先锋的年度圆桌讨论
人工智能·dba
叁两12 小时前
用opencode打造全自动公众号写作流水线,AI 代笔太香了!
前端·人工智能·agent
前端付豪12 小时前
LangChain记忆:通过Memory记住上次的对话细节
人工智能·python·langchain
strayCat2325512 小时前
Clawdbot 源码解读 7: 扩展机制
人工智能·开源
程序员打怪兽12 小时前
详解Visual Transformer (ViT)网络模型
深度学习
王鑫星12 小时前
SWE-bench 首次突破 80%:Claude Opus 4.5 发布,Anthropic 的野心不止于写代码
人工智能
lnix12 小时前
当“大龙虾”养在本地:我们离“反SaaS”的AI未来还有多远?
人工智能·aigc
泉城老铁12 小时前
Dify知识库如何实现多关键词AND检索?
人工智能