深度学习2-PyTorch基础-张量

PyTorch 基础

PyTorch 是一个开源的深度学习框架,以其灵活性和动态计算图而广受欢迎。

PyTorch 主要有以下几个基础概念:张量(Tensor)、自动求导(Autograd)、神经网络模块(nn.Module)、优化器(optim)等。

张量

张量(Tensor)是PyTorch中的核心数据结构,用于存储和操作多维数组。

它可以视为一个多维数组,支持加速计算机的操作。

在PyTorch中,张量的概念类似于Numpy中的数组,但是PyTorch的张量可以运行在不同的设备上,比如CPU和GPU,这使得它非常适合于进行大规模并行计算,特别是在深度学习领域。

常见的张量操作如下:

复制代码
import torch
# 创建张量,和matlab一致
a = torch.zeros(3,4)
print(a)
b = torch.ones(3,4)
print(b)
c = torch.randn(3,4)
print(c)

# 从numpy数组创建张量
import numpy as np
numpy_array = np.array([[1, 2],[3, 4]])
tensor_from_numpy = torch.from_numpy(numpy_array)
print(tensor_from_numpy)

# 在指定设备上(CPU/GPU)上创建张量
d = torch.device("cuda:0" if torch.cuda.is_available() else "cpu")
print(d)
dd = torch.randn(2,3,device = d)
print(dd)

numpy变为张量

复制代码
import numpy as np
# 生成numpy数组
a = np.arange(1,6,1)
print(a)
b = np.linspace(1,6,6)
print(b)

import torch
c = torch.arange(1,6,1)
print(c)

#将numpy的数组转为tensor
d = torch.from_numpy(a)
print(d)

torch.from_numpy()可以将numpy数组变为张量。

直接由数组创建张量

复制代码
e = torch.tensor([1,2,3,4,5])

tensor张量的形状

复制代码
f = torch.tensor([[1, 2, 3],[4,5,6]])
print(f)
print(f.size())

打印出来是

复制代码
tensor([[1, 2, 3],
        [4, 5, 6]])
torch.Size([2, 3])

可见,[1,2,3]代表的是行向量,[1,2,3]之后的逗号,是指下一个行向量往下一行放置。因此,它是2行,3列。

张量转置

复制代码
f = torch.tensor([[1, 2, 3],[4,5,6]])
print(f)
print(f.size())

g = f.T
print(g)

.T表示转置。

单元素的张量转变为python标量

\ 复制代码
single_value = torch.tensor(12.3) #.item()是将Pytorch张量转换为Python标量的方法,只能用于单元素张量
print(f"Single Element,{single_value.item():.4f}") #保留4位小数,进行格式化输出

loss = torch.tensor(0.7543)

# 需要将损失值记录到日志或打印
print(f"Loss: {loss.item():.4f}")  # Loss: 0.7543

# 或者用于条件判断
if loss.item() < 1.1:
    print("损失已足够小!")

这里的.item()就是将一个张量变为了python标量。比如我输入以下代码:

复制代码
print(type(loss.item()))

f = 0.5
print(type(f))

输出为:

复制代码
<class 'float'>
<class 'float'>

这表示两个都是浮点数类型。

张量的各种操作

复制代码
# 创建一个2D张量
a = torch.tensor([[1,2,3],[4,5,6]],dtype=torch.float)
# 张量的属性
print("Tensor:\n",a)
print("Shape:",a.shape)                 #获取形状
print("Size:",a.size())                 #获取形状的另一种方法
print("Data Type:",a.dtype)             #数据类型
print("Device:",a.device)               #设备
print("Dimensions:",a.dim())            #维度数
print("Total Element:",a.numel())       #元素总数
print("Requires Grad:",a.retains_grad)  #是否启用梯度
print("Is CUDA:",a.is_cuda)             #是否再GPU上
print("Is contiguous:",a.contiguous())  #是否连续存储
# 获取某个元素指

single_value = torch.tensor(12.3) #.item()是将Pytorch张量转换为Python标量的方法,只能用于单元素张量
print(f"Single Element,{single_value.item():.4f}") #保留4位小数,进行格式化输出
```
相关推荐
星浩AI15 分钟前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?
人工智能·agent
树獭非懒40 分钟前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能
阿尔的代码屋43 分钟前
[大模型实战 07] 基于 LlamaIndex ReAct 框架手搓全自动博客监控 Agent
人工智能·python
小小小怪兽1 小时前
🔨聊一聊Skills
人工智能·agent
穿过生命散发芬芳1 小时前
OpenClaw:开启OpenCloudOS 操作系统智能运维初体验
人工智能·aigc
老金带你玩AI1 小时前
Claude Code自动记忆来了!配合老金三层记忆系统全开源!加强Plus!
人工智能
Halo咯咯1 小时前
无限免费 OpenClaw:接入本地模型后,你的 AI Agent 就可以 24 小时自动干活(Mac Mini 可用)
人工智能
NAGNIP13 小时前
一文搞懂深度学习中的通用逼近定理!
人工智能·算法·面试
冬奇Lab14 小时前
一天一个开源项目(第36篇):EverMemOS - 跨 LLM 与平台的长时记忆 OS,让 Agent 会记忆更会推理
人工智能·开源·资讯
冬奇Lab14 小时前
OpenClaw 源码深度解析(一):Gateway——为什么需要一个"中枢"
人工智能·开源·源码阅读