pytorch中一些最基本函数和类

1.Tensor操作

Tensor是PyTorch中最基本的数据结构,类似于NumPy的数组,但可以在GPU上运行加速计算。

示例:创建和操作Tensor

python 复制代码
import torch

# 创建一个零填充的Tensor
x = torch.zeros(3, 3)
print(x)

# 加法操作
y = torch.ones(3, 3)
z = x + y
print(z)

# 在GPU上创建Tensor
device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
x = torch.zeros(3, 3, device=device)
print(x)
运行结果:

2. nn.Module和自定义模型

nn.Module是PyTorch中定义神经网络模型的基类,所有的自定义模型都应该继承自它。

示例:定义一个简单的全连接神经网络模型

python 复制代码
import torch
import torch.nn as nn

# 自定义模型类
class SimpleNet(nn.Module):
    def __init__(self):
        super(SimpleNet, self).__init__()
        self.fc = nn.Linear(10, 5)  # 线性层:输入维度为10,输出维度为5
        
    def forward(self, x):
        x = self.fc(x)
        return x

# 创建模型实例
model = SimpleNet()
print(model)
运行结果:

3. DataLoader和Dataset

DataLoader用于批量加载数据,Dataset定义了数据集的接口,自定义数据集需继承自它。

示例:加载自定义数据集

python 复制代码
import torch
from torch.utils.data import Dataset, DataLoader

# 自定义数据集类
class CustomDataset(Dataset):
    def __init__(self, data, targets):
        self.data = data
        self.targets = targets
        
    def __len__(self):
        return len(self.data)
    
    def __getitem__(self, index):
        x = self.data[index]
        y = self.targets[index]
        return x, y

# 假设有一些数据和标签
data = torch.randn(100, 10)  # 100个样本,每个样本10维
targets = torch.randint(0, 2, (100,))  # 100个随机标签,0或1

# 创建数据集实例
dataset = CustomDataset(data, targets)

# 创建数据加载器
batch_size = 10
dataloader = DataLoader(dataset, batch_size=batch_size, shuffle=True)

# 打印一个batch的数据
for batch in dataloader:
    inputs, labels = batch
    print(inputs.shape, labels.shape)
    break
运行结果:

4. 优化器和损失函数

优化器用于更新模型参数以减少损失,损失函数用于计算预测值与实际值之间的差异。

示例:使用优化器和损失函数

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim

# 定义模型(假设已定义好)
model = SimpleNet()

# 定义损失函数
criterion = nn.CrossEntropyLoss()

# 定义优化器
optimizer = optim.Adam(model.parameters(), lr=0.001)

# 前向传播、损失计算、反向传播和优化过程请参考前面完整示例的训练循环部分。
运行结果:

5. nn.functional中的函数

nn.functional提供了各种用于构建神经网络的函数,如激活函数、池化操作等。

示例:使用ReLU激活函数

python 复制代码
import torch
import torch.nn.functional as F

# 创建一个Tensor
x = torch.randn(3, 3)

# 使用ReLU激活函数
output = F.relu(x)
print(output)
运行结果:
相关推荐
解救女汉子2 分钟前
SQL触发器如何获取触发源应用名_利用APP_NAME函数追踪
jvm·数据库·python
叶子Talk21 分钟前
GPT-Image-2正式发布:文字渲染99%,Image Arena三项第一,AI图像生成彻底变天了
人工智能·gpt·计算机视觉·ai·openai·图像生成·gpt-image-2
不知名的老吴23 分钟前
逆转训练针对大语言模型逆转训练的重要性
人工智能·深度学习·语言模型
pingao14137825 分钟前
智联未来:4G温湿度传感器如何重塑数据监测新生.态
大数据·网络·人工智能
Thanwind37 分钟前
从0开始的机器学习之旅(二):监督学习,从线性回归说起
学习·机器学习·线性回归
程序媛小鱼41 分钟前
《All in RAG》学习笔记
人工智能
菜鸟‍41 分钟前
【CVPR 2026】LitePT:更轻、更强的点云 Transformer【论文学习】
深度学习·学习·transformer
weixin_446260851 小时前
2026年IT技术趋势预测:从AIGC的狂热到Agent生态的底层重塑
人工智能·aigc
LaughingZhu1 小时前
Product Hunt 每日热榜 | 2026-04-24
人工智能·经验分享·深度学习·神经网络·产品运营
AI医影跨模态组学1 小时前
如何将CT影像组学与深度学习特征与肝细胞癌的缺氧-免疫抑制-代谢重编程恶性微环境关联,进一步解释与TACE预后及肿瘤生物学行为的机制联系
人工智能·深度学习·论文·医学·医学影像