pytorch将数据与模型都放到GPU上训练

默认是CPU,如果想要用GPU需要:

  1. 安装配置cuda,然后更新/下载支持gpu版本的pytorch,可以参考:https://blog.csdn.net/weixin_35757704/article/details/124315569

  2. 设置device:

    py 复制代码
    device = torch.device('cuda' if torch.cuda.is_available else 'cpu')

    然后将数据与模型后面都额外加上.to(device)即可

示例程序

py 复制代码
import torch
import torch.nn as nn


# 一个简单的模型
class LinearRegressionModel(nn.Module):
    def __init__(self, input_shape, output_shape):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_shape, output_shape)

    def forward(self, x):
        out = self.linear(x)
        return out


def main():
    x_train = torch.randn(100, 4)  # 生成训练特征
    y_train = torch.randn(100, 1)  # 生成label
    model = LinearRegressionModel(x_train.shape[1], 1)
    optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  # 优化函数
    criterion = nn.MSELoss()  # 损失函数
    for epoch in range(100):
        optimizer.zero_grad()
        outputs = model(x_train)
        loss = criterion(outputs, y_train)
        loss.backward()
        optimizer.step()


if __name__ == '__main__':
    main()

修改为GPU版本:

py 复制代码
import torch
import torch.nn as nn


# 一个简单的模型
class LinearRegressionModel(nn.Module):
    def __init__(self, input_shape, output_shape):
        super(LinearRegressionModel, self).__init__()
        self.linear = nn.Linear(input_shape, output_shape)

    def forward(self, x):
        out = self.linear(x)
        return out


def main():
    # 1. 设置device
    device = torch.device('cuda' if torch.cuda.is_available else 'cpu')
    # 2. 数据与模型后都加 .to(device) 即可
    x_train = torch.randn(100, 4).to(device)  # 生成训练特征
    y_train = torch.randn(100, 1).to(device)  # 生成label
    model = LinearRegressionModel(x_train.shape[1], 1).to(device)  # next(transformer.parameters()).device

    optimizer = torch.optim.SGD(model.parameters(), lr=0.01)  # 优化函数
    criterion = nn.MSELoss()  # 损失函数
    for epoch in range(100):
        optimizer.zero_grad()
        outputs = model(x_train)
        loss = criterion(outputs, y_train)
        loss.backward()
        optimizer.step()


if __name__ == '__main__':
    main()

修改后:

  1. 查看变量的位置:可以使用x_train.device查看tensor变量的位置
  2. 查看模型的位置:可以使用next(model.parameters()).device查看模型的位置

注意:不在同一个位置上的变量之间无法计算,模型无法使用不在同一个位置的数据

相关推荐
l12345sy11 小时前
Day24_【深度学习—广播机制】
人工智能·pytorch·深度学习·广播机制
蒋星熠1 天前
如何在Anaconda中配置你的CUDA & Pytorch & cuNN环境(2025最新教程)
开发语言·人工智能·pytorch·python·深度学习·机器学习·ai
weiwei228441 天前
Torch核心数据结构Tensor(张量)
pytorch·tensor
wL魔法师1 天前
【LLM】大模型训练中的稳定性问题
人工智能·pytorch·深度学习·llm
技术小黑2 天前
Transformer系列 | Pytorch复现Transformer
pytorch·深度学习·transformer
DogDaoDao2 天前
神经网络稀疏化设计构架方法和原理深度解析
人工智能·pytorch·深度学习·神经网络·大模型·剪枝·网络稀疏
西猫雷婶2 天前
pytorch基本运算-Python控制流梯度运算
人工智能·pytorch·python·深度学习·神经网络·机器学习
ACEEE12222 天前
Stanford CS336 | Assignment 2 - FlashAttention-v2 Pytorch & Triotn实现
人工智能·pytorch·python·深度学习·机器学习·nlp·transformer
深耕AI3 天前
【PyTorch训练】准确率计算(代码片段拆解)
人工智能·pytorch·python
nuczzz3 天前
pytorch非线性回归
人工智能·pytorch·机器学习·ai