Pytorch如何指定device(cuda or cpu)例子解析

代码示例:

在PyTorch中,指定设备(CPU或CUDA)是一个非常重要的步骤,特别是当你在进行深度学习训练时。以下是一些指定设备的详细例子:

  1. 检查CUDA是否可用 :

    首先,你需要检查你的机器是否支持CUDA,并且PyTorch是否能够使用CUDA。

    python 复制代码
    import torch
    if torch.cuda.is_available():
        print("CUDA is available. Using GPU.")
    else:
        print("CUDA is not available. Using CPU.")
  2. 设置默认设备 :

    你可以设置PyTorch的默认设备,这样所有的张量和模型都会默认使用这个设备。

    python 复制代码
    device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
  3. 创建张量并指定设备 :

    当你创建张量时,可以指定它们应该在哪个设备上。

    python 复制代码
    # 创建一个在CPU上的张量
    x_cpu = torch.tensor([1., 2., 3.], device='cpu')
    
    # 创建一个在GPU上的张量
    x_gpu = torch.tensor([1., 2., 3.], device=device)
  4. 将张量移动到指定设备 :

    如果张量已经创建,你可以使用.to().cuda()方法将其移动到指定的设备。

    python 复制代码
    # 将张量移动到GPU
    x_gpu = x_cpu.to(device)
    
    # 如果你知道你的设备是GPU,也可以使用.cuda()
    if torch.cuda.is_available():
        x_gpu = x_cpu.cuda()
  5. 指定模型的设备 :

    当你定义模型时,可以将其放置在指定的设备上。

    python 复制代码
    model = MyModel().to(device)
  6. 在训练循环中使用设备 :

    在训练循环中,你需要确保模型的输入数据和目标也在正确的设备上。

    python 复制代码
    for data, target in dataloader:
        data, target = data.to(device), target.to(device)
    
        output = model(data)
        loss = criterion(output, target)
        loss.backward()
        optimizer.step()
        optimizer.zero_grad()
  7. 保存和加载模型时指定设备 :

    当你保存或加载模型时,确保模型在正确的设备上。

    python 复制代码
    # 保存模型
    torch.save(model.state_dict(), "model.pth")
    
    # 加载模型
    model = MyModel()
    model.load_state_dict(torch.load("model.pth", map_location=device))
    model.to(device)

请注意,当你在GPU上训练时,所有的输入数据、目标、模型参数等都应该在GPU上。这样可以确保计算是在GPU上进行的,从而提高训练速度。如果你的机器有多个GPU,你还可以指定使用特定的GPU,例如:

python 复制代码
device = torch.device("cuda:0")  # 使用第一个GPU

以上就是在PyTorch中指定设备的一些基本方法和例子。

喜欢本文,请点赞、收藏和关注!

相关推荐
程序员泠零澪回家种桔子几秒前
Spring AI框架全方位详解
java·人工智能·后端·spring·ai·架构
Echo_NGC22373 分钟前
【FFmpeg 使用指南】Part 3:码率控制策略与质量评估体系
人工智能·ffmpeg·视频·码率
纤纡.13 分钟前
PyTorch 入门精讲:从框架选择到 MNIST 手写数字识别实战
人工智能·pytorch·python
大大大反派14 分钟前
CANN 生态中的自动化部署引擎:深入 `mindx-sdk` 项目构建端到端 AI 应用
运维·人工智能·自动化
程序猿追15 分钟前
深度解读 AIR (AI Runtime):揭秘 CANN 极致算力编排与调度的核心引擎
人工智能
2601_9495936520 分钟前
深入解析CANN-acl应用层接口:构建高效的AI应用开发框架
数据库·人工智能
●VON22 分钟前
CANN安全与隐私:从模型加固到数据合规的全栈防护实战
人工智能·安全
kjkdd25 分钟前
6.1 核心组件(Agent)
python·ai·语言模型·langchain·ai编程
刘大大Leo28 分钟前
GPT-5.3-Codex 炸了:第一个「自己造自己」的 AI 编程模型,到底意味着什么?
人工智能·gpt
小镇敲码人31 分钟前
剖析CANN框架中Samples仓库:从示例到实战的AI开发指南
c++·人工智能·python·华为·acl·cann