PyTorch 2.0 中设置默认使用 GPU 的方法

PyTorch 2.0 中设置默认使用 GPU 的方法

在 PyTorch 2.0 中,默认情况下仍然是使用 CPU 进行计算,除非明确指定使用 GPU。torch.set_default_device 是 PyTorch 2.0 引入的新功能,用于设置默认设备,使得所有后续张量和模块在没有明确指定设备的情况下,会被创建在这个默认设备上。这在代码中提供了一种更简洁的方式来指定设备,而无需在每次创建张量或模型时手动指定。

  1. 检查 PyTorch 版本

    确保使用的是 PyTorch 2.0 或更高版本:

    python 复制代码
    import torch
    print(torch.__version__)  # 必须是 2.0 或更高版本
  2. 检查 CUDA 是否可用

    在设置 GPU 为默认设备之前,确认 CUDA 可用性:

    python 复制代码
    print(torch.cuda.is_available())  # True 表示可用
  3. 设置默认设备为 GPU

    使用 torch.set_default_device 将默认设备设置为 GPU:

    python 复制代码
    import torch
    
    # 确保 CUDA 可用
    if torch.cuda.is_available():
        # 设置默认设备为 GPU
        torch.set_default_device('cuda')
        print("默认设备已设置为 GPU")
    else:
        print("CUDA 不可用,无法设置 GPU 为默认设备")
  4. 验证默认设备设置

    创建一个张量,验证其是否在 GPU 上:

    python 复制代码
    x = torch.tensor([1.0, 2.0, 3.0])
    print(x.device)  # 输出:cuda:0
  5. 模型自动加载到 GPU

    如果设置了默认设备,模型的参数和新建的张量会自动加载到 GPU:

    python 复制代码
    class MyModel(torch.nn.Module):
        def __init__(self):
            super().__init__()
            self.linear = torch.nn.Linear(10, 1)
    
        def forward(self, x):
            return self.linear(x)
    
    model = MyModel()
    print(next(model.parameters()).device)  # 输出:cuda:0
全局设置代码示例

以下代码展示如何在脚本中全局设置默认设备为 GPU:

python 复制代码
import torch

# 检查并设置默认设备
if torch.cuda.is_available():
    torch.set_default_device('cuda')
    print("默认设备已设置为 GPU")
else:
    raise RuntimeError("CUDA 不可用,请检查环境配置")

# 示例:自动使用 GPU 创建张量
x = torch.tensor([1.0, 2.0, 3.0])
print(f"x device: {x.device}")  # 输出:cuda:0

# 示例:自动将模型参数放到 GPU
model = torch.nn.Linear(5, 2)
print(f"Model parameters device: {next(model.parameters()).device}")  # 输出:cuda:0
注意事项
  1. 与设备显式管理的代码兼容性

    如果代码中显式指定了设备(如 tensor.to(device)),torch.set_default_device 不会影响这些张量。建议在全局设置后,尽量减少显式设备管理操作。

  2. 多 GPU 环境

    如果有多个 GPU,可以指定具体设备,比如 'cuda:1'。示例:

    python 复制代码
    torch.set_default_device('cuda:1')  # 使用第二块 GPU
  3. 性能调优

    默认将所有操作转移到 GPU 可能并不适合所有场景,尤其是小规模任务时,GPU 的初始化开销可能超过性能提升。根据需求灵活调整设备。

相关推荐
算家计算1 小时前
“28项评测23项SOTA——GLM-4.1V-9B-Thinking本地部署教程:10B级视觉语言模型的性能天花板!
人工智能·开源
Codebee1 小时前
OneCode注解驱动:智能送货单系统的AI原生实现
人工智能·低代码
Deng9452013141 小时前
基于Python的旅游数据可视化应用
python·numpy·pandas·旅游·数据可视化技术
2401_878624791 小时前
pytorch 自动微分
人工智能·pytorch·python·机器学习
胖达不服输1 小时前
「日拱一码」021 机器学习——特征工程
人工智能·python·机器学习·特征工程
Rvelamen1 小时前
大模型安全风险与防护产品综述 —— 以 Otter LLM Guard 为例
人工智能
MARS_AI_1 小时前
大语言模型驱动智能语音应答:技术演进与架构革新
人工智能·语言模型·自然语言处理·架构·信息与通信
程序员小灰1 小时前
AI独角兽团队Manus裁员80人,剩下40人迁至新加坡总部!
人工智能·aigc·agent
新智元2 小时前
OpenAI去年挖的坑填上了!奖励模型首现Scaling Law,1.8B给70B巨兽上了一课
人工智能·openai