PyTorch 2.0 以下版本中设置默认使用 GPU 的方法

PyTorch 2.0 以下版本中设置默认使用 GPU 的方法

在 PyTorch 2.0以下版本中,默认情况下仍然是使用 CPU 进行计算,除非明确指定使用 GPU。在 PyTorch 2.0 以下版本中,虽然没有 torch.set_default_device 的便捷方法,但可以通过显式地将张量、模型和操作分配到 GPU 来使用 GPU。

1. 检查 GPU 可用性

在使用 GPU 之前,首先检查系统中是否有可用的 GPU。

python 复制代码
import torch

# 检查是否有可用的 GPU
print(torch.cuda.is_available())  # 返回 True 或 False

# 检查可用 GPU 的数量
print(torch.cuda.device_count())

# 当前 GPU 名称
if torch.cuda.is_available():
    print(torch.cuda.get_device_name(0))

2. 将张量移动到 GPU

张量可以通过 .to('cuda').cuda() 方法显式地移动到 GPU。

python 复制代码
# 创建一个张量并将其移动到 GPU
x = torch.tensor([1.0, 2.0, 3.0])
x_gpu = x.to('cuda')  # 或 x.cuda()
print(x_gpu.device)  # 输出:cuda:0

# 在 GPU 上进行计算
y = x_gpu * 2
print(y)  # 输出在 GPU 上的结果
3. 将模型移动到 GPU

PyTorch 模型及其参数需要显式地移动到 GPU。

python 复制代码
# 定义一个简单的模型
model = torch.nn.Linear(10, 1)

# 将模型移动到 GPU
model = model.to('cuda')  # 或 model.cuda()

# 检查模型参数所在的设备
print(next(model.parameters()).device)  # 输出:cuda:0
4. 确保输入数据和模型在同一设备上

模型和输入数据需要在同一个设备上,否则会报错。

python 复制代码
# 创建一个张量并移动到 GPU
input_data = torch.randn(5, 10).to('cuda')

# 定义并移动模型到 GPU
model = torch.nn.Linear(10, 1).to('cuda')

# 前向传播
output = model(input_data)
print(output)

5. 使用 torch.device 动态管理设备

可以使用 torch.device 动态管理设备。

python 复制代码
# 定义设备
device = torch.device('cuda' if torch.cuda.is_available() else 'cpu')

# 将张量移动到设备
x = torch.tensor([1.0, 2.0, 3.0]).to(device)

# 将模型移动到设备
model = torch.nn.Linear(10, 1).to(device)

6. 优化器和损失函数的设备兼容性

当使用 GPU 时,模型的输出和目标(target)都需要在同一设备上。

python 复制代码
# 创建数据和目标,并移动到 GPU
data = torch.randn(5, 10).to('cuda')
target = torch.randn(5, 1).to('cuda')

# 定义模型并移动到 GPU
model = torch.nn.Linear(10, 1).to('cuda')

# 定义损失函数
criterion = torch.nn.MSELoss()

# 定义优化器
optimizer = torch.optim.SGD(model.parameters(), lr=0.01)

# 前向传播
output = model(data)
loss = criterion(output, target)

# 反向传播
loss.backward()
optimizer.step()

7. 混合设备计算(可选)

在多 GPU 或混合 CPU/GPU 环境中,可以手动管理每个张量或模型的设备。

python 复制代码
# 在 CPU 上创建张量
x_cpu = torch.tensor([1.0, 2.0, 3.0])

# 在 GPU 上创建张量
x_gpu = x_cpu.to('cuda')

# 将结果移动回 CPU
result = x_gpu * 2
result_cpu = result.to('cpu')
print(result_cpu)

总结

在 PyTorch 2.0 以下版本中,使用 GPU 的核心是 显式地将张量和模型移动到 GPU,并确保所有相关操作在同一设备上完成。以下是核心方法的汇总:

  • 检查 GPU 可用性: torch.cuda.is_available()

  • 移动张量到 GPU: .to('cuda').cuda()

  • 移动模型到 GPU: .to('cuda').cuda()

  • 动态设备管理: torch.device

相关推荐
qq_508823403 小时前
金融量化指标--5Sortino索提诺比率
人工智能·microsoft
AIbase20244 小时前
AI技术架构与GEO算法原理如何重塑搜索引擎可见性
人工智能·搜索引擎·架构
一条数据库4 小时前
AI生成文本检测数据集:基于不平衡数据集(人类94% vs AI 6%)的高效机器学习模型训练,涵盖ChatGPT、Gemini等LLM生成内容
人工智能
山烛5 小时前
OpenCV:图像直方图
人工智能·opencv·计算机视觉·图像直方图
摘星编程5 小时前
AI 帮我写单测:pytest 覆盖率提升 40% 的协作日志
人工智能·pytest·测试驱动开发·代码覆盖率·ai协作开发
荼蘼5 小时前
OpenCV 发票识别全流程:透视变换与轮廓检测详解
人工智能·opencv·计算机视觉
☼←安于亥时→❦5 小时前
PyTorch 梯度与微积分
人工智能·pytorch·python
程序员三藏6 小时前
2025最新的软件测试面试八股文(800+道题)
自动化测试·软件测试·python·功能测试·测试工具·面试·职场和发展
Pocker_Spades_A6 小时前
Python快速入门专业版(二十三):for循环基础:遍历字符串、列表与range()函数(计数案例)
python
mahuifa6 小时前
OpenCV 开发 -- 图像阈值处理
人工智能·opencv·计算机视觉