PyTorch框架-Python GPU编程

第一部分:环境配置

1.1 安装必要工具

  • 确保您的计算机有NVIDIA显卡并安装好了显卡驱动
  • 安装CUDA Toolkit(版本根据显卡选择,推荐11.x以上)
  • 安装PyTorch(会自动安装CUDA支持)
bash 复制代码
# 使用pip安装PyTorch(访问官网https://pytorch.org/获取最新安装命令)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

1.2 验证GPU是否可用

python 复制代码
import torch

# 检查CUDA是否可用
print("CUDA available:", torch.cuda.is_available())

# 查看GPU数量
print("GPU count:", torch.cuda.device_count())

# 查看当前GPU名称
if torch.cuda.is_available():
    print("Current GPU:", torch.cuda.get_device_name(0))

第二部分:基础GPU操作

2.1 将数据转移到GPU

python 复制代码
# 创建一个CPU上的Tensor
cpu_tensor = torch.tensor([1.0, 2.0, 3.0])

# 将Tensor转移到GPU
gpu_tensor = cpu_tensor.cuda()  # 或者使用 .to('cuda:0')

# 将数据移回CPU
gpu_tensor.cpu()

2.2 直接在GPU上创建数据

python 复制代码
# 在GPU上直接创建Tensor
gpu_tensor = torch.tensor([4.0, 5.0, 6.0], device='cuda:0')

# 使用更简洁的写法
gpu_tensor = torch.cuda.FloatTensor([7.0, 8.0, 9.0])

2.3 执行GPU计算

python 复制代码
a = torch.randn(10000, 10000, device='cuda')  # 创建随机矩阵
b = torch.randn(10000, 10000, device='cuda')

# GPU矩阵乘法(比CPU快数十倍)
c = torch.matmul(a, b)

第三部分:实际应用示例

示例1:GPU加速的矩阵运算

python 复制代码
import time

# CPU版本
start = time.time()
cpu_a = torch.randn(10000, 10000)
cpu_b = torch.randn(10000, 10000)
cpu_c = torch.matmul(cpu_a, cpu_b)
print("CPU time:", time.time() - start)

# GPU版本
start = time.time()
gpu_a = cpu_a.cuda()
gpu_b = cpu_b.cuda()
gpu_c = torch.matmul(gpu_a, gpu_b)
print("GPU time:", time.time() - start)

示例2:训练一个简单的神经网络

python 复制代码
import torch.nn as nn
import torch.optim as optim

# 定义网络
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc = nn.Linear(784, 10)

    def forward(self, x):
        return self.fc(x)

# 创建网络并转移到GPU
net = Net().cuda()

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01)

# 生成随机数据(注意将数据也转移到GPU)
inputs = torch.randn(32, 784).cuda()  # batch_size=32
labels = torch.randint(0, 10, (32,)).cuda()

# 训练步骤
outputs = net(inputs)
loss = criterion(outputs, labels)

optimizer.zero_grad()
loss.backward()
optimizer.step()

print("Loss:", loss.item())

第四部分:高级技巧

4.1 多GPU并行

python 复制代码
# 使用DataParallel进行数据并行
if torch.cuda.device_count() > 1:
    print("Using", torch.cuda.device_count(), "GPUs!")
    net = nn.DataParallel(net)

4.2 内存管理

python 复制代码
# 清空GPU缓存
torch.cuda.empty_cache()

# 监控显存使用
print("Memory allocated:", torch.cuda.memory_allocated()/1024**3, "GB")
print("Memory cached:   ", torch.cuda.memory_reserved()/1024**3, "GB")

第五部分:常见问题解决

  1. CUDA out of memory:

    • 减小batch size
    • 使用torch.cuda.empty_cache()
    • 检查是否有不需要的Tensor保留引用
  2. 设备不匹配错误:

    • 确保所有参与计算的Tensor都在同一设备上
    • 使用.to(device)统一设备
  3. 性能优化:

    • 使用torch.backends.cudnn.benchmark = True启用cuDNN自动优化
    • 使用pin_memory=True加速数据加载

第六部分:学习资源推荐

  1. PyTorch官方文档:pytorch.org/docs/stable...
  2. CUDA编程指南:docs.nvidia.com/cuda/
  3. 深度学习框架对比:PyTorch vs TensorFlow

通过这个教程,您应该能够:

✅ 配置Python GPU开发环境

✅ 进行基础的GPU张量操作

✅ 实现GPU加速的神经网络训练

✅ 处理常见的GPU使用问题

相关推荐
Turnsole_y11 小时前
pycharm自动化测试初始化
python·selenium
weixin-a1530030831612 小时前
[数据抓取-1]beautifulsoup
开发语言·python·beautifulsoup
AI量化投资实验室12 小时前
15年122倍,年化43.58%,回撤才20%,Optuna机器学习多目标调参backtrader,附python代码
人工智能·python·机器学习
倔强青铜三13 小时前
苦练Python第67天:光速读取任意行,linecache模块解锁文件处理新姿势
人工智能·python·面试
我是华为OD~HR~栗栗呀13 小时前
华为od-21届考研-C++面经
java·c语言·c++·python·华为od·华为·面试
明月(Alioo)13 小时前
机器学习入门,无监督学习之K-Means聚类算法完全指南:面向Java开发者的Python实现详解
python·算法·机器学习
鱼鱼说测试14 小时前
Linux下运行Jmeter
开发语言·python
CodeCraft Studio15 小时前
国产化Excel开发组件Spire.XLS教程:将Python列表转换为Excel表格(3种实用场景)
开发语言·python·excel·spire.xls·python列表转excel·国产化文档开发
企鹅侠客15 小时前
基于python写的PDF表格提取到excel文档
python·pdf·excel·pdf文档表格转excel
mortimer15 小时前
Python 中那些鲜为人知但实用的工具函数
python