PyTorch框架-Python GPU编程

第一部分:环境配置

1.1 安装必要工具

  • 确保您的计算机有NVIDIA显卡并安装好了显卡驱动
  • 安装CUDA Toolkit(版本根据显卡选择,推荐11.x以上)
  • 安装PyTorch(会自动安装CUDA支持)
bash 复制代码
# 使用pip安装PyTorch(访问官网https://pytorch.org/获取最新安装命令)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118

1.2 验证GPU是否可用

python 复制代码
import torch

# 检查CUDA是否可用
print("CUDA available:", torch.cuda.is_available())

# 查看GPU数量
print("GPU count:", torch.cuda.device_count())

# 查看当前GPU名称
if torch.cuda.is_available():
    print("Current GPU:", torch.cuda.get_device_name(0))

第二部分:基础GPU操作

2.1 将数据转移到GPU

python 复制代码
# 创建一个CPU上的Tensor
cpu_tensor = torch.tensor([1.0, 2.0, 3.0])

# 将Tensor转移到GPU
gpu_tensor = cpu_tensor.cuda()  # 或者使用 .to('cuda:0')

# 将数据移回CPU
gpu_tensor.cpu()

2.2 直接在GPU上创建数据

python 复制代码
# 在GPU上直接创建Tensor
gpu_tensor = torch.tensor([4.0, 5.0, 6.0], device='cuda:0')

# 使用更简洁的写法
gpu_tensor = torch.cuda.FloatTensor([7.0, 8.0, 9.0])

2.3 执行GPU计算

python 复制代码
a = torch.randn(10000, 10000, device='cuda')  # 创建随机矩阵
b = torch.randn(10000, 10000, device='cuda')

# GPU矩阵乘法(比CPU快数十倍)
c = torch.matmul(a, b)

第三部分:实际应用示例

示例1:GPU加速的矩阵运算

python 复制代码
import time

# CPU版本
start = time.time()
cpu_a = torch.randn(10000, 10000)
cpu_b = torch.randn(10000, 10000)
cpu_c = torch.matmul(cpu_a, cpu_b)
print("CPU time:", time.time() - start)

# GPU版本
start = time.time()
gpu_a = cpu_a.cuda()
gpu_b = cpu_b.cuda()
gpu_c = torch.matmul(gpu_a, gpu_b)
print("GPU time:", time.time() - start)

示例2:训练一个简单的神经网络

python 复制代码
import torch.nn as nn
import torch.optim as optim

# 定义网络
class Net(nn.Module):
    def __init__(self):
        super(Net, self).__init__()
        self.fc = nn.Linear(784, 10)

    def forward(self, x):
        return self.fc(x)

# 创建网络并转移到GPU
net = Net().cuda()

# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01)

# 生成随机数据(注意将数据也转移到GPU)
inputs = torch.randn(32, 784).cuda()  # batch_size=32
labels = torch.randint(0, 10, (32,)).cuda()

# 训练步骤
outputs = net(inputs)
loss = criterion(outputs, labels)

optimizer.zero_grad()
loss.backward()
optimizer.step()

print("Loss:", loss.item())

第四部分:高级技巧

4.1 多GPU并行

python 复制代码
# 使用DataParallel进行数据并行
if torch.cuda.device_count() > 1:
    print("Using", torch.cuda.device_count(), "GPUs!")
    net = nn.DataParallel(net)

4.2 内存管理

python 复制代码
# 清空GPU缓存
torch.cuda.empty_cache()

# 监控显存使用
print("Memory allocated:", torch.cuda.memory_allocated()/1024**3, "GB")
print("Memory cached:   ", torch.cuda.memory_reserved()/1024**3, "GB")

第五部分:常见问题解决

  1. CUDA out of memory:

    • 减小batch size
    • 使用torch.cuda.empty_cache()
    • 检查是否有不需要的Tensor保留引用
  2. 设备不匹配错误:

    • 确保所有参与计算的Tensor都在同一设备上
    • 使用.to(device)统一设备
  3. 性能优化:

    • 使用torch.backends.cudnn.benchmark = True启用cuDNN自动优化
    • 使用pin_memory=True加速数据加载

第六部分:学习资源推荐

  1. PyTorch官方文档:pytorch.org/docs/stable...
  2. CUDA编程指南:docs.nvidia.com/cuda/
  3. 深度学习框架对比:PyTorch vs TensorFlow

通过这个教程,您应该能够:

✅ 配置Python GPU开发环境

✅ 进行基础的GPU张量操作

✅ 实现GPU加速的神经网络训练

✅ 处理常见的GPU使用问题

相关推荐
mqiqe20 分钟前
Spring MVC 页面跳转方案与区别
python·spring·mvc
小白的高手之路25 分钟前
torch.nn.Conv2d介绍——Pytorch中的二维卷积层
人工智能·pytorch·python·深度学习·神经网络·机器学习·cnn
船长@Quant28 分钟前
PyTorch量化进阶教程:第五章 Transformer 在量化交易中的应用
pytorch·python·深度学习·transformer·量化交易·sklearn·ta-lab
冰蓝蓝40 分钟前
什么是 实例化
python
天天进步20151 小时前
Python项目-基于Flask的个人博客系统设计与实现(2)
开发语言·python·flask
不要不开心了2 小时前
Scala内容
开发语言·pytorch·flask·scala·dash
RadNIkMan2 小时前
Python学习(二)操作列表
网络·python·学习
半盏茶香2 小时前
启幕数据结构算法雅航新章,穿梭C++梦幻领域的探索之旅——堆的应用之堆排、Top-K问题
java·开发语言·数据结构·c++·python·算法·链表
liuhaoran___3 小时前
解释区块链技术的应用场景和优势
python