第一部分:环境配置
1.1 安装必要工具
- 确保您的计算机有NVIDIA显卡并安装好了显卡驱动
- 安装CUDA Toolkit(版本根据显卡选择,推荐11.x以上)
- 安装PyTorch(会自动安装CUDA支持)
bash
# 使用pip安装PyTorch(访问官网https://pytorch.org/获取最新安装命令)
pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118
1.2 验证GPU是否可用
python
import torch
# 检查CUDA是否可用
print("CUDA available:", torch.cuda.is_available())
# 查看GPU数量
print("GPU count:", torch.cuda.device_count())
# 查看当前GPU名称
if torch.cuda.is_available():
print("Current GPU:", torch.cuda.get_device_name(0))
第二部分:基础GPU操作
2.1 将数据转移到GPU
python
# 创建一个CPU上的Tensor
cpu_tensor = torch.tensor([1.0, 2.0, 3.0])
# 将Tensor转移到GPU
gpu_tensor = cpu_tensor.cuda() # 或者使用 .to('cuda:0')
# 将数据移回CPU
gpu_tensor.cpu()
2.2 直接在GPU上创建数据
python
# 在GPU上直接创建Tensor
gpu_tensor = torch.tensor([4.0, 5.0, 6.0], device='cuda:0')
# 使用更简洁的写法
gpu_tensor = torch.cuda.FloatTensor([7.0, 8.0, 9.0])
2.3 执行GPU计算
python
a = torch.randn(10000, 10000, device='cuda') # 创建随机矩阵
b = torch.randn(10000, 10000, device='cuda')
# GPU矩阵乘法(比CPU快数十倍)
c = torch.matmul(a, b)
第三部分:实际应用示例
示例1:GPU加速的矩阵运算
python
import time
# CPU版本
start = time.time()
cpu_a = torch.randn(10000, 10000)
cpu_b = torch.randn(10000, 10000)
cpu_c = torch.matmul(cpu_a, cpu_b)
print("CPU time:", time.time() - start)
# GPU版本
start = time.time()
gpu_a = cpu_a.cuda()
gpu_b = cpu_b.cuda()
gpu_c = torch.matmul(gpu_a, gpu_b)
print("GPU time:", time.time() - start)
示例2:训练一个简单的神经网络
python
import torch.nn as nn
import torch.optim as optim
# 定义网络
class Net(nn.Module):
def __init__(self):
super(Net, self).__init__()
self.fc = nn.Linear(784, 10)
def forward(self, x):
return self.fc(x)
# 创建网络并转移到GPU
net = Net().cuda()
# 定义损失函数和优化器
criterion = nn.CrossEntropyLoss()
optimizer = optim.SGD(net.parameters(), lr=0.01)
# 生成随机数据(注意将数据也转移到GPU)
inputs = torch.randn(32, 784).cuda() # batch_size=32
labels = torch.randint(0, 10, (32,)).cuda()
# 训练步骤
outputs = net(inputs)
loss = criterion(outputs, labels)
optimizer.zero_grad()
loss.backward()
optimizer.step()
print("Loss:", loss.item())
第四部分:高级技巧
4.1 多GPU并行
python
# 使用DataParallel进行数据并行
if torch.cuda.device_count() > 1:
print("Using", torch.cuda.device_count(), "GPUs!")
net = nn.DataParallel(net)
4.2 内存管理
python
# 清空GPU缓存
torch.cuda.empty_cache()
# 监控显存使用
print("Memory allocated:", torch.cuda.memory_allocated()/1024**3, "GB")
print("Memory cached: ", torch.cuda.memory_reserved()/1024**3, "GB")
第五部分:常见问题解决
-
CUDA out of memory:
- 减小batch size
- 使用
torch.cuda.empty_cache()
- 检查是否有不需要的Tensor保留引用
-
设备不匹配错误:
- 确保所有参与计算的Tensor都在同一设备上
- 使用
.to(device)
统一设备
-
性能优化:
- 使用
torch.backends.cudnn.benchmark = True
启用cuDNN自动优化 - 使用
pin_memory=True
加速数据加载
- 使用
第六部分:学习资源推荐
- PyTorch官方文档:pytorch.org/docs/stable...
- CUDA编程指南:docs.nvidia.com/cuda/
- 深度学习框架对比:PyTorch vs TensorFlow
通过这个教程,您应该能够:
✅ 配置Python GPU开发环境
✅ 进行基础的GPU张量操作
✅ 实现GPU加速的神经网络训练
✅ 处理常见的GPU使用问题