Jupyter Notebook中使用GPU进行计算

要在Jupyter Notebook中使用GPU进行计算,请按照以下步骤操作:

  1. 检查GPU可用性

    在终端/Anaconda Prompt中运行以下命令以确认是否有可用的GPU:

    bash 复制代码
    nvidia-smi
  2. 安装所需的库

    首先,在终端/Anaconda Prompt中,依次安装PyTorch及其相关的CPU和GPU支持包:

    bash 复制代码
    pip install torch torchvision torchaudio
    # 如果需要多线程支持:
    export OMP_NUM_THREADS=4
    # 扩展CuDNN库的搜索路径(可选):
    LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.0/lib64
  3. 设置环境变量

    在终端/Anaconda Prompt中,修改或新增.bashrc文件中的内容以配置以下环境变量(在每个新行后按Enter):

    bash 复制代码
    LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.0/lib64
    PATH=/usr/local/cuda-12.0/bin:$PATH

    重新运行所有上述步骤可能需要多次登录别机或系统重启。

  4. 配置PyTorch使用GPU

    在Jupyter Notebook中添加以下代码来配置 PyTorch 使用可用的 GPU:

    python 复制代码
    import torch
    
    if torch.cuda.is_available():
        print('Current device:', torch.cuda.current_device())
        print('Device name:', torch.cuda.get_device_name(0))
        # 设置多个可用GPU时,将索引从0开始设置
    else:
        print('Using CPU!')
    
    # 如果需要指定显卡:
    torch.cuda.set_device(0)  # 替换为要使用的GPU索引
  5. 运行计算在GPU上

    示例代码中创建两个张量 ab 并执行GPU上的矩阵乘法:

    python 复制代码
    a = torch.randn(2, 3).cuda()  # 将张量移动到GPU上
    b = torch.randn(3, 4).cuda()
    c = torch.mm(a, b)            # 使用PyTorch内置的矩阵乘法
    d = a @ b                      # 添加Python 3.5+支持的短阵乘法
  6. 保存和重新载入修改

    • 保存修改后的 Jupyter Notebook文件。
    • 关闭前一个会话后,打开新会话并重新加载文件,否则新的代码更改可能不会生效。
  7. 验证计算是否在GPU上运行

    运行以下命令查看 cd 的设备:

    python 复制代码
    print(f'张量 c位于{c.device}上')
    print(f'张量 d位于{d.device}上')

    检查是否有错误,比如 GPU可用性返回False或输出显示"cuda:0"。

  8. 处理常见问题

    • 安装问题:确保 PyTorch 和_cuda版本与您的NVIDIA显卡匹配,并查阅[Pip Install guide](https://pytorch.org/docs/stable/get started.html# Install).
    • 不支持的错误信息:如遇到无法导入模块,请检查PyTorch是否正确安装、路径是否设置正确或环境变量是否被正确识别。
    • 无法使用GPU:确认命令是否执行后才指定 GPU(即修改代码后重新运行会话)。
  9. 扩展功能

    如果需要,可以启用以下PyTorch选项以进一步优化 GPU 性能:

    python 复制代码
    # 多GPU计算示例:
    if torch.cuda.device_count() > 1:
        print("Let's use multiple GPUs!")
      
    # 使用混合精度训练:
    scaler = torch.cuda.amp.GradScaler()
      
    # 启用自动混合精度(AMP)和执行优化选项:
    with torch.amp.autocast():
        outputs = model(inputs)
    
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

通过遵循这些步骤,您可以在 Jupyter Notebook 中有效地利用 GPU 进行计算。确保在每次运行时重新加载会话以应用新设置的参数。如果有问题出现,请检查所有环境变量和安装指令是否正确配置。

相关推荐
禁默17 小时前
打通 AI 与信号处理的“任督二脉”:Ascend SIP Boost 加速库深度实战
人工智能·信号处理·cann
心疼你的一切18 小时前
昇腾CANN实战落地:从智慧城市到AIGC,解锁五大行业AI应用的算力密码
数据仓库·人工智能·深度学习·aigc·智慧城市·cann
AI绘画哇哒哒18 小时前
【干货收藏】深度解析AI Agent框架:设计原理+主流选型+项目实操,一站式学习指南
人工智能·学习·ai·程序员·大模型·产品经理·转行
数据分析能量站18 小时前
Clawdbot(现名Moltbot)-现状分析
人工智能
那个村的李富贵18 小时前
CANN加速下的AIGC“即时翻译”:AI语音克隆与实时变声实战
人工智能·算法·aigc·cann
二十雨辰18 小时前
[python]-AI大模型
开发语言·人工智能·python
陈天伟教授18 小时前
人工智能应用- 语言理解:04.大语言模型
人工智能·语言模型·自然语言处理
Luhui Dev18 小时前
AI 与数学的融合:技术路径、应用前沿与未来展望(2026 版)
人工智能
Yvonne爱编码18 小时前
JAVA数据结构 DAY6-栈和队列
java·开发语言·数据结构·python
chian-ocean18 小时前
量化加速实战:基于 `ops-transformer` 的 INT8 Transformer 推理
人工智能·深度学习·transformer