Jupyter Notebook中使用GPU进行计算

要在Jupyter Notebook中使用GPU进行计算,请按照以下步骤操作:

  1. 检查GPU可用性

    在终端/Anaconda Prompt中运行以下命令以确认是否有可用的GPU:

    bash 复制代码
    nvidia-smi
  2. 安装所需的库

    首先,在终端/Anaconda Prompt中,依次安装PyTorch及其相关的CPU和GPU支持包:

    bash 复制代码
    pip install torch torchvision torchaudio
    # 如果需要多线程支持:
    export OMP_NUM_THREADS=4
    # 扩展CuDNN库的搜索路径(可选):
    LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.0/lib64
  3. 设置环境变量

    在终端/Anaconda Prompt中,修改或新增.bashrc文件中的内容以配置以下环境变量(在每个新行后按Enter):

    bash 复制代码
    LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.0/lib64
    PATH=/usr/local/cuda-12.0/bin:$PATH

    重新运行所有上述步骤可能需要多次登录别机或系统重启。

  4. 配置PyTorch使用GPU

    在Jupyter Notebook中添加以下代码来配置 PyTorch 使用可用的 GPU:

    python 复制代码
    import torch
    
    if torch.cuda.is_available():
        print('Current device:', torch.cuda.current_device())
        print('Device name:', torch.cuda.get_device_name(0))
        # 设置多个可用GPU时,将索引从0开始设置
    else:
        print('Using CPU!')
    
    # 如果需要指定显卡:
    torch.cuda.set_device(0)  # 替换为要使用的GPU索引
  5. 运行计算在GPU上

    示例代码中创建两个张量 ab 并执行GPU上的矩阵乘法:

    python 复制代码
    a = torch.randn(2, 3).cuda()  # 将张量移动到GPU上
    b = torch.randn(3, 4).cuda()
    c = torch.mm(a, b)            # 使用PyTorch内置的矩阵乘法
    d = a @ b                      # 添加Python 3.5+支持的短阵乘法
  6. 保存和重新载入修改

    • 保存修改后的 Jupyter Notebook文件。
    • 关闭前一个会话后,打开新会话并重新加载文件,否则新的代码更改可能不会生效。
  7. 验证计算是否在GPU上运行

    运行以下命令查看 cd 的设备:

    python 复制代码
    print(f'张量 c位于{c.device}上')
    print(f'张量 d位于{d.device}上')

    检查是否有错误,比如 GPU可用性返回False或输出显示"cuda:0"。

  8. 处理常见问题

    • 安装问题:确保 PyTorch 和_cuda版本与您的NVIDIA显卡匹配,并查阅[Pip Install guide](https://pytorch.org/docs/stable/get started.html# Install).
    • 不支持的错误信息:如遇到无法导入模块,请检查PyTorch是否正确安装、路径是否设置正确或环境变量是否被正确识别。
    • 无法使用GPU:确认命令是否执行后才指定 GPU(即修改代码后重新运行会话)。
  9. 扩展功能

    如果需要,可以启用以下PyTorch选项以进一步优化 GPU 性能:

    python 复制代码
    # 多GPU计算示例:
    if torch.cuda.device_count() > 1:
        print("Let's use multiple GPUs!")
      
    # 使用混合精度训练:
    scaler = torch.cuda.amp.GradScaler()
      
    # 启用自动混合精度(AMP)和执行优化选项:
    with torch.amp.autocast():
        outputs = model(inputs)
    
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

通过遵循这些步骤,您可以在 Jupyter Notebook 中有效地利用 GPU 进行计算。确保在每次运行时重新加载会话以应用新设置的参数。如果有问题出现,请检查所有环境变量和安装指令是否正确配置。

相关推荐
风象南26 分钟前
普通人用AI加持赚到的第一个100块
人工智能·后端
牛奶1 小时前
2026年大模型怎么选?前端人实用对比
前端·人工智能·ai编程
牛奶1 小时前
前端人为什么要学AI?
前端·人工智能·ai编程
罗西的思考4 小时前
AI Agent框架探秘:拆解 OpenHands(10)--- Runtime
人工智能·算法·机器学习
冬奇Lab4 小时前
OpenClaw 源码精读(2):Channel & Routing——一条消息如何找到它的 Agent?
人工智能·开源·源码阅读
冬奇Lab4 小时前
一天一个开源项目(第38篇):Claude Code Telegram - 用 Telegram 远程用 Claude Code,随时随地聊项目
人工智能·开源·资讯
孟健6 小时前
Karpathy 用 200 行纯 Python 从零实现 GPT:代码逐行解析
python
格砸6 小时前
从入门到辞职|从ChatGPT到OpenClaw,跟上智能时代的进化
前端·人工智能·后端
可观测性用观测云6 小时前
可观测性 4.0:教系统如何思考
人工智能
sunny8656 小时前
Claude Code 跨会话上下文恢复:从 8 次纠正到 0 次的工程实践
人工智能·开源·github