Jupyter Notebook中使用GPU进行计算

要在Jupyter Notebook中使用GPU进行计算,请按照以下步骤操作:

  1. 检查GPU可用性

    在终端/Anaconda Prompt中运行以下命令以确认是否有可用的GPU:

    bash 复制代码
    nvidia-smi
  2. 安装所需的库

    首先,在终端/Anaconda Prompt中,依次安装PyTorch及其相关的CPU和GPU支持包:

    bash 复制代码
    pip install torch torchvision torchaudio
    # 如果需要多线程支持:
    export OMP_NUM_THREADS=4
    # 扩展CuDNN库的搜索路径(可选):
    LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.0/lib64
  3. 设置环境变量

    在终端/Anaconda Prompt中,修改或新增.bashrc文件中的内容以配置以下环境变量(在每个新行后按Enter):

    bash 复制代码
    LD_LIBRARY_PATH=$LD_LIBRARY_PATH:/usr/local/cuda-12.0/lib64
    PATH=/usr/local/cuda-12.0/bin:$PATH

    重新运行所有上述步骤可能需要多次登录别机或系统重启。

  4. 配置PyTorch使用GPU

    在Jupyter Notebook中添加以下代码来配置 PyTorch 使用可用的 GPU:

    python 复制代码
    import torch
    
    if torch.cuda.is_available():
        print('Current device:', torch.cuda.current_device())
        print('Device name:', torch.cuda.get_device_name(0))
        # 设置多个可用GPU时,将索引从0开始设置
    else:
        print('Using CPU!')
    
    # 如果需要指定显卡:
    torch.cuda.set_device(0)  # 替换为要使用的GPU索引
  5. 运行计算在GPU上

    示例代码中创建两个张量 ab 并执行GPU上的矩阵乘法:

    python 复制代码
    a = torch.randn(2, 3).cuda()  # 将张量移动到GPU上
    b = torch.randn(3, 4).cuda()
    c = torch.mm(a, b)            # 使用PyTorch内置的矩阵乘法
    d = a @ b                      # 添加Python 3.5+支持的短阵乘法
  6. 保存和重新载入修改

    • 保存修改后的 Jupyter Notebook文件。
    • 关闭前一个会话后,打开新会话并重新加载文件,否则新的代码更改可能不会生效。
  7. 验证计算是否在GPU上运行

    运行以下命令查看 cd 的设备:

    python 复制代码
    print(f'张量 c位于{c.device}上')
    print(f'张量 d位于{d.device}上')

    检查是否有错误,比如 GPU可用性返回False或输出显示"cuda:0"。

  8. 处理常见问题

    • 安装问题:确保 PyTorch 和_cuda版本与您的NVIDIA显卡匹配,并查阅[Pip Install guide](https://pytorch.org/docs/stable/get started.html# Install).
    • 不支持的错误信息:如遇到无法导入模块,请检查PyTorch是否正确安装、路径是否设置正确或环境变量是否被正确识别。
    • 无法使用GPU:确认命令是否执行后才指定 GPU(即修改代码后重新运行会话)。
  9. 扩展功能

    如果需要,可以启用以下PyTorch选项以进一步优化 GPU 性能:

    python 复制代码
    # 多GPU计算示例:
    if torch.cuda.device_count() > 1:
        print("Let's use multiple GPUs!")
      
    # 使用混合精度训练:
    scaler = torch.cuda.amp.GradScaler()
      
    # 启用自动混合精度(AMP)和执行优化选项:
    with torch.amp.autocast():
        outputs = model(inputs)
    
    optimizer.zero_grad()
    loss.backward()
    optimizer.step()

通过遵循这些步骤,您可以在 Jupyter Notebook 中有效地利用 GPU 进行计算。确保在每次运行时重新加载会话以应用新设置的参数。如果有问题出现,请检查所有环境变量和安装指令是否正确配置。

相关推荐
Codebee1 小时前
能力中心 (Agent SkillCenter):开启AI技能管理新时代
人工智能
聆风吟º2 小时前
CANN runtime 全链路拆解:AI 异构计算运行时的任务管理与功能适配技术路径
人工智能·深度学习·神经网络·cann
uesowys2 小时前
Apache Spark算法开发指导-One-vs-Rest classifier
人工智能·算法·spark
AI_56782 小时前
AWS EC2新手入门:6步带你从零启动实例
大数据·数据库·人工智能·机器学习·aws
User_芊芊君子2 小时前
CANN大模型推理加速引擎ascend-transformer-boost深度解析:毫秒级响应的Transformer优化方案
人工智能·深度学习·transformer
ValhallaCoder2 小时前
hot100-二叉树I
数据结构·python·算法·二叉树
智驱力人工智能3 小时前
小区高空抛物AI实时预警方案 筑牢社区头顶安全的实践 高空抛物检测 高空抛物监控安装教程 高空抛物误报率优化方案 高空抛物监控案例分享
人工智能·深度学习·opencv·算法·安全·yolo·边缘计算
qq_160144873 小时前
亲测!2026年零基础学AI的入门干货,新手照做就能上手
人工智能
Howie Zphile3 小时前
全面预算管理难以落地的核心真相:“完美模型幻觉”的认知误区
人工智能·全面预算
人工不智能5773 小时前
拆解 BERT:Output 中的 Hidden States 到底藏了什么秘密?
人工智能·深度学习·bert