【深度学习】利用GPU跑Pytorch框架深度学习配置全流程

文章目录

一、什么是PyTorch

PyTorch是一款开源的深度学习框架,由Facebook的人工智能研究团队开发并维护,目前是全球深度学习领域最主流的框架之一。

它的核心定位是为科研人员和工程师提供灵活、高效的工具,用于构建、训练和部署各种深度学习模型,如图像分类、自然语言处理、语音识别等。PyTorch的核心优势在于支持动态计算图,使用时实时构建计算流程,便于调试和灵活设计复杂模型,同时兼具易用性和高性能。

二、什么是CUDA

CUDA 的全称是Compute Unified Device Architecture(统一计算设备架构),它并非硬件,而是NVIDIA公司推出的一套并行计算平台和编程模型。

简单来说,CUDA的核心作用是:打破了NVIDIA GPU原本仅用于图形渲染,如游戏、图像编辑的限制,为开发者提供了一套编程接口,让开发者能够直接利用GPU的并行计算能力,来加速各类通用的科学计算、工程计算任务,而非仅图形任务。

需要注意的是:CUDA是NVIDIA专属的技术,AMD显卡有对应的OpenCL等替代方案,但生态成熟度远低于CUDA,而PyTorch等深度学习框架,正是通过调用CUDA接口,实现对NVIDIA GPU硬件资源的利用,从而完成模型的加速计算。

三、为什么要用GPU跑任务

用GPU跑任务,尤其是深度学习、大规模数据计算等任务的核心原因,是CPU和GPU的硬件架构差异 ,以及任务特性与GPU架构的高度匹配,具体拆解如下:

1. CPU与GPU的核心架构差异
特性 CPU(中央处理器) GPU(图形处理器)
核心数量 少(通常2-64核,主流消费级4-16核) 极多(成百上千个流处理器/核心,如NVIDIA A100有5496个CUDA核心)
缓存大小 大(便于快速读取少量关键数据) 小(仅能缓存少量高频数据)
设计定位 擅长串行计算(复杂单任务逻辑处理,如操作系统调度、办公软件运行) 擅长并行计算(大量简单任务同时执行,如重复的矩阵运算、数据遍历)
计算效率 单核心计算能力强,多任务串行高效 单核心计算能力弱,多任务并行效率极高
2. 任务特性与GPU架构的高度匹配

我们日常用GPU加速的任务,如深度学习训练/推理、3D渲染、大数据分析、科学模拟等,都具备一个核心特征:包含大量可并行化的简单重复运算

以深度学习任务为例,模型训练过程中需要频繁进行矩阵乘法、卷积运算、梯度下降迭代等操作:

  • 这些运算本质上是大量相同的简单计算,如矩阵中每个元素的乘法和加法,可以被拆分到GPU的上千个核心中同时执行;
  • 例如:一个1000×1000的矩阵乘法,CPU需要逐个元素串行计算,而GPU可以同时启动数千个核心,并行处理数百组元素的计算,瞬间完成任务。
3. 实际效果:数量级的速度提升

正是由于上述架构差异和任务匹配度,GPU跑这类密集型计算任务的速度,远超CPU:

  • 比如训练一个简单的图像分类模型,CPU可能需要数天甚至数周,而入门级NVIDIA GPU比如RTX 3060可能只需几小时,高端专业GPU甚至只需几十分钟;
  • 即使是轻量的模型推理任务,GPU的速度也能比CPU快10倍以上,满足实时性需求,如视频实时目标检测。

四、GPU配置全流程

1.安装anaconda

首先进入浏览器输入:miniconda qinghua 进入清华镜像中,选择对应的py版本即可,不过一般要选择3.9版本以上


下完成后双击打开,进入安装页面,基本上就是点点点、下一步就可以了,不过需要注意的是安装路径中最好是不要有中文和空格,另外在环境配置页面要勾选中间那个Add...选项,接下来install就可以了。

2.创建conda虚拟环境

按住win+r打开命令界面后,输入cmd打开终端,输入

matlab 复制代码
conda create -n 你的环境名称 python=3.9

即可创建3.9版本的python虚拟环境

安装好后输入

matlab 复制代码
conda activate 你的环境名称 

进入到虚拟环境中,因为我们的库都会安装到这个环境下面,由于可能不同库版本不一致无法兼容,避免造成主环境崩溃,所以一般会利用虚拟环境进行跑任务。

接下来可以在命令行中输入:

matlab 复制代码
pip config set global.index-url https://pypi.tuna.tsinghua.edu.cn/simple

这个是将下载源设置到国内清华镜像源中,能大大提高库的下载速度,出现最下面一行表示设置成功

3.安装pytorch

pytorch安装官方地址:pytorch,有一些注意事项:

1.在一个单独的环境中,能使用pip就尽量使用pip,实在有问题的情况,例如没有合适的编译好的系统版本的安装包,再使用conda进行安装,不要来回混淆。

2.30XX、40XX显卡,要安装cu11以上的版本,否则无法运行。

3.如果只需要训练、简单推理,则无需单独安装CUDA,直接安装pytorch

安装教程可参考pytorch安装,这里就不过多赘述了。

总之就是先查看自己的显卡型号,比如这边的13.0.84的,则可以下载小于13.0.84的版本。然后进入到官网选择自己需要下载的版本,将命令复制到刚刚创建的虚拟环境中即可,建议使用pip命令安装,如果中间有报错可以查看上面的pytorch安装,看看是否能解决。


安装完成后,输入查看cuda是否能使用

matlab 复制代码
python
import torch
torch.cuda.is_available()
4.安装Vs Code开发IDE & 验证GPU是否启用

也可以按照自己的喜好安装IDE,Vs Code去官网打开下载即可,然后安装python、jupyter、中文插件就行了,基本上就是点点点,这里就不过多赘述了。

接下来打开vs code,输入以下命令查看是否启用,可以看到已经能够正常的启用gpu了,接下来跑深度学习的任务可以利用GPU并行加速即可。

matlab 复制代码
DEVICE = torch.device('cuda' if torch.cuda.is_available() else 'cpu')
print(f"使用设备: {DEVICE}, PyTorch版本: {torch.__version__}")
相关推荐
2601_949593651 分钟前
CANN加速人脸检测推理:多尺度特征金字塔与锚框优化
人工智能
小刘的大模型笔记3 分钟前
大模型LoRA微调全实战:普通电脑落地,附避坑手册
人工智能·电脑
乾元3 分钟前
身份与访问:行为生物识别(按键习惯、移动轨迹)的 AI 建模
运维·网络·人工智能·深度学习·安全·自动化·安全架构
happyprince3 分钟前
2026年02月07日全球AI前沿动态
人工智能
啊阿狸不会拉杆3 分钟前
《机器学习导论》第 7 章-聚类
数据结构·人工智能·python·算法·机器学习·数据挖掘·聚类
Java后端的Ai之路4 分钟前
【AI大模型开发】-AI 大模型原理深度解析与 API 实战(建议收藏!!!)
人工智能·ai·科普·ai大模型·llm大模型
禁默4 分钟前
从图像预处理到目标检测:Ops-CV 助力 CV 任务在昇腾 NPU 上高效运行
人工智能·目标检测·目标跟踪·cann
pp起床7 分钟前
Gen_AI 第四课 模型评估
人工智能
zhangshuang-peta9 分钟前
人工智能代理团队在软件开发中的协同机制
人工智能·ai agent·mcp·peta
love you joyfully9 分钟前
告别“人多力量大”误区:看AI团队如何通过奖励设计实现协作韧性
人工智能·深度学习·神经网络·多智能体