csdn排版不方便,欢迎大家关注我的gzh: 阿龙AI日记
1 环境介绍
深度学习环境配置是小白入门的一大门槛,其实搞清楚了各个部件的作用,即使配置过程中出问题也根本不慌,最要命的就是连自己都不知道在安装什么。环境配置主要分为四个部分,我们一次熟悉它们的作用:
-
Anaconda安装
-
CUDA安装
-
Torch安装
-
Pycharm安装
1.1 Anaconda是什么?

-
你可以把Anaconda理解为一个房子,房子里面可以隔出很多个小房间。比如我们现在有的项目用的是Python3.1,有的项目用的是Python3.9,你要是在自己电脑里都来装这两个版本的Python,就会使得你的环境非常乱,所以Anaconda可以很好的帮你管理环境把它们划分为一个个的小房间,互不干扰。
-
除此之外,Anaconda中提供了一个非常强大的软件库,可以一键安装和删除成千上万个关于科学计算的包(PyTorch、Numpy以及TensorFlow等)。
-
并且用Anaconda创建虚拟环境后,我们便不用再单独安装Python。
1.2 CUDA是什么?

你的电脑是有显卡,有成千上万个GPU运算单元,但是它们并不是可以被拿来直接用的。CUDA是NVIDA提供的一套接口工具,包含驱动和编译器等,你只有安装了CUDA才能调用你的GPU。否则难道还要我们自己写代码来调用GPU吗?因此CUDA为我们在深度学习框架(Torch、Tensorflow等)之间搭建了桥梁,否则我们无法调用自己的GPU。
1.3 Torch是什么?

Torch是我们直接来构建网络模型、训练以及部署的核心工具。试想一下,如果神经网络的卷积层、反向传播、优化器等核心组件都要自己来实现一遍,是不是太麻烦了? 因此Torch是一个深度学习开发平台,里面集成了大量深度学习所需要的库。核心结构有张量、自动微分求导、神经网络层以及优化器等。
1.4 Pycharm是什么?

我们要写代码,总不能在记事本txt里面写吧,Python还需要看缩进,记事本那得调到天荒地老。所以Pycharm这种IDE(集成开发环境)就有必要出现了。
我们在Pycharm里面编写我们的代码,切换我们的Anaconda环境,改变我们的Python解释器,管理我们的项目,还可以断点调试,极大的提升了我们的编码效率和体验。
2 Anaconda安装
2.1 安装Anaconda
我们直接在浏览器中搜索Anaconda就可以找到Anaconda的官网,点击进去注册账号然后登陆就可以看到下图:

如果你是土豪内存大,无所谓,可以下载左边,如果你和我一样有内存焦虑,可以下载右边的Mninconda。
其实二者的区别就是Anaconda更全一下,Mini是缩减版的,但是其实一般而言,我们搞深度学习的Miniconda也够了。后续缺什么可以再下载也很方便。
因此推荐下载Miniconda。
下载完成后,我们双击它,一路Next:

点击I Agree:

选择所有用户:

选择安装路径,然后点击Next:

注意要选择第一个,否则到时候在开始菜单中找不到Anaconda的cmd:

2.2 配置环境变量
点击环境变量:

点击新建:

配置完成:

2.3 Anaconda创建虚拟环境
在开始中找到:

一般而言创建虚拟环境Anaconda会默认创建在C盘。如果想创建在D盘,我们可以执行命令:
#添加 D 盘路径为优先环境目录(路径可自定义,如 D:\my_conda_envs)
conda config --add envs_dirs D:\conda_envs
再查看是否生效:
bash
conda config --show envs_dirs
结果:

Conda常用命令:
bash
#列出所有的环境(base 环境和所有的虚拟环境)
conda env list
#创建名为 env_name 的虚拟环境,并指定其 Python 版本为 3.9
conda create -n env_name python=3.9
#创建名为 "env_name" 的虚拟环境,并指定其 Python 版本为 3.9 和安装路径
conda create --prefix=安装路径\env_name python=3.9
#删除环境名为 "env_name" 的虚拟环境
conda remove -n env_name --all
#进入名为 "env_name" 的虚拟环境
conda activate env_name
我们来创建一个虚拟环境:
bash
conda create -n Deeplearning python=3.9

然后再进入虚拟环境:

分别执行命令安装Numpy、Pandas以及matplotlib:
conda install numpy
conda install numpy
conda install matplotlib

当然我们也可以指定版本,比如:
bash
conda install numpy=1.24.3 matplotlib=3.7.0
我们再查看我们安装的内容:
bash
conda list

这个窗口先不要关,后面安装Torch还要用。
3 CUDA安装
3.1 查看CUDA是否安装
打开命令行输入nvcc -v:

在安装之前,我们需要查看自己的CUDA显卡驱动版本:nvidia-smi

发现CUDA Version:13.0,也就是版本为13.0。
3.3 安装CUDA
我们去CUDA的官网,搜索cuda-toolkit-archive,此时只要小于13.0就可以,我的CUDA是13.0,安装了12.8。

点击进去,选择操作系统,系统版本等:

下载完成后进行安装,选择安装路径(在安装过程中选择路径的时候,第一次选择的路径下的文件夹会消失。
此处为临时安装目录(默认就可),后期安装完成会自动删除。)

一路next到底:

会默认为我们添加环境变量:

我们再来查看是否安装成功:nvcc -v

一般还需要安装cuDNN,好像现在都自动安装了,就不用我们管了。
4 PyTorch安装
4.1 通过官网安装
终于到了安装PyTorh这一步,我们直接搜索pytorch就可以找到PyTorch官网:

再选择我们的版本:

将torch为我们生成的命令输入我们之前创建的虚拟环境中,也就是前面的那个Deeplearning,
bash
conda activate Deeplearning
如果刚才窗口关了我们需要再次进入,然后执行官网给的语句。 如果下载太慢需要挂镜像,我们只需要将后面的连接替换为镜像源,比如清华的或者中科大南京大学的等。大家可以搜索一下。
4.2 检查是否安装好
安装完后,再通过coda list看是否安装好:

此时我们可以进入python交互,执行python,逐行执行:
import torch
print(torch.version)
print(torch.version.cuda)
print(torch.cuda.is_available()) #输出为True,则安装成功

此时PyTorch安装成功。
5 Pycharm安装
5.1 Pycharm下载
直接浏览器搜索Pycharm,注意下载社区版,专业版需要充钱的。 安装的时候记得勾选添加环境变量:

直接安装:

5.2 选择解释器
此时安装完Pycharm之后,还需要改变Pycharm的解释器,让它正确地找到我们刚才安装的环境,否则会报找不到module的错误。找到设置:

找到解释器------>添加本地解释器:

选择虚拟环境,点击现有:

找到对应的python.exe(这个路径就是刚才自己定义的虚拟环境的路径):

然后点击确定,Pycharm就可以识别到我们刚才安装的环境了。代码跑起来:

看我们的显卡使用情况:
