PyTorch环境配置问题

为什么深度学习都是用英伟达的显卡?

首先我们需要了解什么是CUDA?

CUDA(Compute Unified Device Architecture),是显卡厂商 NVIDIA 推出的运算平台。

CUDA就类似于编程语言,开发者和显卡通过CUDA进行交流,开发者用CUDA去操作英伟达显卡,可以给显卡发送各种各样的指令。然而,像PyTorch和Tensorflow这种深度学习的库,本质就是从上一级,调用CUDA的库,随后将我们需要处理的数据交给GPU(显卡)去处理,以此达到加快深度学习网络的训练。

在安装好anaconda之后,开发者需要去根据python的版本、PyTorch的版本、CUDA runtime version版本、CUDA driver version版本。

其中最关键的是,CUDA runtime version 的版本要小于等于 CUDA driver version。

这里CUDA runtime version是支持显卡对应的算力。

通过 anaconda 的 命令行界面输入 nVidia-smi

查找到CUDA runtime version,此处我的是12.4

所以再去pytorch官网找小于12.4的版本。直接下载即可

相关推荐
ujainu6 分钟前
CANN仓库中的AIGC多模态统一抽象工程:昇腾AI软件栈如何用一套接口驾驭图文音视
人工智能·aigc
少云清7 分钟前
【金融项目实战】7_接口测试 _代码实现接口测试(重点)
python·金融项目实战
深蓝电商API8 分钟前
爬虫IP封禁后的自动切换与检测机制
爬虫·python
m0_5500246310 分钟前
持续集成/持续部署(CI/CD) for Python
jvm·数据库·python
AC赳赳老秦11 分钟前
代码生成超越 GPT-4:DeepSeek-V4 编程任务实战与 2026 开发者效率提升指南
数据库·数据仓库·人工智能·科技·rabbitmq·memcache·deepseek
液态不合群13 分钟前
推荐算法中的位置消偏,如何解决?
人工智能·机器学习·推荐算法
饭饭大王66617 分钟前
当 AI 系统开始“自省”——在 `ops-transformer` 中嵌入元认知能力
人工智能·深度学习·transformer
ujainu17 分钟前
CANN仓库中的AIGC可移植性工程:昇腾AI软件栈如何实现“一次开发,多端部署”的跨生态兼容
人工智能·aigc
初恋叫萱萱18 分钟前
CANN 生态实战指南:从零构建一个高性能边缘 AI 应用的完整流程
人工智能
Lethehong21 分钟前
CANN ops-nn仓库深度解读:AIGC时代的神经网络算子优化实践
人工智能·神经网络·aigc