PyTorch环境配置问题

为什么深度学习都是用英伟达的显卡?

首先我们需要了解什么是CUDA?

CUDA(Compute Unified Device Architecture),是显卡厂商 NVIDIA 推出的运算平台。

CUDA就类似于编程语言,开发者和显卡通过CUDA进行交流,开发者用CUDA去操作英伟达显卡,可以给显卡发送各种各样的指令。然而,像PyTorch和Tensorflow这种深度学习的库,本质就是从上一级,调用CUDA的库,随后将我们需要处理的数据交给GPU(显卡)去处理,以此达到加快深度学习网络的训练。

在安装好anaconda之后,开发者需要去根据python的版本、PyTorch的版本、CUDA runtime version版本、CUDA driver version版本。

其中最关键的是,CUDA runtime version 的版本要小于等于 CUDA driver version。

这里CUDA runtime version是支持显卡对应的算力。

通过 anaconda 的 命令行界面输入 nVidia-smi

查找到CUDA runtime version,此处我的是12.4

所以再去pytorch官网找小于12.4的版本。直接下载即可

相关推荐
玖日大大几秒前
GenFlow 3.0:重构生成式 AI 工作流的新一代智能编排平台
人工智能·chatgpt·文心一言
有泽改之_2 分钟前
Garmin FIT协议与FIT Activity文件类型
网络·python
a***97682 分钟前
Python大数据可视化:基于大数据技术的共享单车数据分析与辅助管理系统_flask+hadoop+spider
大数据·python·信息可视化
存内计算开发者3 分钟前
存算一体架构在空间计算中的应用
人工智能·神经网络·机器学习·计算机视觉·架构·空间计算·存算一体
love530love4 分钟前
【笔记】解决 Stable Diffusion WebUI 启动 “找不到llama_cpp模块”
运维·windows·笔记·python·stable diffusion·github·llama
h***67376 分钟前
Flask:后端框架使用
后端·python·flask
技术传感器9 分钟前
Prompt工程的艺术与科学:从“对话“到“编程“,掌握与大模型高效协作的元技能
人工智能·microsoft·架构·prompt·aigc
MediaTea10 分钟前
Python 库手册:gc 垃圾回收
java·开发语言·jvm·python·算法
红蒲公英12 分钟前
( 教学 )Agent 构建 Prompt(提示词)2. CommaSeparatedListOutputParser
人工智能·python·langchain·prompt·langgraph
v***431712 分钟前
Elasticsearch(ES)基础查询语法的使用
python·elasticsearch·django