PyTorch环境配置问题

为什么深度学习都是用英伟达的显卡?

首先我们需要了解什么是CUDA?

CUDA(Compute Unified Device Architecture),是显卡厂商 NVIDIA 推出的运算平台。

CUDA就类似于编程语言,开发者和显卡通过CUDA进行交流,开发者用CUDA去操作英伟达显卡,可以给显卡发送各种各样的指令。然而,像PyTorch和Tensorflow这种深度学习的库,本质就是从上一级,调用CUDA的库,随后将我们需要处理的数据交给GPU(显卡)去处理,以此达到加快深度学习网络的训练。

在安装好anaconda之后,开发者需要去根据python的版本、PyTorch的版本、CUDA runtime version版本、CUDA driver version版本。

其中最关键的是,CUDA runtime version 的版本要小于等于 CUDA driver version。

这里CUDA runtime version是支持显卡对应的算力。

通过 anaconda 的 命令行界面输入 nVidia-smi

查找到CUDA runtime version,此处我的是12.4

所以再去pytorch官网找小于12.4的版本。直接下载即可

相关推荐
_志哥_36 分钟前
Superpowers 技术指南:让 AI 编程助手拥有超能力
人工智能·ai编程·测试
YongGit1 小时前
OpenClaw 本地 AI 助手完全指南:飞书接入 + 远程部署实战
人工智能
程序员鱼皮3 小时前
斯坦福大学竟然开了个 AI 编程课?!我已经学上了
人工智能·ai编程
星浩AI3 小时前
Skill 的核心要素与渐进式加载架构——如何设计一个生产可用的 Skill?
人工智能·agent
树獭非懒4 小时前
告别繁琐多端开发:DivKit 带你玩转 Server-Driven UI!
android·前端·人工智能
阿尔的代码屋4 小时前
[大模型实战 07] 基于 LlamaIndex ReAct 框架手搓全自动博客监控 Agent
人工智能·python
小小小怪兽4 小时前
🔨聊一聊Skills
人工智能·agent
穿过生命散发芬芳4 小时前
OpenClaw:开启OpenCloudOS 操作系统智能运维初体验
人工智能·aigc
老金带你玩AI4 小时前
Claude Code自动记忆来了!配合老金三层记忆系统全开源!加强Plus!
人工智能
Halo咯咯4 小时前
无限免费 OpenClaw:接入本地模型后,你的 AI Agent 就可以 24 小时自动干活(Mac Mini 可用)
人工智能