解决Linux服务器上下载pytorch速度过慢的问题

需要下载的是GPU版本的pytorch,版本torch=1.13.1+cu116

尝试方法1:

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116

但是默认是从官网下载,龟速到200kb/s左右

尝试方法2:

使用国内源,这在下载其他包时很有用, 镜像源可以大大加速 pip 下载速度,例如阿里云、清华大学、豆瓣等。

pip 国内镜像源_pip_李昊哲-小课-GitCode 开源社区

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116 -i https://pypi.tuna.tsinghua.edu.cn/simple

使用这种方式会从两个网址中查找安装包,清华源不存在安装包,仍然从官方下载

尝试方法3:(解决方式)

pytorch-wheels-cu116安装包下载_开源镜像站-阿里云 (aliyun.com)

注意这是当CUDA版本为11.6时的网站,需要对应自己的CUDA版本

torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl 注意cp311中的311指的是python版本,也需要与自己的python匹配,比如我的是3.8,我在Linux服务器中使用如下指令, 直接从指定的 URL 下载 .whl 文件并安装:

pip install https://mirrors.aliyun.com/pytorch-wheels/cu116/torch-1.13.1+cu116-cp38-cp38-linux_x86_64.whl

可以发现下载速度很快:

ps:也可以使用其他下载器(如迅雷)通过镜像网站手动下载.whl文件到本地,然后

pip install 保存位置/torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl

相关推荐
Kel1 分钟前
LangChain.js 架构设计深度剖析
人工智能·设计模式·架构
百度Geek说1 分钟前
我把 Karpathy 的 AutoResearch 搬到了软件开发领域,效果炸了
人工智能
2301_782659182 分钟前
MongoDB如果有一个分片完全宕机集群还能用吗_受影响数据的不可读与分片隔离感知
jvm·数据库·python
justjinji3 分钟前
JavaScript中严格模式use-strict对引擎解析的辅助
jvm·数据库·python
Absurd5875 分钟前
CSS如何使用-default获取默认选项样式_通过状态伪类突出预选表单项
jvm·数据库·python
Predestination王瀞潞6 分钟前
Java EE3-我独自整合(第七章:Spring AOP 通知类型)
python·spring·java-ee
weixin_4585801213 分钟前
CSS如何让flex布局支持老版本浏览器_添加-webkit-前缀与兼容性写法
jvm·数据库·python
嵌入式小企鹅13 分钟前
国产大模型与芯片加速融合,RISC-V生态多点开花,AI编程工具迈入自动化新纪元
人工智能·学习·ai·嵌入式·算力·risc-v·半导体
数智大号16 分钟前
聚焦 AI 音频创新 ,Shure 亮相 InfoComm 全场景解决方案破解协作难题
人工智能
Shorasul18 分钟前
CSS viewport单位在旧移动端支持不佳_利用固定像素值与rem配合
jvm·数据库·python