解决Linux服务器上下载pytorch速度过慢的问题

需要下载的是GPU版本的pytorch,版本torch=1.13.1+cu116

尝试方法1:

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116

但是默认是从官网下载,龟速到200kb/s左右

尝试方法2:

使用国内源,这在下载其他包时很有用, 镜像源可以大大加速 pip 下载速度,例如阿里云、清华大学、豆瓣等。

pip 国内镜像源_pip_李昊哲-小课-GitCode 开源社区

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116 -i https://pypi.tuna.tsinghua.edu.cn/simple

使用这种方式会从两个网址中查找安装包,清华源不存在安装包,仍然从官方下载

尝试方法3:(解决方式)

pytorch-wheels-cu116安装包下载_开源镜像站-阿里云 (aliyun.com)

注意这是当CUDA版本为11.6时的网站,需要对应自己的CUDA版本

torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl 注意cp311中的311指的是python版本,也需要与自己的python匹配,比如我的是3.8,我在Linux服务器中使用如下指令, 直接从指定的 URL 下载 .whl 文件并安装:

pip install https://mirrors.aliyun.com/pytorch-wheels/cu116/torch-1.13.1+cu116-cp38-cp38-linux_x86_64.whl

可以发现下载速度很快:

ps:也可以使用其他下载器(如迅雷)通过镜像网站手动下载.whl文件到本地,然后

pip install 保存位置/torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl

相关推荐
人工智能培训咨询叶梓18 分钟前
MobiLlama,面向资源受限设备的轻量级全透明GPT模型
人工智能·gpt·语言模型·自然语言处理·性能优化·多模态·轻量级
向阳逐梦21 分钟前
ROS 编程入门的介绍
人工智能·算法·机器学习
2301_7931393321 分钟前
光控资本:美股,又新高!比特币也大涨!静待“关键时刻”
大数据·人工智能
网安詹姆斯25 分钟前
网络安全(黑客技术)2024年三个月自学计划
网络·数据结构·python·mysql·安全·web安全·github
宇宙第一小趴菜30 分钟前
中秋节特别游戏:给玉兔投喂月饼
python·游戏·pygame·中秋节
William数据分析35 分钟前
[Python数据可视化] Plotly:交互式数据可视化的强大工具
python·数据分析·数据可视化
风虎云龙科研服务器35 分钟前
OpenAI震撼发布新一代AI模型o1系列:解锁推理与数学新纪元
人工智能
Python大数据分析@42 分钟前
Python中给定一个数组a = [2,3,9,1,0],找出其中最大的一个数,并打印出来 求解?
python·算法·排序算法
吉小雨1 小时前
FlagEmbedding
python
MessiGo1 小时前
Python 入门教程(3)基础知识 | 3.3、标识符
java·开发语言·python