解决Linux服务器上下载pytorch速度过慢的问题

需要下载的是GPU版本的pytorch,版本torch=1.13.1+cu116

尝试方法1:

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116

但是默认是从官网下载,龟速到200kb/s左右

尝试方法2:

使用国内源,这在下载其他包时很有用, 镜像源可以大大加速 pip 下载速度,例如阿里云、清华大学、豆瓣等。

pip 国内镜像源_pip_李昊哲-小课-GitCode 开源社区

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116 -i https://pypi.tuna.tsinghua.edu.cn/simple

使用这种方式会从两个网址中查找安装包,清华源不存在安装包,仍然从官方下载

尝试方法3:(解决方式)

pytorch-wheels-cu116安装包下载_开源镜像站-阿里云 (aliyun.com)

注意这是当CUDA版本为11.6时的网站,需要对应自己的CUDA版本

torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl 注意cp311中的311指的是python版本,也需要与自己的python匹配,比如我的是3.8,我在Linux服务器中使用如下指令, 直接从指定的 URL 下载 .whl 文件并安装:

pip install https://mirrors.aliyun.com/pytorch-wheels/cu116/torch-1.13.1+cu116-cp38-cp38-linux_x86_64.whl

可以发现下载速度很快:

ps:也可以使用其他下载器(如迅雷)通过镜像网站手动下载.whl文件到本地,然后

pip install 保存位置/torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl

相关推荐
弥金18 分钟前
LangChain基础
人工智能·后端
普郎特27 分钟前
张三:从泥水匠到包工头的故事 *—— 深入浅出讲解 `run_in_executor()` 的工作原理*
python
不摸鱼29 分钟前
创业找不到方向?不妨从行业卧底开始 | 不摸鱼的独立开发者日报(第66期)
人工智能·开源·资讯
ReinaXue29 分钟前
大模型【进阶】(五):低秩适配矩阵LORA的深度认识
人工智能·深度学习·神经网络·语言模型·自然语言处理·transformer
小猪和纸箱29 分钟前
通过Python交互式控制台理解Conv1d的输入输出
pytorch
人生都在赌32 分钟前
AI Agent从工具到生态的秘密:我们踩过的坑和3个月实践教训
人工智能·ci/cd·devops
北极的树36 分钟前
大模型上下文工程之Prefix Caching技术详解
人工智能·ai编程
奇舞精选37 分钟前
prompt的参数调优入门指南 - 小白也能轻松掌握
人工智能·aigc
DisonTangor38 分钟前
商汤InternLM发布最先进的开源多模态推理模型——Intern-S1
人工智能·深度学习·开源·aigc
wayman_he_何大民38 分钟前
RAG系统架构:让AI学会"查资料"的魔法
人工智能