解决Linux服务器上下载pytorch速度过慢的问题

需要下载的是GPU版本的pytorch,版本torch=1.13.1+cu116

尝试方法1:

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116

但是默认是从官网下载,龟速到200kb/s左右

尝试方法2:

使用国内源,这在下载其他包时很有用, 镜像源可以大大加速 pip 下载速度,例如阿里云、清华大学、豆瓣等。

pip 国内镜像源_pip_李昊哲-小课-GitCode 开源社区

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116 -i https://pypi.tuna.tsinghua.edu.cn/simple

使用这种方式会从两个网址中查找安装包,清华源不存在安装包,仍然从官方下载

尝试方法3:(解决方式)

pytorch-wheels-cu116安装包下载_开源镜像站-阿里云 (aliyun.com)

注意这是当CUDA版本为11.6时的网站,需要对应自己的CUDA版本

torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl 注意cp311中的311指的是python版本,也需要与自己的python匹配,比如我的是3.8,我在Linux服务器中使用如下指令, 直接从指定的 URL 下载 .whl 文件并安装:

pip install https://mirrors.aliyun.com/pytorch-wheels/cu116/torch-1.13.1+cu116-cp38-cp38-linux_x86_64.whl

可以发现下载速度很快:

ps:也可以使用其他下载器(如迅雷)通过镜像网站手动下载.whl文件到本地,然后

pip install 保存位置/torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl

相关推荐
无垠的广袤几秒前
ChatECNU 大语言模型与 PicoClaw 部署
人工智能·语言模型·自然语言处理·嵌入式·树莓派
MediaTea10 分钟前
Python:collections.Counter 常用函数及应用
开发语言·python
爱淋雨的男人12 分钟前
自动驾驶感知相关算法
人工智能·算法·自动驾驶
互联网科技看点13 分钟前
AI算力爆发叠加数据资产风口,铂拉锐科技布局去中心化数字生态
人工智能·科技·去中心化
如若12316 分钟前
flash-attn 安装失败?从报错到成功的完整排雷指南(CUDA 12.8 + PyTorch 2.7)
人工智能·pytorch·python
007张三丰18 分钟前
知乎高赞回答爬虫:从零开始,建立你的专属知识库
爬虫·python·知识库·python爬虫·知乎·高赞回答
七牛云行业应用21 分钟前
GPT-5.4能力前瞻:解析原生电脑操控(Computer Use)原理与Agent架构构建
人工智能·chatgpt·大语言模型·ai agent·mcp协议
带娃的IT创业者24 分钟前
Prompt Engineering 进阶:让 AI 写出人类味道(完整指南)
人工智能·大模型·llm·prompt·写作技巧·ai 教学
简佐义的博客32 分钟前
转录组数据分析实战,仅需99元(视频版)
大数据·人工智能·数据挖掘·数据分析·音视频
bst@微胖子32 分钟前
OpenCV 案例一【人脸检测】
人工智能·opencv·计算机视觉