解决Linux服务器上下载pytorch速度过慢的问题

需要下载的是GPU版本的pytorch,版本torch=1.13.1+cu116

尝试方法1:

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 torchaudio==0.13.1 --extra-index-url https://download.pytorch.org/whl/cu116

但是默认是从官网下载,龟速到200kb/s左右

尝试方法2:

使用国内源,这在下载其他包时很有用, 镜像源可以大大加速 pip 下载速度,例如阿里云、清华大学、豆瓣等。

pip 国内镜像源_pip_李昊哲-小课-GitCode 开源社区

pip install torch==1.13.1+cu116 torchvision==0.14.1+cu116 --extra-index-url https://download.pytorch.org/whl/cu116 -i https://pypi.tuna.tsinghua.edu.cn/simple

使用这种方式会从两个网址中查找安装包,清华源不存在安装包,仍然从官方下载

尝试方法3:(解决方式)

pytorch-wheels-cu116安装包下载_开源镜像站-阿里云 (aliyun.com)

注意这是当CUDA版本为11.6时的网站,需要对应自己的CUDA版本

torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl 注意cp311中的311指的是python版本,也需要与自己的python匹配,比如我的是3.8,我在Linux服务器中使用如下指令, 直接从指定的 URL 下载 .whl 文件并安装:

pip install https://mirrors.aliyun.com/pytorch-wheels/cu116/torch-1.13.1+cu116-cp38-cp38-linux_x86_64.whl

可以发现下载速度很快:

ps:也可以使用其他下载器(如迅雷)通过镜像网站手动下载.whl文件到本地,然后

pip install 保存位置/torch-1.13.1+cu116-cp311-cp311-linux_x86_64.whl

相关推荐
shangjian0072 小时前
AI-大语言模型LLM-Transformer架构4-多头注意力、掩码注意力、交叉注意力
人工智能·语言模型·transformer
努力犯错2 小时前
如何使用AI图片扩展器扩展图片边界:2026年完整指南
人工智能
晨非辰2 小时前
Linux权限管理速成:umask掩码/file透视/粘滞位防护15分钟精通,掌握权限减法与安全协作模型
linux·运维·服务器·c++·人工智能·后端
丝斯20113 小时前
AI学习笔记整理(63)——大模型对齐与强化学习
人工智能·笔记·学习
延凡科技6 小时前
无人机低空智能巡飞巡检平台:全域感知与智能决策的低空作业中枢
大数据·人工智能·科技·安全·无人机·能源
2501_941329726 小时前
YOLOv8-SEAMHead改进实战:书籍检测与识别系统优化方案
人工智能·yolo·目标跟踪
晓翔仔8 小时前
【深度实战】Agentic AI 安全攻防指南:基于 CSA 红队测试手册的 12 类风险完整解析
人工智能·安全·ai·ai安全
百家方案8 小时前
2026年数据治理整体解决方案 - 全1066页下载
大数据·人工智能·数据治理
北京耐用通信8 小时前
工业自动化中耐达讯自动化Profibus光纤链路模块连接RFID读写器的应用
人工智能·科技·物联网·自动化·信息与通信
Hgfdsaqwr9 小时前
Django全栈开发入门:构建一个博客系统
jvm·数据库·python