记录:采用安装.whl而非编译的一种环境配置思路

近期在配置manba vision的环境,其需要下载一个要编译的包mamba-ssm。编译过程耗时很长且容易因为CUDA版本不一致而编译失败。

在AUTODL平台的pip默认是从阿里云下载,至于从github上下载release的.whl文件无法做到,因此采用办法:先从Releases · state-spaces/mamba中下载对应的.whl文件。

这里我选择的是mamba_ssm-2.2.4+cu12torch2.5cxx11abiFALSE-cp312-cp312-linux_x86_64

也即cu12版本,torch 2.5,python3.12

然后再把.whl文件上传到AUTODL平台,再用pip install ****.whl文件来安装。

相关推荐
聆风吟º1 小时前
CANN开源项目深度实践:基于amct-toolkit实现自动化模型量化与精度保障策略
运维·开源·自动化·cann
较劲男子汉5 小时前
CANN Runtime零拷贝传输技术源码实战 彻底打通Host与Device的数据传输壁垒
运维·服务器·数据库·cann
心疼你的一切5 小时前
昇腾CANN实战落地:从智慧城市到AIGC,解锁五大行业AI应用的算力密码
数据仓库·人工智能·深度学习·aigc·智慧城市·cann
风流倜傥唐伯虎5 小时前
Spring Boot Jar包生产级启停脚本
java·运维·spring boot
Doro再努力5 小时前
【Linux操作系统10】Makefile深度解析:从依赖推导到有效编译
android·linux·运维·服务器·编辑器·vim
senijusene5 小时前
Linux软件编程:IO编程,标准IO(1)
linux·运维·服务器
chian-ocean5 小时前
量化加速实战:基于 `ops-transformer` 的 INT8 Transformer 推理
人工智能·深度学习·transformer
忧郁的橙子.5 小时前
02-本地部署Ollama、Python
linux·运维·服务器
醇氧5 小时前
【linux】查看发行版信息
linux·运维·服务器
水月wwww5 小时前
【深度学习】卷积神经网络
人工智能·深度学习·cnn·卷积神经网络