时序预测开源项目TimeMachine的布署教程

时序预测开源项目TimeMachine的布署教程

  • [1. 软硬件环境](#1. 软硬件环境)
  • [2. 前言](#2. 前言)
  • [3. 安装](#3. 安装)
    • [3.1 新建虚拟环境](#3.1 新建虚拟环境)
    • [3.2 安装Pytorch、CUDA](#3.2 安装Pytorch、CUDA)
    • [3.3 安装其他依赖](#3.3 安装其他依赖)
    • [3.4 测试](#3.4 测试)
      • [3.4.1 测试Pytorch是否正常工作](#3.4.1 测试Pytorch是否正常工作)
      • [3.4.2 验证Mamba是否可以正常工作](#3.4.2 验证Mamba是否可以正常工作)
  • [4. 安装方案 B:从源码重新编译 mamba-ssm/causal-conv1d](#4. 安装方案 B:从源码重新编译 mamba-ssm/causal-conv1d)

本教程用于安装时序预测开源项目TimeMachine

1. 软硬件环境

系统:Ubuntu 22.04

显卡:RTX 5090

CPU:Intel® Xeon® Gold 6530

2. 前言

我们在anaconda的虚拟环境中部署,首先需要确定python的版本。这需要从我们的硬件版本、驱动版本和开源项目的时间开始推理。已知我们的显卡为NVIDIA GeForce RTX 5090,项目最早验证版为2024年3月21日,NVIDIA GeForce RTX 5090则于2025年1月7日发布。很明显项目作者使用的不是RTX 5090。此时我们则需要主要考虑硬件的限制。

由显卡型号通过查表------CUDA GPU 计算能力(新)和旧款 CUDA GPU 计算能力可以确定对应的计算能力(CC),可知RTX 5090的CC为12.0。如果你安装了CUDA Toolkit,则可以通过下条命令,获得该CUDA版本支持的CC。

bash 复制代码
nvcc --list-gpu-arch

我们知道CUDA 12.8(2025年1月发布)才开始支持CC 12.0。同时通过下面这条指令获得当前显卡驱动支持的最高版本的CUDA,我们这里的为CUDA Version: 13.0

bash 复制代码
nvidia-smi

因此,可以选择一个支持的最早的版本,即CUDA 12.8。由此可以确定python版本,我们这里为python 10。

3. 安装

3.1 新建虚拟环境

bash 复制代码
conda create -n TM python=3.10
conda activate TM
cd ./Programs/
git clone https://github.com/Atik-Ahamed/TimeMachine.git
cd ./TimeMachine/TimeMachine_supervised/

3.2 安装Pytorch、CUDA

根据CUDA版本查表安装兼容的最老的pytorch版本,以保证尽量与开源项目的兼容性。

bash 复制代码
pip install torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu128
pip install cuda-toolkit[all]==12.8.0

3.3 安装其他依赖

如果pip找不到自己推断出来的whl文件,pip会自动执行编译程序,但是编译程序需要CUDA nvcc的参与,如果不想安装CUDA nvcc,可以直接指定whl获取路径进行安装,注意搜索的包的文件名跟环境的对应。下面是mamba_ssmcausal_conv1d的直接whl安装方法。

bash 复制代码
pip install https://github.com/state-spaces/mamba/releases/download/v2.3.0/mamba_ssm-2.3.0+cu12torch2.7cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
pip install https://github.com/Dao-AILab/causal-conv1d/releases/download/v1.6.0/causal_conv1d-1.6.0+cu12torch2.7cxx11abiFALSE-cp310-cp310-linux_x86_64.whl

再安装其他库

bash 复制代码
pip install -r requirements.txt

注意requirements.txt被修改了一下,内容如下,以保证兼容性

bash 复制代码
# Install specific versions of PyTorch and related libraries from a custom index URL

# mamba-ssm<=1.2.0
# https://github.com/Dao-AILab/causal-conv1d/releases/download/v1.2.0/causal_conv1d-1.2.0+cu118torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl
# causal-conv1d==1.2.0
# https://github.com/state-spaces/mamba/releases/download/v1.2.0/mamba_ssm-1.2.0+cu118torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl

numpy<=1.26.4
matplotlib
pandas
scikit-learn
# torch<=2.2.1
mamba-ssm
causal-conv1d>=1.2.0

3.4 测试

3.4.1 测试Pytorch是否正常工作

torch.cuda.is_available() == True只能说明驱动能用、CUDA runtime 能初始化,但不代表当前这块GPU 的算力架构(sm_xx,Streaming Multiprocessor,流式多处理器)被你安装的PyTorch CUDA 轮子支持。下面定位:确认真正跑CUDA会不会炸

bash 复制代码
python - <<'PY'
import torch
print("torch:", torch.__version__)
print("cuda available:", torch.cuda.is_available())
print("device:", torch.cuda.get_device_name(0))
print("capability:", torch.cuda.get_device_capability(0))
print("arch_list:", torch.cuda.get_arch_list())
x = torch.randn(2,3, device="cuda")
y = x @ x.T
print("cuda matmul ok:", y)
PY

打印如下,说明正常运行

bash 复制代码
torch: 2.7.0+cu128
cuda available: True
device: NVIDIA GeForce RTX 5090
capability: (12, 0)
arch_list: ['sm_75', 'sm_80', 'sm_86', 'sm_90', 'sm_100', 'sm_120', 'compute_120']
cuda matmul ok: tensor([[ 3.7169, -0.4121],
        [-0.4121,  0.8361]], device='cuda:0')

3.4.2 验证Mamba是否可以正常工作

bash 复制代码
python - <<'PY'
import torch
print("torch:", torch.__version__, "cuda:", torch.version.cuda)
from mamba_ssm import Mamba
m = Mamba(d_model=64, d_state=16, d_conv=4, expand=2).cuda()
x = torch.randn(1, 128, 64, device="cuda")
y = m(x)
print("OK:", y.shape)
PY

如下打印说明Mamba可以正常工作

bash 复制代码
torch: 2.7.0+cu128 cuda: 12.8
OK: torch.Size([1, 128, 64])

4. 安装方案 B:从源码重新编译 mamba-ssm/causal-conv1d

这样更灵活,可以不受已经预编译的mamba-ssm/causal-conv1d的版本兼容性限制。在当前 torch 上本地编译,避免 wheel 不匹配。此时CUDA需要从conda中安装,而不是从pip安装。因为pip安装的虽然由nvcc,但是不能执行。

安装cuda-toolkit(注意不是cudatoolkit,有一个下划线的区别),从nvidia的通道安装,anaconda的主通道不包含全部版本。

bash 复制代码
conda install cuda-toolkit=12.8 -c nvidia

验证nvcc是否安装完成

bash 复制代码
nvcc -V

打印如下信息说明安装成功

bash 复制代码
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2025 NVIDIA Corporation
Built on Fri_Feb_21_20:23:50_PST_2025
Cuda compilation tools, release 12.8, V12.8.93
Build cuda_12.8.r12.8/compiler.35583870_0

再安装其他库

bash 复制代码
pip install -r requirements.txt
相关推荐
提子拌饭1332 小时前
风息时钟:鸿蒙Flutter 实现的自然风格时钟应用
flutter·华为·架构·开源·harmonyos
莫回首�3 小时前
ubuntu 20.04 多网卡配置,遇到问题总结
linux·网络·ubuntu
迷藏4946 小时前
**发散创新:基于Rust实现的开源合规权限管理框架设计与实践**在现代软件架构中,**权限控制(RBAC)** 已成为保障
java·开发语言·python·rust·开源
jinanwuhuaguo6 小时前
截止到4月8日,OpenClaw 2026年4月更新深度解读剖析:从“能力回归”到“信任内建”的范式跃迁
android·开发语言·人工智能·深度学习·kotlin
AI人工智能+7 小时前
一种以深度学习与计算机视觉技术为核心的表格识别系统,实现了结构化、半结构化表格的精准文字提取、布局解析与版面完整还原
深度学习·计算机视觉·ocr·表格识别
问简7 小时前
ubuntu24 主题经验
ubuntu
杨云龙UP7 小时前
从0到1快速学会Linux操作系统(基础),这一篇就够了!
linux·运维·服务器·学习·ubuntu·centos·ssh
HXQ_晴天7 小时前
Ubuntu 设置中文输入法
linux·运维·ubuntu
0vvv07 小时前
删除wsl环境下的Ubuntu系统
linux·运维·ubuntu
@土豆7 小时前
Ubuntu 22.04 运行 Filebeat 7.11.2 崩溃问题分析及解决文档
linux·数据库·ubuntu