时序预测开源项目TimeMachine的布署教程

时序预测开源项目TimeMachine的布署教程

  • [1. 软硬件环境](#1. 软硬件环境)
  • [2. 前言](#2. 前言)
  • [3. 安装](#3. 安装)
    • [3.1 新建虚拟环境](#3.1 新建虚拟环境)
    • [3.2 安装Pytorch、CUDA](#3.2 安装Pytorch、CUDA)
    • [3.3 安装其他依赖](#3.3 安装其他依赖)
    • [3.4 测试](#3.4 测试)
      • [3.4.1 测试Pytorch是否正常工作](#3.4.1 测试Pytorch是否正常工作)
      • [3.4.2 验证Mamba是否可以正常工作](#3.4.2 验证Mamba是否可以正常工作)
  • [4. 安装方案 B:从源码重新编译 mamba-ssm/causal-conv1d](#4. 安装方案 B:从源码重新编译 mamba-ssm/causal-conv1d)

本教程用于安装时序预测开源项目TimeMachine

1. 软硬件环境

系统:Ubuntu 22.04

显卡:RTX 5090

CPU:Intel® Xeon® Gold 6530

2. 前言

我们在anaconda的虚拟环境中部署,首先需要确定python的版本。这需要从我们的硬件版本、驱动版本和开源项目的时间开始推理。已知我们的显卡为NVIDIA GeForce RTX 5090,项目最早验证版为2024年3月21日,NVIDIA GeForce RTX 5090则于2025年1月7日发布。很明显项目作者使用的不是RTX 5090。此时我们则需要主要考虑硬件的限制。

由显卡型号通过查表------CUDA GPU 计算能力(新)和旧款 CUDA GPU 计算能力可以确定对应的计算能力(CC),可知RTX 5090的CC为12.0。如果你安装了CUDA Toolkit,则可以通过下条命令,获得该CUDA版本支持的CC。

bash 复制代码
nvcc --list-gpu-arch

我们知道CUDA 12.8(2025年1月发布)才开始支持CC 12.0。同时通过下面这条指令获得当前显卡驱动支持的最高版本的CUDA,我们这里的为CUDA Version: 13.0

bash 复制代码
nvidia-smi

因此,可以选择一个支持的最早的版本,即CUDA 12.8。由此可以确定python版本,我们这里为python 10。

3. 安装

3.1 新建虚拟环境

bash 复制代码
conda create -n TM python=3.10
conda activate TM
cd ./Programs/
git clone https://github.com/Atik-Ahamed/TimeMachine.git
cd ./TimeMachine/TimeMachine_supervised/

3.2 安装Pytorch、CUDA

根据CUDA版本查表安装兼容的最老的pytorch版本,以保证尽量与开源项目的兼容性。

bash 复制代码
pip install torch==2.7.0 torchvision==0.22.0 torchaudio==2.7.0 --index-url https://download.pytorch.org/whl/cu128
pip install cuda-toolkit[all]==12.8.0

3.3 安装其他依赖

如果pip找不到自己推断出来的whl文件,pip会自动执行编译程序,但是编译程序需要CUDA nvcc的参与,如果不想安装CUDA nvcc,可以直接指定whl获取路径进行安装,注意搜索的包的文件名跟环境的对应。下面是mamba_ssmcausal_conv1d的直接whl安装方法。

bash 复制代码
pip install https://github.com/state-spaces/mamba/releases/download/v2.3.0/mamba_ssm-2.3.0+cu12torch2.7cxx11abiFALSE-cp310-cp310-linux_x86_64.whl
pip install https://github.com/Dao-AILab/causal-conv1d/releases/download/v1.6.0/causal_conv1d-1.6.0+cu12torch2.7cxx11abiFALSE-cp310-cp310-linux_x86_64.whl

再安装其他库

bash 复制代码
pip install -r requirements.txt

注意requirements.txt被修改了一下,内容如下,以保证兼容性

bash 复制代码
# Install specific versions of PyTorch and related libraries from a custom index URL

# mamba-ssm<=1.2.0
# https://github.com/Dao-AILab/causal-conv1d/releases/download/v1.2.0/causal_conv1d-1.2.0+cu118torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl
# causal-conv1d==1.2.0
# https://github.com/state-spaces/mamba/releases/download/v1.2.0/mamba_ssm-1.2.0+cu118torch2.1cxx11abiFALSE-cp38-cp38-linux_x86_64.whl

numpy<=1.26.4
matplotlib
pandas
scikit-learn
# torch<=2.2.1
mamba-ssm
causal-conv1d>=1.2.0

3.4 测试

3.4.1 测试Pytorch是否正常工作

torch.cuda.is_available() == True只能说明驱动能用、CUDA runtime 能初始化,但不代表当前这块GPU 的算力架构(sm_xx,Streaming Multiprocessor,流式多处理器)被你安装的PyTorch CUDA 轮子支持。下面定位:确认真正跑CUDA会不会炸

bash 复制代码
python - <<'PY'
import torch
print("torch:", torch.__version__)
print("cuda available:", torch.cuda.is_available())
print("device:", torch.cuda.get_device_name(0))
print("capability:", torch.cuda.get_device_capability(0))
print("arch_list:", torch.cuda.get_arch_list())
x = torch.randn(2,3, device="cuda")
y = x @ x.T
print("cuda matmul ok:", y)
PY

打印如下,说明正常运行

bash 复制代码
torch: 2.7.0+cu128
cuda available: True
device: NVIDIA GeForce RTX 5090
capability: (12, 0)
arch_list: ['sm_75', 'sm_80', 'sm_86', 'sm_90', 'sm_100', 'sm_120', 'compute_120']
cuda matmul ok: tensor([[ 3.7169, -0.4121],
        [-0.4121,  0.8361]], device='cuda:0')

3.4.2 验证Mamba是否可以正常工作

bash 复制代码
python - <<'PY'
import torch
print("torch:", torch.__version__, "cuda:", torch.version.cuda)
from mamba_ssm import Mamba
m = Mamba(d_model=64, d_state=16, d_conv=4, expand=2).cuda()
x = torch.randn(1, 128, 64, device="cuda")
y = m(x)
print("OK:", y.shape)
PY

如下打印说明Mamba可以正常工作

bash 复制代码
torch: 2.7.0+cu128 cuda: 12.8
OK: torch.Size([1, 128, 64])

4. 安装方案 B:从源码重新编译 mamba-ssm/causal-conv1d

这样更灵活,可以不受已经预编译的mamba-ssm/causal-conv1d的版本兼容性限制。在当前 torch 上本地编译,避免 wheel 不匹配。此时CUDA需要从conda中安装,而不是从pip安装。因为pip安装的虽然由nvcc,但是不能执行。

安装cuda-toolkit(注意不是cudatoolkit,有一个下划线的区别),从nvidia的通道安装,anaconda的主通道不包含全部版本。

bash 复制代码
conda install cuda-toolkit=12.8 -c nvidia

验证nvcc是否安装完成

bash 复制代码
nvcc -V

打印如下信息说明安装成功

bash 复制代码
nvcc: NVIDIA (R) Cuda compiler driver
Copyright (c) 2005-2025 NVIDIA Corporation
Built on Fri_Feb_21_20:23:50_PST_2025
Cuda compilation tools, release 12.8, V12.8.93
Build cuda_12.8.r12.8/compiler.35583870_0

再安装其他库

bash 复制代码
pip install -r requirements.txt
相关推荐
WJSKad12353 小时前
【深度学习】向日葵目标检测模型优化_1
深度学习·目标检测·目标跟踪
奔袭的算法工程师4 小时前
CRN源码详细解析(2)-- 图像骨干网络之Resnet18
网络·人工智能·深度学习·目标检测·自动驾驶
Quintus五等升4 小时前
深度学习③|分类任务—AlexNet
人工智能·经验分享·深度学习·神经网络·学习·机器学习·cnn
SeaTunnel5 小时前
Apache SeaTunnel MySQL CDC 支持按时间启动吗?
大数据·数据库·mysql·开源·apache·seatunnel
AI即插即用6 小时前
即插即用系列 | CVPR 2025 SegMAN: Mamba与局部注意力强强联合,多尺度上下文注意力的新SOTA
图像处理·人工智能·深度学习·目标检测·计算机视觉·视觉检测
FIT2CLOUD飞致云6 小时前
在线地图交互优化,查询组件选项值支持过滤条件,DataEase开源BI工具v2.10.19 LTS版本发布
开源·数据可视化·dataease·bi·数据大屏
血色橄榄枝6 小时前
01 Flutter for OpenHarmony
flutter·开源·鸿蒙
子午6 小时前
【2026原创】卫星遥感图像识别系统+Python+深度学习+人工智能+算法模型+TensorFlow
人工智能·python·深度学习
_ziva_6 小时前
大模型分词算法全解析:BPE、WordPiece、SentencePiece 实战对比
人工智能·深度学习·自然语言处理