PyTorch LSTM 单步、多步时间预测

PyTorch LSTM 单步、多步时间预测

多维输入、多维输出;单步预测、多步滚动预测

python 复制代码
import torch
import torch.nn as nn
import torch.optim as optim

class LSTMModel(nn.Module):
    def __init__(self, input_dim, hidden_dim, num_layers, output_dim):
        super(LSTMModel, self).__init__()
        self.hidden_dim = hidden_dim
        self.num_layers = num_layers
        self.lstm = nn.LSTM(input_dim, hidden_dim, num_layers, batch_first=True)
        self.fc = nn.Linear(hidden_dim, output_dim)

    def forward(self, x):
        h0 = torch.zeros(self.num_layers, x.size(0), self.hidden_dim).to(x.device)
        c0 = torch.zeros(self.num_layers, x.size(0), self.hidden_dim).to(x.device)
        out, _ = self.lstm(x, (h0, c0))
        out = self.fc(out[:, -1, :])
        return out

# 超参数
input_dim = 400
hidden_dim = 64
num_layers = 2
output_dim = 1
num_epochs = 100
learning_rate = 0.001
batch_size = 32

# 初始化模型、损失函数和优化器
model = LSTMModel(input_dim, hidden_dim, num_layers, output_dim)
criterion = nn.MSELoss()
optimizer = optim.Adam(model.parameters(), lr=learning_rate)

# 示例训练代码(假设已经定义了train_loader)
for epoch in range(num_epochs):
    for i, (inputs, labels) in enumerate(train_loader):
        model.train()
        outputs = model(inputs)
        loss = criterion(outputs, labels)
        optimizer.zero_grad()
        loss.backward()
        optimizer.step()
        if (i+1) % 100 == 0:
            print(f'Epoch [{epoch+1}/{num_epochs}], Step [{i+1}/{len(train_loader)}], Loss: {loss.item():.4f}')

# 保存模型
torch.save(model.state_dict(), 'lstm_model_single_step.pth')

# 多步预测函数
def multi_step_predict(model, input_seq, future_steps):
    model.eval()  # 切换到评估模式
    predictions = []

    input_seq = input_seq.unsqueeze(0)  # 增加batch维度,shape变为 (1, seq_len, input_dim)

    for _ in range(future_steps):
        with torch.no_grad():  # 禁用梯度计算
            pred = model(input_seq)  # 预测下一个时间步
        predictions.append(pred.item())  # 存储预测值

        # 更新输入序列,将预测值添加到末尾,并移除最早的一个时间步
        input_seq = torch.cat((input_seq[:, 1:, :], pred.unsqueeze(0).unsqueeze(2)), dim=1)

    return predictions

# 示例调用
initial_input_seq = torch.randn(1, 155, 400)  # 假设这是的初始输入
future_steps = 10
predictions = multi_step_predict(model, initial_input_seq, future_steps)
print(predictions)
相关推荐
向量引擎小橙8 分钟前
从“对话助手”到“数字架构师”:Claude 4.6 Opus 如何凭一己之力,终结全球程序员的“CRUD 焦虑”?
人工智能·python·gpt·深度学习
shenxianasi21 分钟前
【论文精读】Flamingo: a Visual Language Model for Few-Shot Learning
人工智能·深度学习·机器学习·计算机视觉·语言模型·自然语言处理
Coding茶水间24 分钟前
基于深度学习的车牌识别系统演示与介绍(YOLOv12/v11/v8/v5模型+Pyqt5界面+训练代码+数据集)
开发语言·人工智能·深度学习·yolo·机器学习
冰西瓜60024 分钟前
深度学习的数学原理(三)—— 反向传播
人工智能·深度学习
隔壁大炮28 分钟前
第1章,机器学习与深度学习
人工智能·深度学习·机器学习
过期的秋刀鱼!30 分钟前
深度学习-神经网络层
人工智能·深度学习·神经网络
Suryxin.40 分钟前
从0开始复现nano-vllm「model_runner.py」上半篇之初始化分布式推理环境
人工智能·python·深度学习·机器学习·vllm
All The Way North-1 小时前
【LSTM系列·第三篇】单样本 vs Batch:LSTM全流程计算对比,彻底搞懂为何 h_t 与 c_t 维度必须相同
pytorch·rnn·深度学习·神经网络·lstm·序列模型·理论与工程
Quintus五等升1 小时前
深度学习自用笔记
人工智能·笔记·深度学习·学习·机器学习·bert·numpy
有Li1 小时前
解剖学引导的全身PET-CT乳腺癌分割与跨模态自对齐/文献速递-基于深度学习的图像配准与疾病诊断
论文阅读·人工智能·深度学习·文献·医学生