时间序列预测任务下探索深度学习参数对模型预测性能的影响

时间序列相关的项目在我之前的很多博文中都有涉及,覆盖的数据领域也是比较广泛的,很多任务或者是项目中往往是搭建出来指定的模型之后就基本完成任务了,比较少去通过实验的维度去探索分析不同参数对模型性能的影响,这两天正好有时间也有这么个机会,就想着从这个角度做点事情来对模型产生的结果进行分析。

数据可以使用任意时序的数据都是可以的,本质都是时间序列的数据即可。简单的实例数据如下所示:

参考前面的博文即可知晓如何将时序数据转化为标准的预测数据集,这里就不再赘述了。

这里主要是想从实验角度来分析结果,基础模型构建如下所示,首先考虑的是模型层数产生的影响,这里层数从1叠加至3层:

python 复制代码
def initModel(steps, features):
    """
    模型初始化
    """
    model = Sequential()
    model.add(
        LSTM(
            64,
            activation="relu",
            input_shape=(steps, features),
            kernel_regularizer=l2(0.001),
            return_sequences=False,
        )
    )
    model.add(Dense(features))
    model.compile(optimizer="adam", loss="mse")
    return model

结果如下所示:

接下来是两层的,如下所示:

python 复制代码
def initModel(steps, features):
    """
    模型初始化
    """
    model = Sequential()
    model.add(
        LSTM(
            64,
            activation="relu",
            input_shape=(steps, features),
            kernel_regularizer=l2(0.001),
            return_sequences=True,
        )
    )
    model.add(LSTM(64, activation="relu", kernel_regularizer=l2(0.001)))
    model.add(Dense(features))
    model.compile(optimizer="adam", loss="mse")
    return model

结果如下所示:

最后是3层的,如下所示:

python 复制代码
def initModel(steps, features):
    """
    模型初始化
    """
    model = Sequential()
    model.add(
        LSTM(
            64,
            activation="relu",
            input_shape=(steps, features),
            kernel_regularizer=l2(0.001),
            return_sequences=True,
        )
    )
    model.add(LSTM(64, activation="relu", kernel_regularizer=l2(0.001),return_sequences=True))
    model.add(LSTM(64, activation="relu", kernel_regularizer=l2(0.001)))
    model.add(Dense(features))
    model.compile(optimizer="adam", loss="mse")
    return model

结果如下所示:

直观体验下来是层数的增加并没有带来提升,反而是带来了崩溃式的结果。

接下来想要看下同样结构下,改变参数值带来的变化。

简单的实例如下所示:

python 复制代码
def initModel(steps, features):
    """
    模型初始化
    """
    model = Sequential()
    model.add(
        LSTM(
            128,
            activation="relu",
            input_shape=(steps, features),
            kernel_regularizer=l2(0.001),
            return_sequences=False,
        )
    )
    model.add(Dense(features))
    model.compile(optimizer="adam", loss="mse")
    return model

结果如下所示:

接下来同样的思路改变参数,结果如下所示:

参数的调整能带来一定的改变但是限定在一定的复读内,接下来考虑借鉴之前目标检测里面的方案来改造设计新的结构,借助于搜索技术可以事半功倍,结果如下所示:

可以看到:结果有了质的提升。后面有时间再继续深度研究下。

相关推荐
刘什么洋啊Zz1 小时前
MacOS下使用Ollama本地构建DeepSeek并使用本地Dify构建AI应用
人工智能·macos·ai·ollama·deepseek
奔跑草-2 小时前
【拥抱AI】GPT Researcher 源码试跑成功的心得与总结
人工智能·gpt·ai搜索·deep research·深度检索
禁默3 小时前
【第四届网络安全、人工智能与数字经济国际学术会议(CSAIDE 2025】网络安全,人工智能,数字经济的研究
人工智能·安全·web安全·数字经济·学术论文
boooo_hhh4 小时前
深度学习笔记16-VGG-16算法-Pytorch实现人脸识别
pytorch·深度学习·机器学习
AnnyYoung4 小时前
华为云deepseek大模型平台:deepseek满血版
人工智能·ai·华为云
INDEMIND5 小时前
INDEMIND:AI视觉赋能服务机器人,“零”碰撞避障技术实现全天候安全
人工智能·视觉导航·服务机器人·商用机器人
慕容木木5 小时前
【全网最全教程】使用最强DeepSeekR1+联网的火山引擎,没有生成长度限制,DeepSeek本体的替代品,可本地部署+知识库,注册即可有750w的token使用
人工智能·火山引擎·deepseek·deepseek r1
南 阳5 小时前
百度搜索全面接入DeepSeek-R1满血版:AI与搜索的全新融合
人工智能·chatgpt
企鹅侠客6 小时前
开源免费文档翻译工具 可支持pdf、word、excel、ppt
人工智能·pdf·word·excel·自动翻译
冰淇淋百宝箱6 小时前
AI 安全时代:SDL与大模型结合的“王炸组合”——技术落地与实战指南
人工智能·安全