【Transformer序列预测】Pytorch中构建Transformer对序列进行预测源代码

Python,Pytorch中构建Transformer进行序列预测源程序。包含所有的源代码和数据,程序能够一键运行。此程序是完整的Transformer,即使用了Encoder、Decoder和Embedding所有模块。源程序是用jupyterLab所写,建议分块运行。也整理了.py格式供PyCharm等运行。

工作是进行序列预测,此示例是使用12个值,来预测1个值。

具体工作如下:

1、加载数据。数据为Excel文件,525行,13列。即525个样本,前12列为数据,第13列为预测值(标签)。原序列长度为12,预测步长为1。为了符合Transformer的输入,将原始的1x12序列强行调整为3x4的格式,即序列长度=3,维度=4。这一步对于Transformer非常重要。依次划分70%、10%、20%作为训练集、验证集和测试集。

2、构建Encoder、Decoder类,进而构建Transformer。用summary显示网络结构。

3、训练,计算Loss。

4、测试,计算测试集R2、MAE、RMSE、MAPE,绘图。

注:程序关键部分都有注释,有基础的话容易替换数据,可替换任意长度数据。可有偿帮忙替换数据。原程序跑不通可远程帮忙调通。

整理不易,价格低廉,唯一渠道为闲鱼售卖,价格19元。近来有许多用户盗版本人程序,私聊后还拒不承认。。。因此本程序已于2024.12.04在淘天知识产权进行了备案,如有盗版将追究。

【闲鱼链接】:https://m.tb.cn/h.TWN65OE?tk=cweO3FAVwan CZ001

如果链接失效,可在闲鱼搜索:耐心的等待5283 ,然后点"用户"即可找到个人主页下的程序。

相关推荐
von Neumann22 分钟前
大模型从入门到应用——HuggingFace:Transformers-[AutoClass]
人工智能·深度学习·机器学习·ai·大模型·huggingface
羊小猪~~1 小时前
【论文精度】Transformer---大模型基石
人工智能·深度学习·考研·算法·机器学习·transformer
scott1985122 小时前
扩散模型之(十六)生成高分辨率图像
人工智能·深度学习
zzh940772 小时前
GPT-4o与Gemini 3镜像站背后的算力与工程:大模型训练基础设施拆解
人工智能·深度学习·架构
CoovallyAIHub2 小时前
AAAI 2026 | 华中科大联合清华等提出Anomagic:跨模态提示零样本异常生成+万级AnomVerse数据集(附代码)
深度学习·算法·计算机视觉
bryant_meng3 小时前
【Hung-yi Lee】《Introduction to Generative Artificial Intelligence》(4)
人工智能·深度学习·llm·aigc·业界资讯
文艺小码农3 小时前
pytorch(GPU版)安装教程
人工智能·pytorch·python
韭菜盖饭4 小时前
大模型常见八股集合(带答案)
语言模型·自然语言处理·面试·transformer
剑穗挂着新流苏3124 小时前
113_站在巨人的肩膀上:PyTorch 经典模型(VGG16)的获取与自定义修改
人工智能·pytorch·python
诶尔法Alpha4 小时前
jetson设备上自己手动编译适配版本的pytorch全过程,及报错的解决方法
pytorch·nvidia·jetson·torchvision