Transformer预测 | 基于WTC+transformer时间序列组合预测模型(pytorch)

目录

      • 效果一览
      • 基本介绍
      • 程序设计
      • 参考资料

效果一览

Transformer预测 | 基于WTC+transformer时间序列组合预测模型(pytorch)_第1张图片

Transformer预测 | 基于WTC+transformer时间序列组合预测模型(pytorch)_第2张图片

基本介绍

WTC+transformer时间序列组合预测模型
WTC,transformer
创新点,超级新。先发先得,高精度代码。
预测主模型transformer也可以改其他WTC-former系列,比如WTC-informer/autoformer等等,代码还也可以继续缝合创新点,优化方法。需要的也可以发要求给我定制。
WTC卷积机制是2024年7月15日发表的卷积结构(热乎的超级新,新的不能在新了)。人们尝试通过增加卷积神经网络Q(CNN)内核的大小来模拟视觉变换器(VITs)自注意力模块的全局感受野。然而,这种方法很快就遇到了上限,并在达到全局感受野之前就已饱和。
原来WTC卷积是用来做图像的,本代码尝试将它转移用到时间序列中,二维转一维,利用WTC卷积进行特征提取,将提取的结果放入transformer进行预测࿰

你可能感兴趣的:(#,Transformer模型,transformer,深度学习,时间序列预测,WTC+transformer)