当前位置: 首页 > news >正文

【论文阅读】基于深度学习的时序预测——Crossformer

系列文章链接
论文一:2020 Informer:长时序数据预测
论文二:2021 Autoformer:长序列数据预测
论文三:2022 FEDformer:长序列数据预测
论文四:2022 Non-Stationary Transformers:非平稳性时序预测
论文五:2022 Pyraformer:基于金字塔图结构的时序预测
论文六:2023 Crossformer:多变量时序预测
论文七:2023 LSFT-Linear:质疑transformer能力的线性预测模型

论文链接:https://openreview.net/forum?id=vSVLM2j9eie
github链接:https://github.com/Thinklab-SJTU/Crossformer
参考解读:https://blog.csdn.net/qq_33431368/article/details/129483613

上海交通大学发表的论文,主要是解决多个变量之间时序关系的建模,解决基于多变量指标的时序数据处理,本文的创新点主要提现在以下几点:

  1. Dimension-Segment-Wise Embedding:对于多维时间序列,应该对每个维度的数据进行单独的数据表征,而不是在每个点位基于所有维度的数据进行数据表征,因此本文针对每个维度的指标进行独立向量化表征(线性转换+位置编码),更好地捕捉单变量的数据信息;
    在这里插入图片描述

  2. Two-Stage注意力模块:第一步是时间维度的注意力机制,采用传统的时序transformer思想进行单维度内的时序数据建模;然后第二步再进行空间维度的建模,也就是提取多个变量之间的关联信息,也就是在变量维度进行attention计算,但是这样计算复杂度会很高,本文设计了中间变量运算简化了计算;在这里插入图片描述

  3. 多层级Encoder-Decoder:由于上一步会进行two-stage的注意力运算,因此在Decoder中会分别对不同阶段的结果进行解码,模型的输入最开始是细粒度patch,随着层数增加逐渐聚合成更粗粒度的patch。这种形式可以让模型从不同的粒度提取信息,也有点像空洞卷积的架构。Decoder会利用不同层次的编码进行预测,各层的预测结果加和到一起,得到最终的预测结果(参考描述)。

http://www.lryc.cn/news/120116.html

相关文章:

  • 谷粒商城第十一天-完善商品分组(主要添上关联属性)
  • C++笔记之函数参数列表中设置默认值
  • Verilog求log10和log2近似
  • 二叉树小结
  • vue二进制下载
  • c++QT文件操作
  • Jmeter —— jmeter设置HTTP信息头管理器模拟请求头
  • vue 图片转pdf
  • 20.5 HTML 媒体
  • 科大讯飞分类算法挑战赛2023的一些经验总结
  • 2023年京东按摩仪行业数据分析(京东销售数据分析)
  • 【C语言】进阶指针,超详解,含丰富代码示例
  • wireshark入门指北
  • 18、SQL注入之堆叠及WAF绕过注入
  • nodejs+vue+elementui+express旅游出行指南网站_655ms
  • 【心电图信号压缩】ECG信号压缩与通过三次样条近似重建的ECG信号压缩研究(Matlab代码实现)
  • matlab使用教程(11)—创建随机数
  • 一、安全世界观
  • 爬虫014_文件操作_打开关闭_读写_序列化_反序列化---python工作笔记033
  • 企业前后端分离软件架构如何设计?
  • 生产执行MES系统:提升企业灵活性和响应速度的关键利器
  • 什么是分布式系统,如何学习分布式系统
  • 数据库锁表 Lock wait timeout exceeded; try restarting transaction
  • Oracle 知识篇+分区表上的索引由global改为local注意事项
  • 基于2.4G RF开发的无线游戏手柄解决方案
  • Python之一:基础信息
  • K8S系列文章之 Traefik快速入门
  • RabbitMQ在CentOS下的安装
  • 为什么金鸣识别不做成离线版?
  • 什么是面向对象