位置: IT常识 - 正文

ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

编辑:rootadmin
ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

推荐整理分享ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

这是一篇ICLR2023 top 5%论文 论文链接:https://openreview.net/pdf?id=vSVLM2j9eie 代码:https://github.com/Thinklab-SJTU/Crossformer

1. Multivariate Time Series Forecasting

MTS,多变量时序数据预测。利用MTS的历史值可以预测其未来的趋势,例如心电图(ECG),脑电图(EEG)脑磁图(MEG)的诊断以及系统监测等等都是固有的多变量问题。该任务数据每个实例序列拥有多个维度,是一个d维向量和m个观测值(时间序列)的列表,如下所示数据(借鉴自综述论文:《The great multivariate time series classification bake off: a review and experimental evaluation of recent algorithmic advances》)

2. 动机

MTS的核心额外复杂性在于,区别性特征可能存在于维度之间的相互作用中,而不仅仅存在于单个序列中的自相关性中。标准的Transformer中核心self-attention可能仅仅建模了单个序列的自相关性,忽略了跨维度的依赖关系。

此外,如下图所示,当数据序列很长时,计算复杂性高,但是可以观察到,接近的数据点具有相似的注意权重!

基于此,作者提出一个分层encoder-decoder框架Crossformer.

3. Crossformer

目标:输入一段历史序列x1:T∈RT×Dx_{1:T} \in \mathbb{R}^{T\times D}x1:T​∈RT×D,预测未来的一段序列xT+1:T+τ∈Rτ×Dx_{T+1:T+\tau} \in \mathbb{R}^{\tau \times D}xT+1:T+τ​∈Rτ×D.

3.1 Hierarchical Encoder-Decoder

作者提出一个新的层次Encoder-Decoder的架构,如下所示,由左边encoder(灰色)和右边decoder(浅橘色)组成。其主要包含Dimension-Segment-Wise (DSW) embedding,Two-Stage Attention (TSA)层和Linear Projection。

Dimension-Segment-Wise (DSW) embedding:为了将输入x1:T∈RT×Dx_{1:T} \in \mathbb{R}^{T\times D}x1:T​∈RT×D进行分segment,从而减少计算复杂性。如果最后每个序列要分成LLL个segment,每个序列dmodeld_{model}dmodel​的通道数,则最后的输入记为:Z∈RL×D×dmodelZ \in \mathbb{R}^{L \times D \times d_{model}}Z∈RL×D×dmodel​.Two-Stage Attention (TSA)层:捕获cross-time和cross-dimension依赖关系。替待原来的self-attention在encoder和decoder中的位置。Linear Projection:应用于每一个decoder层的输出,以产生该层的预测。对各层预测结果进行求和,得到最终预测结果xT+1:T+τpredx^{pred}_{T+1:T+\tau}xT+1:T+τpred​. 下面主要讲解DSW和TSA如何实现的!3.2 Dimension-Segment-Wise embedding (DSW)ICLR2023《Crossformer: Transformer Utilizing Cross-Dimension Dependency for Multivariate Time Series》

输入x1:T∈RT×Dx_{1:T} \in \mathbb{R}^{T\times D}x1:T​∈RT×D,表明输入包含TTT个序列,每个序列有DDD个维度。如下所示,如果我们分的每个segment的长度为LsegL_{seg}Lseg​,则每个序列中可以划分出TLseg\frac{T}{L_{seg}}Lseg​T​个segment,每个序列有DDD个维度,则整个输入共包含TLseg×D\frac{T}{L_{seg}} \times DLseg​T​×D个segment,故x1:Tx_{1:T}x1:T​可以记为:x1:T={xi,d(s)∣1≤i≤TLseg,1≤d≤D}x_{1:T}=\{x^{(s)}_{i,d}|1\le i \le \frac{T}{L_{seg}}, 1 \le d \le D \}x1:T​={xi,d(s)​∣1≤i≤Lseg​T​,1≤d≤D}。在ddd维度中的第iii个segment的size记为xi,d(s)∈R1×Lsegx^{(s)}_{i,d} \in \mathbb{R}^{1 \times L_{seg}}xi,d(s)​∈R1×Lseg​,然后使用线性投影和位置嵌入将每个段嵌入到一个向量中: 其中hi,d∈Rdmodelh_{i,d} \in \mathbb{R}^{d_{model}}hi,d​∈Rdmodel​,E∈Rdmodel×LsegE \in \mathbb{R}^{d_{model} \times L_{seg}}E∈Rdmodel​×Lseg​表示可学习的映射矩阵。Ei,d(pos)∈RdmodelE^{(pos)}_{i,d} \in \mathbb{R}^{d_{model}}Ei,d(pos)​∈Rdmodel​表示在(i,d)(i,d)(i,d)位置的可学习位置嵌入。

最后,可以获得一个2D的向量数组H={hi,d∣1≤i≤TLseg,1≤d≤D}∈RTLseg×D×dmodelH=\{ h_{i,d}|1 \le i \le \frac{T}{L_{seg}},1 \le d \le D \} \in \mathbb{R}^{\frac{T}{L_{seg}} \times D \times d_{model}}H={hi,d​∣1≤i≤Lseg​T​,1≤d≤D}∈RLseg​T​×D×dmodel​.

3.3 Two-Stage Attention (TSA)

由上可得输入现在为:H∈RTLseg×D×dmodelH \in \mathbb{R}^{\frac{T}{L_{seg}} \times D \times d_{model}}H∈RLseg​T​×D×dmodel​,为了方便,记L=TLsegL=\frac{T}{L_{seg}}L=Lseg​T​,则输入为H∈RL×D×dmodelH \in \mathbb{R}^{L \times D \times d_{model}}H∈RL×D×dmodel​。TSA主要由cross-time stage和 cross-dimension stage组成,如下图所示。

Cross-Time Stage 对于每个维度,包含所有时间序列。因此,对于ddd维度Z:,d∈RL×dmodelZ_{:,d} \in \mathbb{R}^{L \times d_{model}}Z:,d​∈RL×dmodel​上,cross-time依赖关系可记为: 其中1≤d≤D1 \le d \le D1≤d≤D,所有维度共享MSA(multi-head self-attention).Cross-Dimension Stage 对于每个时间点,包含所有维度。因此,对于第iii时间点Zi,:time∈RD×dmodelZ^{time}_{i,:} \in \mathbb{R}^{D \times d_{model}}Zi,:time​∈RD×dmodel​ 1)如果使用标准Transformer进行,如下图所示,可以很容易得到复杂性为O(D2)\mathcal{O}(D^2)O(D2)!总共有LLL个时间segment,因此总复杂性为O(D2L)\mathcal{O}(D^2L)O(D2L). 2)作者引入router机制,每个时间点共享。如下图所示,Ri,:∈Rc×dmodelR_{i,:} \in \mathbb{R}^{c×d_{model}}Ri,:​∈Rc×dmodel​ (ccc是常数)是作为路由器的可学习向量,作为第一个MSA的query. Bi,:∈Rc×dmodelB_{i,:} \in \mathbb{R}^{c×d_{model}}Bi,:​∈Rc×dmodel​,作为第二个MSA的key和value. 由上可知,第一个MSA复杂性为O(cDL)\mathcal{O}(cDL)O(cDL),第二个MSA也是如此,因此,最终复杂性为O(2cDL)\mathcal{O}(2cDL)O(2cDL),其中2c2c2c为常量,记复杂性变为O(DL)\mathcal{O}(DL)O(DL)!!4 实验

SOTA方法对比 更多对比方法:

消融实验

参数分析

复杂性分析

可视化

运行速度对比

5. 结论提出了Crossformer,一种基于transformer的模型,利用跨维度依赖进行多元时间序列(MTS)预测。DSW (dimension - segment - wise)嵌入:将输入数据嵌入到二维矢量数组中,以保留时间和维度信息。为了捕获嵌入式阵列的跨时间和跨维度依赖关系,设计两阶段注意(TSA)层。利用DSW嵌入和TSA层,设计了一种分层编码器(HED)来利用不同尺度的信息。

在6个数据集上的实验结果展示了该方法优于之前的先进技术。

以上仅为本人小记,有问题欢迎指出(●ˇ∀ˇ●)

本文链接地址:https://www.jiuchutong.com/zhishi/298902.html 转载请保留说明!

上一篇:vue3:安装配置sass(vue3 安装)

下一篇:unplugin-auto-import 和 unplugin-vue-components(unplugin-auto-import/vite)

  • 苹果13promax勿扰模式在哪(苹果13promax勿扰模式怎么设置)

    苹果13promax勿扰模式在哪(苹果13promax勿扰模式怎么设置)

  • iqooz5x有红外功能吗

    iqooz5x有红外功能吗

  • 小米手机锁屏密码忘了怎么解开(小米手机锁屏密码忘了不想清除数据怎么办)

    小米手机锁屏密码忘了怎么解开(小米手机锁屏密码忘了不想清除数据怎么办)

  • wifi已连接需登录认证(wifi连接需要登录)

    wifi已连接需登录认证(wifi连接需要登录)

  • 苹果x续航一般几个小时(苹果x的续航)

    苹果x续航一般几个小时(苹果x的续航)

  • qq密友值怎么清零(qq密友值怎么清空)

    qq密友值怎么清零(qq密友值怎么清空)

  • 微信信息超过两分钟还可以撤回吗(微信信息超过两分钟)

    微信信息超过两分钟还可以撤回吗(微信信息超过两分钟)

  • 钉钉在悬浮窗看算观看时长吗(钉钉悬浮窗看直播老师知道吗)

    钉钉在悬浮窗看算观看时长吗(钉钉悬浮窗看直播老师知道吗)

  • 抖音垂直作品是什么意思(抖音作品垂直是啥意思)

    抖音垂直作品是什么意思(抖音作品垂直是啥意思)

  • 荣耀30s后壳什么材质(华为荣耀30s后盖多少钱)

    荣耀30s后壳什么材质(华为荣耀30s后盖多少钱)

  • id被锁定是什么意思(id 被锁定)

    id被锁定是什么意思(id 被锁定)

  • ps新建通道怎么设置白色

    ps新建通道怎么设置白色

  • 手机能看空中课堂吗(手机看空中课堂回访)

    手机能看空中课堂吗(手机看空中课堂回访)

  • airpodspro美版和国行区别(airpodspro美版和国行序列号)

    airpodspro美版和国行区别(airpodspro美版和国行序列号)

  • 怎样把qq相册传到微信(怎样把qq相册传到电脑上)

    怎样把qq相册传到微信(怎样把qq相册传到电脑上)

  • 小爱音箱怎么连接手机热点(小爱音箱怎么连接qq音乐)

    小爱音箱怎么连接手机热点(小爱音箱怎么连接qq音乐)

  • 苹果xs参数配置详情(苹果xs参数配置尺寸)

    苹果xs参数配置详情(苹果xs参数配置尺寸)

  • ios13如何设置快速截图(ios13快捷键怎么设置)

    ios13如何设置快速截图(ios13快捷键怎么设置)

  • 老人手机sos怎么取消(老人手机sos是什么意思)

    老人手机sos怎么取消(老人手机sos是什么意思)

  • qq音乐购买的专辑是永久的吗(QQ音乐购买的专辑没有了)

    qq音乐购买的专辑是永久的吗(QQ音乐购买的专辑没有了)

  • 微信红包提醒红包来了(微信红包提醒红米手机怎么设置)

    微信红包提醒红包来了(微信红包提醒红米手机怎么设置)

  • win10 microsoft store如何修改下载路径?win10应用商店修改默认下载路径教程(win10 microsoft store怎么改变下载途径)

    win10 microsoft store如何修改下载路径?win10应用商店修改默认下载路径教程(win10 microsoft store怎么改变下载途径)

  • mac os x10.10wifi连接特别慢几分钟后自自行断开(macwifi配置)

    mac os x10.10wifi连接特别慢几分钟后自自行断开(macwifi配置)

  • 白沙国家公园中的石膏沙丘,新墨西哥 (© Grant Kaye/Cavan Images)(白沙国家公园中标公告)

    白沙国家公园中的石膏沙丘,新墨西哥 (© Grant Kaye/Cavan Images)(白沙国家公园中标公告)

  • 深聊测试开发之:从订单支付流程来聊一聊,如何预防重复支付,建议收藏。(深度测试软件)

    深聊测试开发之:从订单支付流程来聊一聊,如何预防重复支付,建议收藏。(深度测试软件)

  • 天猫提现一直没到账
  • 股东撤资涉及到哪些税如何缴纳?
  • 抄税是什么意思谁做的事情
  • 机票抵扣进项税怎么填申报表
  • 电子发票入账是什么意思
  • 营业总收入包括营业外收入吗
  • 2021成品油增值税计算
  • 附加税预缴分录
  • 到银行购买结算凭证
  • 筹建期间有收入怎么办
  • 非正常损失进项税额转出计算公式
  • 发票进项转出账务怎么做
  • 支付银行借款利息属于现金使用范围吗
  • 电脑在固定资产中属于哪一类
  • 工商年报中纳税总额包括工会经费吗
  • 应交增值税进项税额月底怎么处理
  • 递延收益可以是负数吗
  • 企业转让无形资产要交增值税吗
  • 本年应交增值税与销进项税额
  • 当月认证的发票当月一定要入账吗
  • 现金支付奖金
  • 运输公司造成的损耗
  • 股东分红账务处理后报表怎么处理
  • 公司股权转让会议决议
  • 营业外支出的核算内容包括
  • 怎么修改以前年度的账
  • php html5
  • centos6.5下载
  • docker搭建php
  • window10下载cad2014
  • 应税货物销售额怎么填
  • 债务人以固定资产债务重组
  • 融资性售后回租和融资租赁的区别
  • 库存商品的分类有哪些
  • springboot整合ssm
  • python的Django框架
  • 【GitHub Copilot X】基于GPT-4的全新智能编程助手
  • php二分查找算法两种方法
  • thinkphp if
  • 库存现金每月终了由谁清点
  • mysql binlog是什么
  • 发票整理归类汇总流程
  • 辞退员工福利
  • 金蝶软件如何输入红字
  • 增值税季度缴纳时间
  • 退物业费如何记帐
  • 工程施工与工程结算账务处理
  • 小规模纳税人月销售额超过10万怎么交税
  • 所得税费用的账目处理
  • 会计处理方法是什么意思
  • 实收资本如何进行核算
  • 完税证明和纳税证明一样吗
  • 融资租赁首付款的性质
  • 制造费用可以计提吗
  • 公司银行账号注销需要法人到场吗
  • 填收入与成本明细怎么填
  • 解析包错误怎么解除
  • mac截屏后的图片在哪里
  • wp_official_1.1.3.apk软件下载
  • windows7字体安装方法
  • win7用户账户控制设置电脑重启后恢复
  • win10控制面板中没有防火墙
  • 苹果mac外接显示器合上盖子怎么在显示器上继续
  • win8开机启动项
  • Win8用Ribbon Disabler工具关闭Ribbon功能区界面
  • 学习软件
  • cocos 2.5d
  • 骨骼动画程序设计
  • java list和array list区别
  • nodejs重启
  • android布局背景颜色的代码
  • div跟随滚动条移动
  • jquery中遍历指定的对象和数组是哪个方法
  • python利用range产生列表
  • java多线程编程实战指南
  • 河北电子税务局移动端
  • 河南省地方税务局房产税管理办法
  • 纳税申报期过了怎么申报
  • 江苏省常熟市归哪管
  • 关于切实加强建筑施工领域安全防范工作
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设