位置: IT常识 - 正文

基于Transformer的交通预测模型部分汇总【附源代码】(基于transformer的文本分类)

编辑:rootadmin
基于Transformer的交通预测模型部分汇总【附源代码】

推荐整理分享基于Transformer的交通预测模型部分汇总【附源代码】(基于transformer的文本分类),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:基于transformer的超分辨率重建,基于transformer的机器翻译,基于transformer的文本分类,基于transformer的神经网络,基于transformer的神经网络,基于transformer的机器翻译,基于transformer的情感分析,基于transformer的情感分析,内容如对您有帮助,希望把文章链接给更多的朋友!

交通预测一直是一个重要的问题,它涉及到交通运输系统的可靠性和效率。随着人工智能的发展,越来越多的研究者开始使用深度学习模型来解决这个问题。其中,基于Transformer的交通预测模型在近年来备受关注,因为它们具有优秀的建模能力和较好的预测准确性。

本文将介绍几个基于Transformer的交通预测模型,欢迎讨论。如有错误,也请指正。

目录1. STTN(2020)2. Traffic Transformer(T-ITS 2021)3. ASTGNN(TKDE 2021)4. MGT(Neurocomputing 2022)5. ASTTN(2022)6. PDFormer(AAAI 2023)参考1. STTN(2020)

论文:[2001.02908] Spatial-Temporal Transformer Networks for Traffic Flow Forecasting

代码:GitHub - Lin956/STTNS: Spatial-Temporal Transformer Networks for Traffic Flow Forecasting

作者:Xu M, Dai W, Liu C, et al.

针对问题:

动态空间相关性:空间相关性随时间变化(实时的交通状况和交通流方向) <—— 设计了一种GNN变体,spatial transformer建模时变有向空间相关性;

长期时间相关性:长期时间相关性(短期<30min,长期>=30min)考虑得少,且过去自回归方法存在误差累积问题<—— 设计了 temporal transformer实现长期多步预测。

模型设计:

所提出的STTN(Spatial-Temporal Transformer Network)由堆叠的时空块和预测层组成。每个时空块由一个空间transformer和一个时间transformer组成,共同提取上下文动态依赖的时空特征。时空块可以进一步堆叠,形成深层时空特征的深层模型。然后,预测层利用两个1 × 1卷积层聚合这些时空特征进行交通预测。

在空间transformer中包含固定图卷积层(Fixed Graph,使用图卷积捕获平稳的空间依赖关系)、动态图卷积层(Dynamical Graph,使用多头自注意力捕获动态双向的空间依赖关系,节点特征用在前馈神经网络中)以及门控机制(融合上述固定与动态的空间特征)。

2. Traffic Transformer(T-ITS 2021)

论文:[2104.05163] Learning dynamic and hierarchical traffic spatiotemporal features with Transformer

代码:暂未找到

作者:Yan H, Ma X, Pu Z.

针对问题:

GNN的局限性:

难以获得完美的邻接矩阵:不能简单基于距离<——设计了全局编码器与全局-局部编码器分别提取全局空间特征和局部空间特征;大部分邻接矩阵是固定的:交通流量会根据交通状况改变<——注意力机制实现动态捕获;没有深度和等级:使用多个邻接矩阵的方法,大多都采用直接相加或拼接,没法学习不同层次的交通时空特征<——多个全局编码器和全局局部解码器块堆叠实现分层提取特征。

模型设计:

Traffic Transformer由两个主要部分组成。一个叫全局编码器,另一个叫全局-局部解码器。几个全局编码器和全局-局部解码器块堆叠起来,形成一个层次结构特征的深层模型。全局编码器和全局-局部解码器分别提取全局空间特征和局部空间特征。全局-局部解码器还融合了全局空间特征和局部空间特征。此外,时间嵌入块提取模型的时间特征。然后,位置编码和嵌入块帮助模型理解节点的绝对位置和相对位置。最后,一个Linear层聚合学习到的特征进行最终预测。

全局与全局-局部的区分是使用K-hop邻接矩阵定义的mask忽略非局部节点来提取局部空间特征。这种多头注意是全局和局部空间特征的融合,其表现优于通过注意机制简单地添加或串联。

3. ASTGNN(TKDE 2021)

论文:Learning Dynamics and Heterogeneity of Spatial-Temporal Graph Data for Traffic Forecasting | IEEE Journals & Magazine | IEEE Xplore

代码:GitHub - guoshnBJTU/ASTGNN

作者:Guo S, Lin Y, Wan H, et al.

针对问题:

动态空间相关性<——时间趋势感知多头自注意力模块(卷积自注意力机制变体)与动态空间图卷积;交通流数据的周期性<——输入张量拼接全局周期张量和局部周期张量;空间异质性:静态空间特征不随时间推进而演变,但随空间的变化而变化(比如道路类型、POI之类的)<——在position embedding中附加静态特征信息。

模型设计:

该模型思想是直接在时间和空间维度用自注意力建模与相关的复杂动态性。整个架构跟经典的transformer是一样的。主要有三点不同:

1)position embedding包含时空两个维度

时间的与原Transformer的一致,空间的是首先通过无监督图嵌入技术学习节点的表示,然后将学习到的表示作为节点嵌入向量的初始化,再根据监督信号进行微调,最后应用GCN层进行拉普拉斯平滑,得到最终的空间位置嵌入矩阵。

2)多头注意力机制模块他重构成了自己的时间趋势感知多头自我注意力

使用1D卷积替代原本多头自注意力Q、K的线性投影。由于卷积运算通过将局部上下文作为输入来计算表示,因此模型可以了解隐藏在交通流数据中的局部变化趋势。

3)Feed-forward模块被替换成了动态空间图卷积

其思想是利用自注意机制动态计算节点间的空间相关性强度,即把静态邻接矩阵与前面注意力模块的输出空间相关性矩阵作点积,再GCN。

4. MGT(Neurocomputing 2022)

论文: Meta Graph Transformer: A Novel Framework for Spatial–Temporal Traffic Prediction

代码: GitHub - lonicera-yx/MGT

作者:Ye X, Fang S, Sun F, et al.

针对问题:

时空异质性:大多数基于注意力的方法有一个缺陷,即参数在所有位置和时间间隔中是共享的,因此节点之间的相关性仅取决于它们各自的特征,但不同节点不同时间交通相关性是不同的(STSGCN、AGCRN、GMAN、ASTGNN都有针对设计)<——将元学习融入多头注意力中以捕获时空异质性;考虑各种类型的空间相关性:不同图解释节点之间的不同关系<——将多图(简单连通图、功能相似度图、起点-目的地OD图)用于空间特征学习,稀疏空间自注意力。基于Transformer的交通预测模型部分汇总【附源代码】(基于transformer的文本分类)

模型设计:

MGT采用编码器-解码器架构。编码器和解码器都使用跳过连接堆叠多个子层。利用Temporal Self-Attention (TSA),Spatial Self-Attention (SSA)和 Temporal Encoder-Decoder Attention (TEDA)三种注意层来学习时空相关性。所有注意层都使用Spatial–Temporal Embeddings (STEs)来执行Spatial–Temporal Heterogeneity-Aware (STHA) attention操作。 Transition Matrices (TMs)被SSA用来执行稀疏空间注意。采用自回归方法逐步预测未来交通状态。

TSA:为每个head创建一个带有隐藏层的多层感知器,取消多头自注意力共享参数机制;

SSA:通过element-wise将转移矩阵中的动态注意系数和静态值联合确定相邻节点的权值;

TEDA:该模块目的是自适应地参与沿时间维度的Encoder特征。Q来自Decoder,而K和V来自Encoder。随后K、V执行STS-guide的时间注意操作。

5. ASTTN(2022)

论文: [2207.05064] Adaptive Graph Spatial-Temporal Transformer Network for Traffic Flow Forecasting

代码:GitHub - yokifly/ASTTN_pytorch

作者:Feng A, Tassiulas L.

针对问题:

分别处理空间维度和时间维度数据的方法对直接建模跨时空效应可能是无效的:车祸会在会在一定时间后影响到周围路段<——使用局部时空图进行时空建模,并将关注范围限制为1跳空间邻居;空间建模不准确<——使用自适应图来探索隐藏的相关性;动态建模仍是挑战<——使用自注意力机制来建模图中的动态时空相关性。

模型设计:

它由输入层、时空嵌入层、具有残余连接的堆叠的ST注意块和输出层组成。模型的输入包括特征矩阵和底层图形结构. 每个ST注意块的输入和输出具有相同的尺寸以便于残差连接。嵌入层利用图结构对结构信息进行编码,并利用ST注意块计算局部MSA(multi-head self-attention)。

Local Spatial-Temporal Attention

如下图所示,在构建时空图Transformer时,可以考虑不同的注意力机制。带有颜色的项表示对应的两个节点(由行和列索引确定)将相互关注,不同的颜色对应于不同类型的attentions。本文所使用的的是Local st-attention与Adaptive st-attention。

Local st-attention

利用空间邻接性,通过将st-attention保持在空间1跳邻域内来降低注意力的复杂性,具体方法即Q、K点积缩放后得到的空间相关性矩阵再乘一个掩码矩阵。

Adaptive st-attention

使用两个可学习随机初始化的节点嵌入来计算自适应可学习邻接矩阵,随后对其应用局部注意力。

6. PDFormer(AAAI 2023)

论文:[2301.07945] PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for Traffic Flow Prediction

代码:GitHub - BUAABIGSCity/PDFormer: [AAAI2023] A PyTorch implementation of PDFormer: Propagation Delay-aware Dynamic Long-range Transformer for Traffic Flow Prediction.

作者:Jiang J, Han C, Zhao W X, et al.

针对问题:

动态空间建模<——使用多头自注意力机制;长距离空间依赖关系:两个距离较远的位置,可能反映了相似的交通模式<——通过不同的图掩蔽方法对局部地理邻域和全局语义邻域进行建模,使注意力更有侧重点;交通流存在时间延迟:当一个地点发生交通事故时,需要几分钟才能影响到邻近地点的交通状况(与ASTTN的第一个问题差不多)<——设计了交通延迟感知特征转换模块,使用K-shape聚类的方式附加交通模式。

模型设计:

PDFormer模型由数据嵌入层、堆叠的 L个时空编码层和输出层组成。时空编码层包括三个核心组件:语义空间自注意力用来捕获距离远但功能相似的节点的空间相关性、带有延迟感知特征转换模块的地理空间自注意力模块用来建模距离近的节点的空间相关性并且考虑空间信息的传播延迟、时间自注意力模块用来捕捉动态和长时间模式。

语义空间自注意力

与ASTTN 的Local st-attention类似,都是在得出空间相关性矩阵后乘一个掩码矩阵,对于语义空间自注意力,掩码矩阵是使用动态时间规整(DTW) 算法计算节点之间历史交通流的相似度,每个节点选择相似度最高的K个节点作为其语义邻居,权值为1,否则为0。

地理空间自注意力模块

地理空间自注意力同样乘一个掩码矩阵,不同的是只有当两个节点之间的距离小于阈值λ时,权值为1,否则为0。

延迟感知特征转换模块

延迟感知特征转换模块的思想是使用K-shape从历史交通数据中识别出一组具有代表性的短期交通模式,然后比较每个节点的历史序列与提取的模式集,将相似模式的信息融合到每个节点的历史序列表示中。

考虑到交通流的延迟传播在远处影响很小,所以只作用在地理空间自注意力模块的Key矩阵中。

参考

Wen Q, Zhou T, Zhang C, et al. Transformers in time series: A survey[J]. arXiv preprint arXiv:2202.07125, 2022.

ChatGPT

Spatial-Temporal Transformer Networks for Traffic Flow Forecasting_sttns_爱学习的吨吨a的博客-CSDN博客

[论]Learning Dynamic and Hierarchical Traffic Spatiotemporal Features with Transformer-CSDN博客

基于注意力时空图神经网络的交通预测_当交通遇上机器学习的博客-CSDN博客

Meta Graph Transformer: A Novel Framework for Spatial–Temporal Traffic Prediction_爱学习的吨吨a的博客-CSDN博客

论文笔记:Adaptive Graph Spatial-Temporal Transformer Network for Traffic Flow Forecasting_asttn_雪色冥茫的博客-CSDN博客

【交通数据预测】PDFormer (AAAI 2023)

本文链接地址:https://www.jiuchutong.com/zhishi/290240.html 转载请保留说明!

上一篇:【Web前端基础】实验9 表单页面设计(web前端基本知识)

下一篇:在沙滩上休息的灰海豹幼崽,英国Blakeney Point自然保护区 (© Kevin Sawford/Getty Images)(在沙滩上的语句)

  • 出口退税分类管理办法最新
  • 税款代码
  • 税控是干什么用的
  • 个人所得税的标准计算
  • 发票可不可以盖财务专用章
  • 实际已缴纳所得税额在汇算清缴报告里怎么看
  • 申请退税到账后怎么处理
  • 税控盘锁死日期查询
  • u盘算固态吗
  • 出口退税勾选后多久可以申报退税
  • 小微企业条件2018
  • 纳税申报方式如何更改
  • 事业单位人员租房有补助吗
  • 找不到契税发票怎么办
  • 加工原因造成的废品损失
  • 法院退诉讼费账务处理
  • 房租本月入账上月的怎么摊销?
  • 减免税款怎么入账
  • 农民工的工资是当月工作过月几号发工资政府有没有规定
  • 商业保险可以税前全额扣除吗?
  • 税控技术服务费每年都可以抵扣吗
  • 国际货运代理免税备案取消了吗
  • 应对税务稽查的六点注意事项
  • 如何看待餐饮企业文化
  • 对于不需要交强险的人
  • 费用报销单的日期
  • 买入返售金融资产什么意思
  • 被强制升为一般纳税人的条件
  • 处理固定资产怎么计算
  • 个税申报已经扣了怎么办
  • 小规模本月应交增值税次月交可以不计提吗
  • 服务器ssl证书过期怎么解决
  • 收不到的物业费是否增值税确认收入
  • php?ms=0&qgg=&_wv=3
  • Win10 Build 21364 预览版正式更新(附更新内容)
  • memcache php
  • 员工油费补贴过期怎么办
  • 年度所得税报表在哪里查到
  • 作为一名程序员应该掌握哪些语言
  • thinkphp框架流程原理
  • php deprecated
  • PHP:mdecrypt_generic()的用法_Mcrypt函数
  • php面向对象是什么意思
  • 融资租赁增值税税目
  • 坏账准备收不回来怎么办
  • struts2漏洞检测工具下载
  • 工程结算在资产负债表中哪个科目显示
  • python如何将字典中的键值互换
  • 跨域问题是什么
  • 技术服务费增值税税率1%
  • 融资租赁视同销售吗
  • 现金流量表年报期末现金余额
  • win7怎么配置
  • 企业之间交换房地产要交土地增值税吗
  • 金税四期可以查香港银行卡吗
  • 什么情况下增值税计入成本
  • 无形资产按取得时的什么入账
  • 收到销售方负数发票可以次月入账吗
  • 交增值税怎么做帐
  • ktv行业账务处理
  • 车费属于什么会计科目类
  • 数据库表的创建心得体会
  • sqlserver界面
  • mssql 优化
  • mysql转移表数据表
  • xtrabackup备份原理
  • ubuntu安装超详细教程
  • mac怎么用浏览器
  • win7命令提示符怎么打开
  • win7怎么随便放桌面图标
  • win8注销在哪里
  • django定时器
  • javascriptj
  • sql命令语句
  • 磁盘监视器在哪
  • jquery打开文件对话框
  • python深入浅出
  • 国家税务总局通知公告
  • 非营利组织认定条件
  • 新疆伊犁水费怎么交
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设