位置: IT常识 - 正文

基于Transformer的交通预测模型部分汇总【附源代码】(基于transformer的文本分类)

编辑:rootadmin
基于Transformer的交通预测模型部分汇总【附源代码】

推荐整理分享基于Transformer的交通预测模型部分汇总【附源代码】(基于transformer的文本分类),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:基于transformer的超分辨率重建,基于transformer的机器翻译,基于transformer的文本分类,基于transformer的神经网络,基于transformer的神经网络,基于transformer的机器翻译,基于transformer的情感分析,基于transformer的情感分析,内容如对您有帮助,希望把文章链接给更多的朋友!

交通预测一直是一个重要的问题,它涉及到交通运输系统的可靠性和效率。随着人工智能的发展,越来越多的研究者开始使用深度学习模型来解决这个问题。其中,基于Transformer的交通预测模型在近年来备受关注,因为它们具有优秀的建模能力和较好的预测准确性。

本文将介绍几个基于Transformer的交通预测模型,欢迎讨论。如有错误,也请指正。

目录1. STTN(2020)2. Traffic Transformer(T-ITS 2021)3. ASTGNN(TKDE 2021)4. MGT(Neurocomputing 2022)5. ASTTN(2022)6. PDFormer(AAAI 2023)参考1. STTN(2020)

论文:[2001.02908] Spatial-Temporal Transformer Networks for Traffic Flow Forecasting

代码:GitHub - Lin956/STTNS: Spatial-Temporal Transformer Networks for Traffic Flow Forecasting

作者:Xu M, Dai W, Liu C, et al.

针对问题:

动态空间相关性:空间相关性随时间变化(实时的交通状况和交通流方向) <—— 设计了一种GNN变体,spatial transformer建模时变有向空间相关性;

长期时间相关性:长期时间相关性(短期<30min,长期>=30min)考虑得少,且过去自回归方法存在误差累积问题<—— 设计了 temporal transformer实现长期多步预测。

模型设计:

所提出的STTN(Spatial-Temporal Transformer Network)由堆叠的时空块和预测层组成。每个时空块由一个空间transformer和一个时间transformer组成,共同提取上下文动态依赖的时空特征。时空块可以进一步堆叠,形成深层时空特征的深层模型。然后,预测层利用两个1 × 1卷积层聚合这些时空特征进行交通预测。

在空间transformer中包含固定图卷积层(Fixed Graph,使用图卷积捕获平稳的空间依赖关系)、动态图卷积层(Dynamical Graph,使用多头自注意力捕获动态双向的空间依赖关系,节点特征用在前馈神经网络中)以及门控机制(融合上述固定与动态的空间特征)。

2. Traffic Transformer(T-ITS 2021)

论文:[2104.05163] Learning dynamic and hierarchical traffic spatiotemporal features with Transformer

代码:暂未找到

作者:Yan H, Ma X, Pu Z.

针对问题:

GNN的局限性:

难以获得完美的邻接矩阵:不能简单基于距离<——设计了全局编码器与全局-局部编码器分别提取全局空间特征和局部空间特征;大部分邻接矩阵是固定的:交通流量会根据交通状况改变<——注意力机制实现动态捕获;没有深度和等级:使用多个邻接矩阵的方法,大多都采用直接相加或拼接,没法学习不同层次的交通时空特征<——多个全局编码器和全局局部解码器块堆叠实现分层提取特征。

模型设计:

Traffic Transformer由两个主要部分组成。一个叫全局编码器,另一个叫全局-局部解码器。几个全局编码器和全局-局部解码器块堆叠起来,形成一个层次结构特征的深层模型。全局编码器和全局-局部解码器分别提取全局空间特征和局部空间特征。全局-局部解码器还融合了全局空间特征和局部空间特征。此外,时间嵌入块提取模型的时间特征。然后,位置编码和嵌入块帮助模型理解节点的绝对位置和相对位置。最后,一个Linear层聚合学习到的特征进行最终预测。

全局与全局-局部的区分是使用K-hop邻接矩阵定义的mask忽略非局部节点来提取局部空间特征。这种多头注意是全局和局部空间特征的融合,其表现优于通过注意机制简单地添加或串联。

3. ASTGNN(TKDE 2021)

论文:Learning Dynamics and Heterogeneity of Spatial-Temporal Graph Data for Traffic Forecasting | IEEE Journals & Magazine | IEEE Xplore

代码:GitHub - guoshnBJTU/ASTGNN

作者:Guo S, Lin Y, Wan H, et al.

针对问题:

动态空间相关性<——时间趋势感知多头自注意力模块(卷积自注意力机制变体)与动态空间图卷积;交通流数据的周期性<——输入张量拼接全局周期张量和局部周期张量;空间异质性:静态空间特征不随时间推进而演变,但随空间的变化而变化(比如道路类型、POI之类的)<——在position embedding中附加静态特征信息。

模型设计:

该模型思想是直接在时间和空间维度用自注意力建模与相关的复杂动态性。整个架构跟经典的transformer是一样的。主要有三点不同:

1)position embedding包含时空两个维度

时间的与原Transformer的一致,空间的是首先通过无监督图嵌入技术学习节点的表示,然后将学习到的表示作为节点嵌入向量的初始化,再根据监督信号进行微调,最后应用GCN层进行拉普拉斯平滑,得到最终的空间位置嵌入矩阵。

2)多头注意力机制模块他重构成了自己的时间趋势感知多头自我注意力

使用1D卷积替代原本多头自注意力Q、K的线性投影。由于卷积运算通过将局部上下文作为输入来计算表示,因此模型可以了解隐藏在交通流数据中的局部变化趋势。

3)Feed-forward模块被替换成了动态空间图卷积

其思想是利用自注意机制动态计算节点间的空间相关性强度,即把静态邻接矩阵与前面注意力模块的输出空间相关性矩阵作点积,再GCN。

4. MGT(Neurocomputing 2022)

论文: Meta Graph Transformer: A Novel Framework for Spatial–Temporal Traffic Prediction

代码: GitHub - lonicera-yx/MGT

作者:Ye X, Fang S, Sun F, et al.

针对问题:

时空异质性:大多数基于注意力的方法有一个缺陷,即参数在所有位置和时间间隔中是共享的,因此节点之间的相关性仅取决于它们各自的特征,但不同节点不同时间交通相关性是不同的(STSGCN、AGCRN、GMAN、ASTGNN都有针对设计)<——将元学习融入多头注意力中以捕获时空异质性;考虑各种类型的空间相关性:不同图解释节点之间的不同关系<——将多图(简单连通图、功能相似度图、起点-目的地OD图)用于空间特征学习,稀疏空间自注意力。基于Transformer的交通预测模型部分汇总【附源代码】(基于transformer的文本分类)

模型设计:

MGT采用编码器-解码器架构。编码器和解码器都使用跳过连接堆叠多个子层。利用Temporal Self-Attention (TSA),Spatial Self-Attention (SSA)和 Temporal Encoder-Decoder Attention (TEDA)三种注意层来学习时空相关性。所有注意层都使用Spatial–Temporal Embeddings (STEs)来执行Spatial–Temporal Heterogeneity-Aware (STHA) attention操作。 Transition Matrices (TMs)被SSA用来执行稀疏空间注意。采用自回归方法逐步预测未来交通状态。

TSA:为每个head创建一个带有隐藏层的多层感知器,取消多头自注意力共享参数机制;

SSA:通过element-wise将转移矩阵中的动态注意系数和静态值联合确定相邻节点的权值;

TEDA:该模块目的是自适应地参与沿时间维度的Encoder特征。Q来自Decoder,而K和V来自Encoder。随后K、V执行STS-guide的时间注意操作。

5. ASTTN(2022)

论文: [2207.05064] Adaptive Graph Spatial-Temporal Transformer Network for Traffic Flow Forecasting

代码:GitHub - yokifly/ASTTN_pytorch

作者:Feng A, Tassiulas L.

针对问题:

分别处理空间维度和时间维度数据的方法对直接建模跨时空效应可能是无效的:车祸会在会在一定时间后影响到周围路段<——使用局部时空图进行时空建模,并将关注范围限制为1跳空间邻居;空间建模不准确<——使用自适应图来探索隐藏的相关性;动态建模仍是挑战<——使用自注意力机制来建模图中的动态时空相关性。

模型设计:

它由输入层、时空嵌入层、具有残余连接的堆叠的ST注意块和输出层组成。模型的输入包括特征矩阵和底层图形结构. 每个ST注意块的输入和输出具有相同的尺寸以便于残差连接。嵌入层利用图结构对结构信息进行编码,并利用ST注意块计算局部MSA(multi-head self-attention)。

Local Spatial-Temporal Attention

如下图所示,在构建时空图Transformer时,可以考虑不同的注意力机制。带有颜色的项表示对应的两个节点(由行和列索引确定)将相互关注,不同的颜色对应于不同类型的attentions。本文所使用的的是Local st-attention与Adaptive st-attention。

Local st-attention

利用空间邻接性,通过将st-attention保持在空间1跳邻域内来降低注意力的复杂性,具体方法即Q、K点积缩放后得到的空间相关性矩阵再乘一个掩码矩阵。

Adaptive st-attention

使用两个可学习随机初始化的节点嵌入来计算自适应可学习邻接矩阵,随后对其应用局部注意力。

6. PDFormer(AAAI 2023)

论文:[2301.07945] PDFormer: Propagation Delay-Aware Dynamic Long-Range Transformer for Traffic Flow Prediction

代码:GitHub - BUAABIGSCity/PDFormer: [AAAI2023] A PyTorch implementation of PDFormer: Propagation Delay-aware Dynamic Long-range Transformer for Traffic Flow Prediction.

作者:Jiang J, Han C, Zhao W X, et al.

针对问题:

动态空间建模<——使用多头自注意力机制;长距离空间依赖关系:两个距离较远的位置,可能反映了相似的交通模式<——通过不同的图掩蔽方法对局部地理邻域和全局语义邻域进行建模,使注意力更有侧重点;交通流存在时间延迟:当一个地点发生交通事故时,需要几分钟才能影响到邻近地点的交通状况(与ASTTN的第一个问题差不多)<——设计了交通延迟感知特征转换模块,使用K-shape聚类的方式附加交通模式。

模型设计:

PDFormer模型由数据嵌入层、堆叠的 L个时空编码层和输出层组成。时空编码层包括三个核心组件:语义空间自注意力用来捕获距离远但功能相似的节点的空间相关性、带有延迟感知特征转换模块的地理空间自注意力模块用来建模距离近的节点的空间相关性并且考虑空间信息的传播延迟、时间自注意力模块用来捕捉动态和长时间模式。

语义空间自注意力

与ASTTN 的Local st-attention类似,都是在得出空间相关性矩阵后乘一个掩码矩阵,对于语义空间自注意力,掩码矩阵是使用动态时间规整(DTW) 算法计算节点之间历史交通流的相似度,每个节点选择相似度最高的K个节点作为其语义邻居,权值为1,否则为0。

地理空间自注意力模块

地理空间自注意力同样乘一个掩码矩阵,不同的是只有当两个节点之间的距离小于阈值λ时,权值为1,否则为0。

延迟感知特征转换模块

延迟感知特征转换模块的思想是使用K-shape从历史交通数据中识别出一组具有代表性的短期交通模式,然后比较每个节点的历史序列与提取的模式集,将相似模式的信息融合到每个节点的历史序列表示中。

考虑到交通流的延迟传播在远处影响很小,所以只作用在地理空间自注意力模块的Key矩阵中。

参考

Wen Q, Zhou T, Zhang C, et al. Transformers in time series: A survey[J]. arXiv preprint arXiv:2202.07125, 2022.

ChatGPT

Spatial-Temporal Transformer Networks for Traffic Flow Forecasting_sttns_爱学习的吨吨a的博客-CSDN博客

[论]Learning Dynamic and Hierarchical Traffic Spatiotemporal Features with Transformer-CSDN博客

基于注意力时空图神经网络的交通预测_当交通遇上机器学习的博客-CSDN博客

Meta Graph Transformer: A Novel Framework for Spatial–Temporal Traffic Prediction_爱学习的吨吨a的博客-CSDN博客

论文笔记:Adaptive Graph Spatial-Temporal Transformer Network for Traffic Flow Forecasting_asttn_雪色冥茫的博客-CSDN博客

【交通数据预测】PDFormer (AAAI 2023)

本文链接地址:https://www.jiuchutong.com/zhishi/290240.html 转载请保留说明!

上一篇:【Web前端基础】实验9 表单页面设计(web前端基本知识)

下一篇:在沙滩上休息的灰海豹幼崽,英国Blakeney Point自然保护区 (© Kevin Sawford/Getty Images)(在沙滩上的语句)

  • 限定性净资产账务处理
  • 进口产品销售需要什么资质
  • 已付工资在资产负债表中体现
  • 第四季度报表和年度报表一样吗
  • 公司与公司之间的欠款怎么要
  • 个体工商户每月需要申报个税吗
  • 跨年发票问题
  • 固定资产一次性折旧的账务处理和税务处理
  • 如何进行无形资产核算
  • 房地产开发企业增值税税率
  • 拍卖书画收入如何交税
  • 偶然所得个税怎么计算公式
  • 企业年金的个人账户怎么查
  • 开给别的公司的支票可以转给其它人去抵账?
  • 农产品所得税扣除比例
  • 小规模纳税人收入账务处理
  • 小区物业费开票名称
  • 增值税专用发票有效期是多长时间
  • 当年亏损可以用以前年度来弥补吗
  • 工程未结算能主张工程款吗
  • 怎样冲回多提应收账款?
  • 外经证金额没开完需要核销吗
  • 买二手设备需要注意的事项
  • 供应商赠送的原材料怎么做分录
  • 预收款项的减少
  • 一般公司的hr会查案底吗
  • php简单实例
  • win10播放视频软件
  • php字符串变量
  • 单位银行结算账户属于活期存款账户
  • 出口企业增值税怎么算
  • 土地承包费收入怎么做账务处理
  • 创建自定义对象主要哪几种方法,并写出基本语法结构?
  • 场外期权会计核算
  • php imagestring
  • iis 7下安装laravel 5.4环境的方法教程
  • 民营企业的工业项目建设-经营-转让是什么模式
  • vue数据表
  • 魔改6.67
  • 鲜花售卖系统
  • vue富文本编辑器移动端
  • oc底层原理
  • 残保金的计费依据
  • 实缴的钱注销后可以拿回来吗
  • 暂估价与发票价的区别
  • 详解MySQL中EXPLAIN解释命令及用法讲解
  • 现金流量表四个部分
  • 已抵扣的发票冲红会计分录
  • 自然人独资企业需要交企业所得税吗
  • Windows PostgreSQL 安装图文教程
  • 对公账户里的钱怎么转出来合法
  • 金税四期对企业的好处
  • 食堂购电饭锅账务处理
  • 新准则下企业计划的内容
  • 年底进项比销项大要做账么
  • 期间费用怎么区分
  • 核算费用
  • 在异地施工就要在异地交税吗
  • 进口增值税与关税的关系
  • 加班就餐费如何入账
  • 营业收入包括哪几项收入
  • 会计忘记申报税款会有什么影响
  • 填制会计凭证要求的是
  • 安装2个win10系统
  • windows server2008系统弹出今天必须修改密码该怎么处理?
  • win8.1升级win10系统
  • windows2008 iis7如何取消目录执行权限的详细图文介绍
  • xp局域网文件共享设置
  • 怎么通过mac连接wifi
  • css-1
  • nodejs filereader
  • hbuilderx打包app教程
  • vue中使用jsx
  • shell终端是什么意思
  • android 加载大量图片
  • 关于javascript函数
  • js轮播图视频教程
  • js中new一个函数
  • 开展税务培训
  • 福州电动车怎么报废处理
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设