位置: IT常识 - 正文

AI实战:用Transformer建立数值时间序列预测模型开源代码汇总(ai implementation)

编辑:rootadmin
AI实战:用Transformer建立数值时间序列预测模型开源代码汇总 用Transformer建立数值时间序列预测模型开源代码汇总

推荐整理分享AI实战:用Transformer建立数值时间序列预测模型开源代码汇总(ai implementation),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:ai实战教程,ai(illustrator),illustrated transformer,ai运用,ai implementation,ai实现,ai运用,ai运用,内容如对您有帮助,希望把文章链接给更多的朋友!

Transformer是一个利用注意力机制来提高模型训练速度的模型。,trasnformer可以说是完全基于自注意力机制的一个深度学习模型,因为它适用于并行化计算,和它本身模型的复杂程度导致它在精度和性能上都要高于之前流行的RNN循环神经网络。

记录一下Transformer做数值时间序列预测的一下开源代码

time_series_forcasting代码地址 https://github.com/CVxTz/time_series_forecastingTransformer-Time-Series-Forecasting

代码地址 https://github.com/nklingen/Transformer-Time-Series-Forecasting

Article: https://natasha-klingenbrunn.medium.com/transformer-implementation-for-time-series-forecasting-a9db2db5c820 szZack的博客

Transformer_Time_Series

代码地址 https://github.com/mlpotter/Transformer_Time_Series

论文地址: Enhancing the Locality and Breaking the Memory Bottleneck of Transformer on Time Series Forecasting (NeurIPS 2019) https://arxiv.org/pdf/1907.00235.pdf

Non-AR Spatial-Temporal Transformer

Introduction Implementation of the paper NAST: Non-Autoregressive Spatial-Temporal Transformer for Time Series Forecasting (submitted to ICML 2021).

We propose a Non-Autoregressive Transformer architecture for time series forecasting, aiming at overcoming the time delay and accumulative error issues in the canonical Transformer. Moreover, we present a novel spatial-temporal attention mechanism, building a bridge by a learned temporal influence map to fill the gaps between the spatial and temporal attention, so that spatial and temporal dependencies can be processed integrally.

论文地址:https://arxiv.org/pdf/2102.05624.pdf代码地址 https://github.com/Flawless1202/Non-AR-Spatial-Temporal-TransformerMultidimensional-time-series-with-transformer

Transformer/self-attention for Multidimensional time series forecasting 使用transformer架构实现多维时间预测

Rerfer to https://github.com/oliverguhr/transformer-time-series-prediction

代码地址 https://github.com/RuifMaxx/Multidimensional-time-series-with-transformer szZack的博客TCCT2021AI实战:用Transformer建立数值时间序列预测模型开源代码汇总(ai implementation)

Convolutional Transformer Architectures Complementary to Time Series Forecasting Transformer Models

Paper: TCCT: Tightly-Coupled Convolutional Transformer on Time Series Forecasting https://arxiv.org/abs/2108.12784

It has already been accepted by Neurocomputing:

Journal ref.: Neurocomputing, Volume 480, 1 April 2022, Pages 131-145

doi: 10.1016/j.neucom.2022.01.039

代码地址 https://github.com/OrigamiSL/TCCT2021-Neurocomputing-Time_Series_Transformers

Introduction This directory contains a Pytorch/Pytorch Lightning implementation of transformers applied to time series. We focus on Transformer-XL and Compressive Transformers.

Transformer-XL is described in this paper Transformer-XL: Attentive Language Models Beyond a Fixed-Length Context by Zihang Dai*, Zhilin Yang*, Yiming Yang, Jaime Carbonell, Quoc V. Le, Ruslan Salakhutdinov (*: equal contribution) Preprint 2018.

Part of this code is from the authors at https://github.com/kimiyoung/transformer-xl.

代码地址 https://github.com/Emmanuel-R8/Time_Series_Transformers

Multi-Transformer: A new neural network-based architecture for forecasting S&P volatility

Transformer layers have already been successfully applied for NLP purposes. This repository adapts Transfomer layers in order to be used within hybrid volatility forecasting models. Following the intuition of bagging, this repository also introduces Multi-Transformer layers. The aim of this novel architecture is to improve the stability and accurateness of Transformer layers by averaging multiple attention mechanism.

The article collecting theoretical background and empirical results of the proposed model can be downloaded here. The stock volatility models based on Transformer and Multi-Transformer (T-GARCH, TL-GARCH, MT-GARCH and MTL-GARCH) overcome the performance of traditional autoregressive algorithms and other hybrid models based on feed forward layers or LSTM units. The following table collects the validation error (RMSE) by year and model.

代码地址 https://github.com/EduardoRamosP/MultiTransformer

szZack的博客

一个很好的完整的例子

代码 https://github.com/OrigamiSL/TCCT2021-Neurocomputing- https://github.com/zhouhaoyi/Informer2020

parser = argparse.ArgumentParser(description='[Informer] Long Sequences Forecasting')parser.add_argument('--model', type=str, required=True, default='informer',help='model of experiment, options: [informer, informerstack, informerlight(TBD)]')parser.add_argument('--data', type=str, required=True, default='ETTh1', help='data')parser.add_argument('--root_path', type=str, default='./data/ETT/', help='root path of the data file')parser.add_argument('--data_path', type=str, default='ETTh1.csv', help='data file') parser.add_argument('--features', type=str, default='M', help='forecasting task, options:[M, S, MS]; M:multivariate predict multivariate, S:univariate predict univariate, MS:multivariate predict univariate')parser.add_argument('--target', type=str, default='OT', help='target feature in S or MS task')parser.add_argument('--freq', type=str, default='h', help='freq for time features encoding, options:[s:secondly, t:minutely, h:hourly, d:daily, b:business days, w:weekly, m:monthly], you can also use more detailed freq like 15min or 3h')parser.add_argument('--checkpoints', type=str, default='./checkpoints/', help='location of model checkpoints')parser.add_argument('--seq_len', type=int, default=96, help='input sequence length of Informer encoder')parser.add_argument('--label_len', type=int, default=48, help='start token length of Informer decoder')parser.add_argument('--pred_len', type=int, default=24, help='prediction sequence length')# Informer decoder input: concat[start token series(label_len), zero padding series(pred_len)]parser.add_argument('--enc_in', type=int, default=7, help='encoder input size')parser.add_argument('--dec_in', type=int, default=7, help='decoder input size')parser.add_argument('--c_out', type=int, default=7, help='output size')parser.add_argument('--d_model', type=int, default=512, help='dimension of model')parser.add_argument('--n_heads', type=int, default=8, help='num of heads')parser.add_argument('--e_layers', type=int, default=2, help='num of encoder layers')parser.add_argument('--d_layers', type=int, default=1, help='num of decoder layers')parser.add_argument('--s_layers', type=str, default='3,2,1', help='num of stack encoder layers')parser.add_argument('--d_ff', type=int, default=2048, help='dimension of fcn')parser.add_argument('--factor', type=int, default=5, help='probsparse attn factor')parser.add_argument('--distil', action='store_false', help='whether to use distilling in encoder, using this argument means not using distilling', default=True)parser.add_argument('--CSP', action='store_true', help='whether to use CSPAttention, default=False', default=False)parser.add_argument('--dilated', action='store_true', help='whether to use dilated causal convolution in encoder, default=False', default=False)parser.add_argument('--passthrough', action='store_true', help='whether to use passthrough mechanism in encoder, default=False', default=False)parser.add_argument('--dropout', type=float, default=0.05, help='dropout')parser.add_argument('--attn', type=str, default='prob', help='attention used in encoder, options:[prob, full, log]')parser.add_argument('--embed', type=str, default='timeF', help='time features encoding, options:[timeF, fixed, learned]')parser.add_argument('--activation', type=str, default='gelu',help='activation')parser.add_argument('--output_attention', action='store_true', help='whether to output attention in encoder')parser.add_argument('--do_predict', action='store_true', help='whether to predict unseen future data')parser.add_argument('--num_workers', type=int, default=0, help='data loader num workers')parser.add_argument('--itr', type=int, default=2, help='experiments times')parser.add_argument('--train_epochs', type=int, default=6, help='train epochs')parser.add_argument('--batch_size', type=int, default=16, help='batch size of train input data')parser.add_argument('--patience', type=int, default=3, help='early stopping patience')parser.add_argument('--learning_rate', type=float, default=0.0001, help='optimizer learning rate')parser.add_argument('--des', type=str, default='test',help='exp description')parser.add_argument('--loss', type=str, default='mse',help='loss function')parser.add_argument('--lradj', type=str, default='type1',help='adjust learning rate')parser.add_argument('--use_amp', action='store_true', help='use automatic mixed precision training', default=False)parser.add_argument('--inverse', action='store_true', help='inverse output data', default=False)parser.add_argument('--use_gpu', type=bool, default=True, help='use gpu')parser.add_argument('--gpu', type=int, default=0, help='gpu')parser.add_argument('--use_multi_gpu', action='store_true', help='use multiple gpus', default=False)parser.add_argument('--devices', type=str, default='0,1,2,3',help='device ids of multile gpus')

szZack的博客

数据集 https://github.com/zhouhaoyi/ETDataset
本文链接地址:https://www.jiuchutong.com/zhishi/288792.html 转载请保留说明!

上一篇:js表单验证密码(确认密码),密码长度至少8位,并且英文与数字组合(js表单验证代码)

下一篇:最小的触屏手机是什么(最小的触屏手机有哪些)

  • 小红书怎么置顶自己的评论(小红书怎么置顶自己的笔记评论)

    小红书怎么置顶自己的评论(小红书怎么置顶自己的笔记评论)

  • 5G辐射大吗(5g到底有没有辐射)

    5G辐射大吗(5g到底有没有辐射)

  • 红米k30关机键的位置在哪里(红米k30pro关机键为什么是红色)

    红米k30关机键的位置在哪里(红米k30pro关机键为什么是红色)

  • 苹果怎么下载谷歌商店(苹果怎么下载谷歌相机)

    苹果怎么下载谷歌商店(苹果怎么下载谷歌相机)

  • 怎么注销快手账号(怎么注销快手账号极速版)

    怎么注销快手账号(怎么注销快手账号极速版)

  • 固态硬盘装系统引导失败(固态硬盘装系统后无法启动)

    固态硬盘装系统引导失败(固态硬盘装系统后无法启动)

  • i12耳机怎么双耳(i12如何双耳连接)

    i12耳机怎么双耳(i12如何双耳连接)

  • i51035g1性能(i51035g1性能相当于台式机什么)

    i51035g1性能(i51035g1性能相当于台式机什么)

  • pro+和pro的区别(华为mate40pro+和pro的区别)

    pro+和pro的区别(华为mate40pro+和pro的区别)

  • vivo x20什么时候上的市(vivo x20什么时候发布的)

    vivo x20什么时候上的市(vivo x20什么时候发布的)

  • 苹果手机最早上市时间(苹果手机最早上市是哪年)

    苹果手机最早上市时间(苹果手机最早上市是哪年)

  • 红米手机黑屏开不了机(红米手机黑屏开不了机充电有呼吸灯)

    红米手机黑屏开不了机(红米手机黑屏开不了机充电有呼吸灯)

  • 华为手机屏幕上方出现手掌(华为手机屏幕上怎么显示时间日期)

    华为手机屏幕上方出现手掌(华为手机屏幕上怎么显示时间日期)

  • 小度可以当电脑音响不(小度可以当电脑摄像头吗)

    小度可以当电脑音响不(小度可以当电脑摄像头吗)

  • 微信为什么不能登录(微信为什么不能扫码付款)

    微信为什么不能登录(微信为什么不能扫码付款)

  • 为什么在淘宝买东西别人会知道(为什么淘宝买的东西质量不好)

    为什么在淘宝买东西别人会知道(为什么淘宝买的东西质量不好)

  • 抖音有没有一键取消喜欢选项(抖音有没有一键取消喜欢)

    抖音有没有一键取消喜欢选项(抖音有没有一键取消喜欢)

  • 怎样加下划线(word怎样添加下划线)

    怎样加下划线(word怎样添加下划线)

  • 前置摄像头拍照为啥变成绿色(前置摄像头拍照为啥雾蒙蒙的)

    前置摄像头拍照为啥变成绿色(前置摄像头拍照为啥雾蒙蒙的)

  • 华为怎么取消信息振动(华为怎么取消信息拦截功能)

    华为怎么取消信息振动(华为怎么取消信息拦截功能)

  • 大陆手机到香港能上网吗(大陆手机到香港可以用吗)

    大陆手机到香港能上网吗(大陆手机到香港可以用吗)

  • vivos5怎么关闭hd(VIVOs5怎么关闭个性化广告)

    vivos5怎么关闭hd(VIVOs5怎么关闭个性化广告)

  • 企业微信怎么申请(企业微信怎么申请注销)

    企业微信怎么申请(企业微信怎么申请注销)

  • 拼多多怎么删除评价(拼多多怎么删除历史浏览)

    拼多多怎么删除评价(拼多多怎么删除历史浏览)

  • 撤销正在键入怎么关闭(撤销正在键入怎么用)

    撤销正在键入怎么关闭(撤销正在键入怎么用)

  • 三星m2071怎么换墨盒(三星m2071怎么换搓纸轮)

    三星m2071怎么换墨盒(三星m2071怎么换搓纸轮)

  • 银联可信服务安全组件是什么(银联可信服务安全组件是什么东西)

    银联可信服务安全组件是什么(银联可信服务安全组件是什么东西)

  • 来信息亮屏怎么设置(来信息亮屏怎么弄)

    来信息亮屏怎么设置(来信息亮屏怎么弄)

  • ansible命令  运维自动化工具(基于ansible的运维平台)

    ansible命令 运维自动化工具(基于ansible的运维平台)

  • 全国增值税发票查验平台入口
  • 实收资本增加印花税怎么算
  • 税收减免属于什么收入
  • 税控盘为什么要年年交服务费
  • 招待费专票不可以抵扣
  • 防暑降温用品计算方法
  • 营改增前未完工的老项目可以开专票吗
  • 厂房装修增值税税率
  • 如何申报加计抵减
  • 报表的应付款太大怎么调?
  • 社会团体政策
  • 修缮发票要注明什么
  • 资产基金科目如何选择
  • 摊销合同取得成本分录
  • 外企企业所得税怎么计算
  • 关于递延所得税资产负债的表述
  • 存货减值准备计提
  • 企业报税网上申报好了怎么导入
  • 销售利润率的计算公式,安全边际率
  • 计提工资大于实发工资
  • 多交的增值税可以抵所得税吗?
  • 应交增值税为负数代表什么
  • 实收资本的账务处理例题
  • 房子转租扣钱吗
  • 工程前期咨询收费标准
  • apple取消支付方式
  • Win7/Win8/Win10单、多系统一键安装教程 只需30秒!
  • mac符号在哪里
  • 上个月的流量这个月可以用吗
  • 收到退回款项
  • 软件充值怎么申请退款
  • 用自产的产品用于生产线
  • 股东分红的会计科目怎么做
  • pop是什么文件
  • win10电脑记事本打不开显示错误
  • 收到退款的会计分录
  • php的数组函数
  • php自定义变量的方法是
  • 先发货再开票
  • 微信支付开发包
  • 事业单位收到的罚款收入应纳入
  • 增值税买一送一处理方法
  • php首页
  • 织梦相关文章调用
  • 现金周期和经营周期的计算公式
  • 进项发票已入账 未开具出口发票
  • 资产负债表所有者权益排列顺序
  • 付款后退货
  • 调账的基本方法及要点都有哪些?
  • 防暑降温费是不是必须发
  • 利润分配科目是所有者权益科目吗
  • 电子商务中流量的定义
  • 资产减值损失和资产减值准备的区别
  • 计时工资和计件工资的含义
  • 资金结存余额在借方还是贷方
  • 不动产什么时候取得所有权
  • 制造费用分配结转表
  • xp磁盘管理打不开
  • win7原版系统安装与激活
  • ubuntu搭建nginx服务器教程
  • window7截图工具无法使用
  • win8系统开机
  • win10系统虚拟机安装教程win7
  • SCHDPL32.EXE - SCHDPL32是什么进程 有什么用
  • win10系统电脑开机密码在哪里设置
  • win系统开发
  • Extjs grid panel自带滚动条失效的解决方法
  • cocos2dx适配
  • js原生dialog
  • js中不同的height, top的区别对比
  • jquery双击
  • Unity3D游戏开发标准教程
  • 超精准的电压基准芯片
  • 用python编写的程序称为
  • 不同地区的社保卡通用吗
  • 督察综合服务中心是干什么的
  • 深圳地税局地址工作时间
  • 河南车船税收费标准图片
  • 小微企业企业所得税率
  • 个人所得税法全文完整版2021实施细则
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设