位置: IT常识 - 正文

机器学习论文源代码浅读:Autoformer

编辑:rootadmin
机器学习论文源代码浅读:Autoformer

推荐整理分享机器学习论文源代码浅读:Autoformer,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

原本想要和之前一样写作“代码复现”,然而由于本人一开始对于Autoformer能力理解有限,参考了一定的论文中的源代码,写着写着就发现自己的代码是“加了注释版本”的源代码,故而只能是源代码的浅读,而非复现。

模型结构:

零:数据读取的预处理

这一部分之所以是零,是因为我在论文复现时没有对dataloader部分进行复现,但是复现完毕之后发现它实际上是有相当的重要性的,故而在此留空,之后有时间会对此进行解读。

现在所需要知道的就是,dataloader会返回2个结果:其一是经过标准化之后的x,其二是将时间序列数据根据不同的粒度划分出来的列表,也就是接下来的x_mark。

一:Embedding:

此处的Embedding和Transformer中的有所不同,没有使用Positional Embedding,因为时间序列数据本身就包含了位置信息,所以不再需要Positional Encoding(源代码中的注释是这么写的,然而之后的Fixed Embedding还是像Postional Encoding那样加入了sin和cos的位置信息)。取而代之的,是使用TokenEmbedding和Temporal Embedding作为Embedding层。

Token Embedding:

这个词可能看起来有点陌生,但其实就是Word Embedding的一个一般情况(Token Embedding包含Word Embedding),源代码中使用了一个卷积核将序列中的各个x映射到一个d_model大小的空间上。

class TokenEmbedding(nn.Module): def __init__(self,c_in,d_model): #batch_szie,L,c_in->batch_szie,L,d_model super(TokenEmbedding,self).__init__() self.tokenConv = nn.Conv1d(in_channels=c_in,out_channels=d_model ,kernel_size=3,padding=1 ,padding_mode='circular',bias=False) for m in self.modules(): if isinstance(m,nn.Conv1d): nn.init.kaiming_normal_(m.weight,mode='fan_in',nonlinearity='leaky_relu') def forward(self,x): x = self.tokenConv(x.transpose(1,2)).transpose(1,2) return x

Temporal Embedding:

这个Temporal Embedding似乎是使用了Informer中的方法。TemporalEmbedding中的embedding层可以使用Pytorch自带的embedding层,再训练参数,也可以使用定义的FixedEmbedding,它使用位置编码作为embedding的参数,不需要训练参数。Temporal Embedding中的hour,day,month等粒度的数据都是通过dataloader预处理后截取得来的。

class FixedEmbedding(nn.Module): def __init__(self,c_in,d_model): """ 使用位置编码作为embedding参数,不需要训练 batch_szie,L,c_in->batch_szie,L,d_model """ super(FixedEmbedding,self).__init__() w = torch.zeros(c_in,d_model).float() w.require_grad = False position = torch.arange(0,c_in).float().unsqueeze(1) div_term = torch.pow(torch.from_numpy(np.array([10000])).float(),torch.arange(0,d_model,2).float()/d_model) w[:,0::2]=torch.sin(position*div_term) w[:,1::2]=torch.cos(position*div_term) self.emb = nn.Embedding(c_in,d_model) self.emb.weight = nn.Parameter(w,require_grad=False) def forward(self,x): return self.emb(x).detach()class TemporalEmbedding(nn.Module): def __init__(self,d_model,embed_type = 'fixed' ,add_minute = False ,add_hour = False ,add_weekday = False ,add_day = False ,add_month = False ): """ 似乎和Informer是一个Embedding层 TemporalEmbedding中的embedding层可以使用Pytorch自带的embedding层,再训练参数,也可以使用定义的FixedEmbedding, 它使用位置编码作为embedding的参数,不需要训练参数。 batch_szie,L,c_in->batch_szie,L,d_model """ super(TemporalEmbedding,self).__init__() minute_size = 4 hour_size = 24 weekday_size = 7 day_size = 32 month_size = 13 Embed = FixedEmbedding if embed_type == 'fixed' else nn.Embedding if add_minute == True: self.minute_embed = Embed(minute_size,d_model) if add_hour == True: self.hour_embed = Embed(hour_size,d_model) if add_weekday == True: self.weekday_embed = Embed(weekday_size,d_model) if add_day == True: self.day_embed = Embed(day_size,d_model) if add_month == True: self.month_embed = Embed(month_size,d_model) def forward(self,x): x = x.long() #向下取整 为什么? minute_x = self.minute_embed(x[:,:,4]) if hasattr(self,'minute_embed') else 0. #x_mark hour_x = self.hour_embed(x[:,:,3]) if hasattr(self,'hour_embed') else 0. weekday_x = self.weekday_embed(x[:,:,2]) if hasattr(self,'weekday_embed') else 0. day_x = self.day_embed(x[:,:,1]) if hasattr(self,'day_embed') else 0. month_x = self.month_embed(x[:,:,0]) if hasattr(self,'month_embed') else 0. return minute_x+hour_x+weekday_x+day_x+month_x

最终将以上2个Embedding合为1个:

class DataEmbedding_wo_pos(nn.Module): """ batch_szie,L,c_in->batch_szie,L,d_model """ def __init__(self,c_in,d_model,embed_type = 'fixed' ,add_minute = False ,add_hour = False ,add_weekday = False ,add_day = False ,add_month = False ,p_dropout = 0.1): super(DataEmbedding_wo_pos,self).__init__() self.value_embedding = TokenEmbedding(c_in=c_in,d_model=d_model) self.temporal_embedding = TemporalEmbedding(d_model=d_model, embed_type = embed_type, add_minute = add_minute ,add_hour = add_hour ,add_weekday = add_weekday ,add_day = add_day ,add_month = add_month) self.dropout = nn.Dropout(p=p_dropout) def forward(self,x,x_mark): x = self.value_embedding(x) + self.temporal_embedding(x_mark) #x为经过标准化的序列,x_mark为在data_loader中预处理过的序列集合,包括month,day,weekday,hour四个维度 return self.dropout(x) 二 Auto-Correlation

在Autoformer中,使用了Auto-Correlation代替了原本Transformer中的self-Attention。

 首先将Key和Value的长度截取或补全为和Query一样的长度。然后与Transformer不同,不再使用缩放点积来度量Query和Value的相似程度,取而代之的是使用序列的相关系数作为度量。使用维纳-辛钦定理计算出Q和K的相关系数。

机器学习论文源代码浅读:Autoformer

由于本人没有信号学基础,以下内容都是自己的理解,不一定对。

纳-辛钦定理:任意一个均值为常数的广义平稳随机过程的功率谱密度是其自相关函数的傅立叶变换。反过来讲,功率谱密度的逆傅里叶变换就是其自相关函数。而根据帕塞瓦尔定理,信号的功率谱密度可以表现为这个信号的傅里叶变换乘以他的共轭傅里叶变换(此处存疑,因为源代码中是这么写的,而帕塞瓦尔定理我也没有看懂,单纯是根据结果问来的)。所以,将一个序列作傅里叶变换再乘以共轭傅里叶变换,然后再作傅里叶逆变换,就可以得到他的自相关函数。(问题:2个序列的相关系数可以这么做吗?有时Q和K不是相同的)。

之后选择前k个最高的自相关的滞后期,对每个序列作TimeDelayAgg处理:每个序列都看作是周期无穷的序列,向后滞后t个时刻,之后再将前面部分的信息拼接在后面,使得长度一样。

类似于如下所示:

test_v = torch.from_numpy(np.concatenate([[np.arange(30)],[np.arange(30)]]).reshape(1,1,2,30))v = test_v.repeat(1,1,1,2)corr = torch.from_numpy(np.random.random(test_v.shape))weight,delay = torch.topk(corr,5,dim=-1)idx = torch.arange(30).unsqueeze(0).unsqueeze(0).unsqueeze(0).repeat(1,1,2,1)tmp_delay = idx+delay[:,:,:,0].unsqueeze(-1)pattern = torch.gather(v,dim=-1,index = tmp_delay)plt.plot(test_v[0,0,0,:])plt.show()

 

plt.plot(pattern[0,0,0,:])plt.show()

 

 如图,相当于是将最后的那几段t长度的值挪到前面去了。

最后,将前k个自相关函数softmax之后作为权重,对经过滞后的各个序列加权求和,得到目标序列。

三 Series Decomposition

Autoformer使用了Series Decomposition,将序列分为了长期趋势与季节性因素。

顺带一提,传统的时间序列还会考虑周期性(相对于季节性而言,频率不固定),Facebook的prophet模型还可以加入外部因素(如假日或是调休等)这一先验知识。

Autoformer使用类似于MA模型的moving average思想,使用一个AveragePool提取其长期趋势,将原序列减去长期趋势得到季节性因素。

class series_decomp(nn.Module): """ 移动平均moving average:提取序列的趋势,之后减去它获得周期趋势 """ def __init__(self,kernel_size,stride): super(Moving_average,self).__init__() self.kernel_size = kernel_size self.stride = stride self.avg = nn.AvgPool1d(kernel_size=kernel_size,stride=stride,padding=0) #源代码中,之后调用stride都会默认填一个1进去 #问题:平稳序列是否就不能这么做了? def forward(self,x): """ x的形状:[batchsize,Length,dv或dk*n_head] """ origin_x = x front = x[:,0,:].repeat(1,(self.kernel_size-1)//2,1)#这个repeat是代替了原来padding的作用 end = x[:,-1,:].repeat(1,(self.kernel_size-1)//2,1) x = torch.cat([front,x,end],dim=1) x = x.permute(0,2,1) x = self.avg(x) x = x.permute(0,2,1) return origin_x - x,x

 注意到此处的kernel_size再源代码中被设置为了25,我个人理解是这里的kernel_size为移动平均步长,想要提取长期趋势的话,最好和时序本身的周期相同。下面是我的个人实验:

x = torch.from_numpy(np.concatenate([ [0.1*np.arange(70)+0.01*np.arange(70)], [0.3*np.arange(70)+0.01*np.arange(70)], [0.5*np.arange(70)+0.01*np.arange(70)], [0.7*np.arange(70)+0.01*np.arange(70)], [0.9*np.arange(70)+0.01*np.arange(70)], [1.1*np.arange(70)+0.01*np.arange(70)], [1.3*np.arange(70)+0.01*np.arange(70)], [1.5*np.arange(70)+0.01*np.arange(70)]]).reshape(1,-1,1))plt.plot(x[0,:,0])plt.show()ma = Moving_average(71,1)res = ma.forward(x)plt.plot(res[0,:,0])plt.show()

 

 如图所示。但是有一点需要注意:kernel_size也不能随便取,有时这个数字会导致长期趋势的数组长度为原始序列长度-1,从而导致序列长度不一样的报错。

并且如果kernel_size过大,也就是滑动平均步长过大,会变成“将开始与结果直接连一条线”的粗暴结果。

四 LayerNorm

在源代码中,有一个LayerNorm的实现,注释说是为季节因素而特制的。其实就是在普通的LayerNorm的基础上再减去一个平均值(将季节因素标准化?)。

class LayerNorm(nn.Module): """ 原文中说这是为季节因素特制的LayerNorm """ def __init__(self,channels): super(LayerNorm,self).__init__() self.layernorm = nn.LayerNorm(channels) def forward(self,x): x_hat = self.layernorm(x) bias = torch.mean(x_hat,dim=1).unsqueeze(1).repeat(1,x.shape[1],1) #个人理解:在LayerNorm之后再减去一个平均值(将季节因素标准化) return x_hat-bias五 Encoder

有了上述的准备后,就可以实现Encoder了。实际上和Transformer的Encoder只有2处不同:其一是将self-Attention改为了Auto-Correlation,另一处就是使用series-decomp提取了季节因素。

class EncoderLayer(nn.Module): def __init__(self,attention,d_model,d_ff,moving_avg,p_dropout,activation = F.relu): super(EncoderLayer,self).__init__() self.attn = attention self.conv1 = nn.Conv1d(in_channels=d_model,out_channels=d_ff,kernel_size=1,bias=False) self.conv2 = nn.Conv1d(in_channels=d_ff,out_channels=d_model,kernel_size=1,bias=False) #conv1d和Linear的区别:https://zhuanlan.zhihu.com/p/77591763 #实际上,conv1d和Linear除了对于输入形状的要求不同,理论上原理应该是一样的conv1d是channel_first self.decomp1 = series_decomp(moving_avg) self.decomp2 = series_decomp(moving_avg) self.dropout = nn.Dropout(p_dropout) self.activation = activation def forward(self,x,attn_mask=None): x = self.dropout(self.attn(x,x,x,attn_mask = attn_mask))+x #auto-correlation x,_ = self.decomp1(x)#Series decomp 在Encoder中只提取季节因素 #feed-forward residual = self.dropout(self.activation(self.conv1(x.tranpose(-1,1)))) residual = self.dropout(self.conv2(residual.tranpose(-1,1))) x = x+residual res,_ = self.decomp2(x) #只返回周期趋势给到Decoder return resclass Encoder(nn.Module): def __init__(self,attn_layers,conv_layers,norm_layer): super(Encoder,self).__init__() self.attn_layers = attn_layers self.conv_layers = nn.ModuleList(attn_layers) self.norm = norm_layer def forward(self,x,attn_mask=None): """ 源代码中,convlayers为None """ if self.conv_layers is not None: for attn_layer,conv_layer in zip(self.attn_layers,self.conv_layers): x,attn = attn_layer(x,attn_mask) x = conv_layer(x) x = self.attn_layers[-1](x) #attn_layer比convlayer多1个 else: for attn_layer in self.attn_layers: x = attn_layer(x) if self.norm is not None: x = self.norm(x) return x六 Decoder

Decoder的输入分为2部分,其一是Seasonal_init:取原始序列季节因素的最后k个长度(k为设定的训练用的长度),在剩下的pred_len(要预测的长度)中使用0来填充。而Trend_init则是取原始序列趋势因素的最后k个长度,最后用均值填充。其中Seasonal_init和传统Transformer一样,不过将其中的self-Attention改为了Auto-Correlation,并且加入series decompostion,将序列的周期因素传到下一步,长期趋势因素加入到Trend_init中,最终将2部分相加。

class DecoderLayer(nn.Module): def __init__(self,self_attn,cross_attn,d_model,c_out,d_ff,moving_avg,dropout,activation=F.relu): """ 输入:[batchsize,Length,d_model],为embedding之后经过Seasonal Init的序列 前一部分是长度同预测序列长度的后t个时间段的序列,后一部分用0填充 """ super(DecoderLayer,self).__init__() self.d_ff = d_ff self.self_attn = self_attn self.cross_attn = cross_attn self.conv1 = nn.Conv1d(in_channels=d_model,out_channels=d_ff,kernel_size=1,stride=1,bias=False) self.conv2 = nn.Conv1d(in_channels=d_ff,out_channels=d_model,kernel_size=1,stride=1,bias=False) self.decomp1 = series_decomp(moving_avg) self.decomp2 = series_decomp(moving_avg) self.decomp3 = series_decomp(moving_avg) self.conv_out = nn.Conv1d(in_channels=d_model,out_channels=c_out,kernel_size=3,stride=1,padding=1,padding_mode='circular',bias=False) #为什么? self.activation = activation def forward(self,x,cross,x_mask=None,cross_mask=None): #cross是Encoder的输出 x = x+self.dropout(self.self_attn(x,x,x,attn_mask = x_mask)) x,trend1 = self.decomp1(x) x = x+self.dropout(self.cross_attn(x,cross,cross,attn_mask = cross_mask)) x,trend2 = self.decomp2(x) #Feed_forward y = x y = self.dropout(self.activation(self.conv1(y.transpose(-1,1)))) y = self.dropout(self.conv2(y).transpose(-1,1)) x, trend3 = self.decomp3(x+y) residual_trend = trend1 + trend2 + trend3 residual_trend = self.conv_out(residual_trend.transpose(2,1)).transpose(1,2) #卷积层代替全连接层 return x,residual_trendclass Decoder(nn.Module): def __init__(self,layers,norm_layer=None,projection = None): super(Decoder,self).__init__() self.layers = nn.ModuleList(layers) self.norm = norm_layer self.projection = projection def forward(self,x,cross,x_mask=None,cross_mask=None,trend=None): for layer in self.layers: x,residual_trend = layer(x,cross,x_mask=x_mask,cross_mask=cross_mask) trend = trend + residual_trend #输入的trend最初是经过trend Init的序列:前一部分是长度同预测序列长度的后t个时间段的序列,后一部分用均值填充 #之后将decoder中分解出来的趋势因素不断对其相加 if self.norm is not None: x = self.norm(x) if self.projection is not None: x = self.projection(x) return x,trend七、Autoformer

最后,根据以上准备,写出Autoformer

class Autoformer(nn.Module): """ """ def __init__(self,**kwargs): super(Autoformer,self).__init__() self.seq_len = kwargs['seq_len'] self.label_len = kwargs['label_len'] self.pred_len = kwargs['pred_len'] self.output_attn = kwargs['output_attn'] self.decomp = series_decomp(kwargs['moving_avg']) #源代码中的注释: #The series-wise connection inherently contains the sequential information. #Thus, we can discard the position embedding of transformers. #问题:但是Fixed-Embedding中不是也加入了位置编码作为embedding参数吗? self.enc_embedding = DataEmbedding_wo_pos(kwargs['enc_in'] ,kwargs['d_model'] ,kwargs['embed_type'] ,kwargs['add_minute'] ,kwargs['add_hour'] ,kwargs['add_weekday'] ,kwargs['add_day'] ,kwargs['add_month'] ,kwargs['p_dropout'] ) self.dec_embedding = DataEmbedding_wo_pos(kwargs['dec_in'] ,kwargs['d_model'] ,kwargs['embed_type'] ,kwargs['add_minute'] ,kwargs['add_hour'] ,kwargs['add_weekday'] ,kwargs['add_day'] ,kwargs['add_month'] ,kwargs['p_dropout'] ) self.encoder = Encoder( [ EncoderLayer( AutoCorrelation( kwargs['d_model'], kwargs['n_heads'], #原本还有个d_ff的参数,在AutoCorrelation中显示为scale,但其实并没用到这一参数 dk=kwargs['d_model']//kwargs['n_heads'], dv=kwargs['d_model']//kwargs['n_heads'] ), kwargs['d_model'], kwargs['d_ff'], kwargs['moving_avg'], kwargs['p_dropout'] ) for _ in range(kwargs['e_layers']) ], norm_layer=LayerNorm(kwargs['d_model']) ) self.decoder = Decoder( [ DecoderLayer( AutoCorrelation( kwargs["d_model"], kwargs["n_heads"], dk=kwargs['d_model']//kwargs['n_heads'], dv=kwargs['d_model']//kwargs['n_heads'] ),#decoder的auto-correlation AutoCorrelation( kwargs["d_model"], kwargs["n_heads"], dk=kwargs['d_model']//kwargs['n_heads'], dv=kwargs['d_model']//kwargs['n_heads'] ),#encoder结果用的auto-correlation kwargs['d_model'], kwargs['c_out'], kwargs['d_ff'], kwargs['p_dropout'], kwargs['activation'] ) for _ in range(kwargs['d_layers']) ], norm_layer=LayerNorm(kwargs["d_model"]), projection=nn.Linear(kwargs['d_model'],kwargs['n_heads'],bias=True) ) def forward(self,x_enc,x_mark_enc,x_dec,x_mark_dec): """ mask暂时没用 """ mean = torch.mean(x_enc,dim=1).unsqueeze(1).repeat(1,self.pred_len,1) zeros = torch.zeros([x_dec.shape[0],self.pred_len,x_dec[2]],device = x_enc.device) seasonal_init,trend_init = self.decomp(x_enc) #decoder_input trend_init = torch.cat([trend_init[:,-self.label_len:,:],mean],dim=1) #输入被当作标签长度的序列 season_init = torch.cat([seasonal_init[:,-self.label_len:,:],zeros],dim=1) #2个decoder的初始化输入,和图中左侧示例一样 #enc enc_out = self.enc_embedding(x_enc,x_mark_enc) enc_out = self.encoder(enc_out) #dec dec_out = self.dec_embedding(season_init,x_mark_dec) seasonal,trend = self.decoder(dec_out,enc_out,trend = trend_init) #final res = trend+seasonal_init return res[:,-self.pred_len:,:] #Batch,L,D
本文链接地址:https://www.jiuchutong.com/zhishi/296100.html 转载请保留说明!

上一篇:java怎么写接口,java开发api接口教程(如何用java写接口)

下一篇:解决keras、tensorflow 2.0版本报错问题(解决脱发的8个方法)

  • 怎样玩游戏赚钱?时间财富威客网教你游戏试玩赚钱(国家认可的赚钱游戏)

    怎样玩游戏赚钱?时间财富威客网教你游戏试玩赚钱(国家认可的赚钱游戏)

  • 华为nova9是什么处理器(华为nova9是什么充电口)

    华为nova9是什么处理器(华为nova9是什么充电口)

  • 华为麦芒9是否有红外功能(华为麦芒9是否已停产了)

    华为麦芒9是否有红外功能(华为麦芒9是否已停产了)

  • 微信怎么变黑色主题(微信怎么变黑色主题安卓)

    微信怎么变黑色主题(微信怎么变黑色主题安卓)

  • 苹果手机微信下一行怎么操作(苹果手机微信下一行如何操作)

    苹果手机微信下一行怎么操作(苹果手机微信下一行如何操作)

  • 拍立得亮红灯怎么回事(拍立得指示灯红色)

    拍立得亮红灯怎么回事(拍立得指示灯红色)

  • 抖音未保存的视频怎么找回(抖音未保存的视频 官方看得见吗)

    抖音未保存的视频怎么找回(抖音未保存的视频 官方看得见吗)

  • 手机面容什么意思(手机面容功能有什么用)

    手机面容什么意思(手机面容功能有什么用)

  • 抖音上传照片也可加道具吗(抖音上传照片别人看不到是怎么回事)

    抖音上传照片也可加道具吗(抖音上传照片别人看不到是怎么回事)

  • 4g手机开热点网速慢(4g手机开热点网速如何)

    4g手机开热点网速慢(4g手机开热点网速如何)

  • qq开启隐藏会话还会收到信息吗(qq开启隐藏会话会弹出视频吗)

    qq开启隐藏会话还会收到信息吗(qq开启隐藏会话会弹出视频吗)

  • 小米滑盖手机是哪一款(小米滑盖手机mix3)

    小米滑盖手机是哪一款(小米滑盖手机mix3)

  • qq开了录音权限还说不了话(qq录音权限打开了还是没声音)

    qq开了录音权限还说不了话(qq录音权限打开了还是没声音)

  • 支持novell网络的协议是(novell网有什么特点)

    支持novell网络的协议是(novell网有什么特点)

  • 2016001是小米几的(2016080是小米几)

    2016001是小米几的(2016080是小米几)

  • 华为手机锁屏时间怎么移动(华为手机锁屏时间怎么设置)

    华为手机锁屏时间怎么移动(华为手机锁屏时间怎么设置)

  • 荣耀20支持面容解锁吗(荣耀支持面容支付的手机)

    荣耀20支持面容解锁吗(荣耀支持面容支付的手机)

  • 文件类型是什么意思详情(宏病毒感染的文件类型是什么)

    文件类型是什么意思详情(宏病毒感染的文件类型是什么)

  • Linux basename命令的使用详解(linux-base)

    Linux basename命令的使用详解(linux-base)

  • Android 10.0 framework中关于Activitity的生命周期的源码讲解

    Android 10.0 framework中关于Activitity的生命周期的源码讲解

  • vue新手入门之使用vue框架搭建用户登录注册案例,手动搭建webpack+Vue项目(附源码,图文详解,亲测有效)(vue新手教程)

    vue新手入门之使用vue框架搭建用户登录注册案例,手动搭建webpack+Vue项目(附源码,图文详解,亲测有效)(vue新手教程)

  • 销售利税率计算公式及分析
  • 折扣方式销售货物增值税
  • 分支机构注销后往来账如何处理
  • 企业缴纳个人所得税比例
  • 已付工资在资产负债表中体现
  • 当月没有收入,发生的人工和费用怎么办
  • 存款利息收入需要缴纳所得税吗
  • 公积金缴存基数多久调整一次
  • 广告公司小规模税率
  • 特定资产收益权融资业务
  • 中介行业风险
  • 个体户没有营业执照怎么举报
  • 企业接到银行通知,借入长期借款的应付利息为15000
  • 燃气公司开发票的工程款入什么会计科目核算与分录怎么写?
  • 期末留抵税额大于销项税额本月还需要计提吗
  • 安装属于劳务报酬吗
  • 竹笋属于什么税目类别
  • 暂停装修
  • 发票已认证次月冲红
  • 个人汇算清缴已经做了公司怎么改申报
  • 销售利润率是什么能力指标
  • 银行承兑汇票接收
  • 房产契税征收率
  • win11插耳机没声音
  • 主营业务收入明细账图片
  • windows11激活密钥多少钱
  • 预收账款什么时候确认增值税
  • 失业保险稳岗补贴是什么意思
  • 税收滞纳金可以抵税吗
  • linux递归创建目录命令
  • 企业实际发生的经济业务事项都需要
  • php怎么取数组
  • 房贷计算器搜房网
  • 上月的会计分录做错了
  • 后端中spef文件和spf文件
  • php 数学函数
  • 发票确认平台勾选步骤
  • 行政事业单位支出劳务费规定
  • 收到个人所得税手续费返还增值税税率
  • 商业承兑贴现几个点
  • 出口结汇有哪些常用方法?
  • 发票上一定要盖章吗
  • 营业外收入在汇算申报表与一般收入表不一致
  • 国有股权无偿划转是什么意思
  • 发票已经报送怎么处理
  • 查补以前年度税款
  • 收到员工社保
  • 企业应收账款的规模受哪些因素的影响?( )
  • 车票抵扣填在申请表哪里
  • 资产报废需要税费吗
  • 房地产企业收入确认条件税法
  • 编制合并报表时最关键的一步
  • 低值易耗品怎么处理
  • mysql在指定字段前添加
  • mysql未知的服务器主机
  • 苹果发布会最新消息
  • Linux中终止某个用户的所有进程的简单方法
  • 在苹果电脑mac上怎么下载
  • 苹果14pro max价格
  • centos屏蔽ip
  • centos如何操作
  • win10系统谷歌浏览器为什么打不开
  • win7系统怎么调出运行窗口
  • unity脚本如何运行
  • three.js怎么用
  • shell脚本实现文件移动、复制等操作
  • javascript简明教程
  • node的express
  • service与activity数据交互
  • 一个挖掘机主播得多少钱
  • math在java
  • js设置标签内容
  • javascript常用函数大全
  • unity中ngui
  • 税务举报偷税漏税电话
  • 广东税务待遇
  • 收到发票需要代签吗
  • 城市维护建设税怎么算
  • 2023年河北居民养老保险缴费时间
  • 明星征税多少
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设