位置: IT常识 - 正文

学习笔记:深度学习(2)——BP神经网络

编辑:rootadmin
学习笔记:深度学习(2)——BP神经网络

推荐整理分享学习笔记:深度学习(2)——BP神经网络,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

学习时间:2022.04.09~2022.04.09

文章目录2. BP神经网络2.1 理论基础2.1.1 正向传播2.1.2 反向传播2.1.3 梯度下降补充:逻辑回归2.2 BP算法原理2.2.1 四个等式2.2.2 推导和计算2. BP神经网络

上一节了解了感知机模型(Perceptron),当结构上使用了多层的感知机递接连成一个前向型的网络时,就是一个多层感知机(MLP,Multilayer Perceptron),是一种前馈人工神经网络模型。

单个感知机只能实现二分类问题,MLP引入了隐含层(Hidden Layer),可用于多分类。

而BP神经网络,就是在MLP的基础上,引入非线性的激活函数,加入了BP(Back Propagation,反向传播)算法,采用了梯度下降等优化算法进行参数调优的神经网络。

简单理解:BP神经网络指的是用了“BP算法”进行训练的“多层感知机模型”。

2.1 理论基础

首先,从整体上理解一下BP神经网络的实现过程(实线代表正向传播,虚线代表反向传播)。

当完成了一次正反向传播,也就完成了一次神经网络的训练迭代,反复迭代,误差越来越小,完整的模型也就诞生了。

2.1.1 正向传播

数据(信息、信号)从输入端输入后,沿着网络的指向,乘以对应的权重后再加和,再将结果作为输入在激活函数中计算,将计算的结果作为输入传递给下一个节点。依次计算,直到得到最终结果。 通过每一层的感知器/神经元,层层计算,得到输出,每个节点的输出作为下一个节点的输入。这个过程就是正向传播。

2.1.2 反向传播

反向传播的基本思想就是通过计算输出层与期望值之间的误差来调整网络参数,从而使得误差变小,本质是一个“负反馈”的过程。

通过多次迭代,不断地对网络上的各个节点间的权重进行调整(更新),权重的调整(更新)采用梯度下降学习法。

反向传播的思想很简单,然而人们认识到它的重要作用却经过了很长的时间。后向传播算法产生于1970年,但它的重要性一直到David Rumelhart,Geoffrey Hinton和Ronald Williams于1986年合著的论文发表才被重视。

事实上,人工神经网络的强大力量几乎就是建立在反向传播算法基础之上的。反向传播基于四个基础等式,数学是优美的,仅仅四个等式就可以概括神经网络的反向传播过程,然而理解这种优美可能需要付出一些脑力。

2.1.3 梯度下降

在正向传播的过程中,有一个与期望的结果比较是否满意的环节,在这个环节中实际的输出结果与期望的输出结果之间就会产生一个误差,为了减小这个误差,这也就转换为了一个优化过程。

对于任何优化问题,总是会有一个目标函数 (objective function),这个目标函数就是损失函数(Loss Function)/代价函数(Cost Function)。让实际的输出结果与期望的输出结果之间的误差最小,就是利用梯度下降法原理,慢慢地寻找损失函数的最小值,从而得到模型的最终参数。

梯度下降法 是一个很重要很重要的计算方法,要说明这个方法的原理,就又涉及到另外一个问题:逻辑回归。下面只用一个图进行一个简单地说明。

假设上图中的曲线就是损失函数的图像,它存在一个最小值。梯度是一个利用求导得到的数值,可以理解为参数的变化量。从几何意义上来看,梯度代表一个损失函数增加最快的方向,反之,沿着相反的方向就可以不断地使损失逼近最小值,也就是使网络逼近真实的关系。

那么反向传播的过程就可以理解为,根据损失loss ,来反向计算出每个参数(如u1,1,u1,2u_{1,1}, u_{1,2}u1,1​,u1,2​等的梯度d(u1,1),d(u1,2),…d(u_{1,1}), d(u_{1,2}), …d(u1,1​),d(u1,2​),…等等,再将原来的参数分别加上自己对应的梯度,就完成了一次反向传播。

但实际中的梯度下降学习法,有些像高山滑雪运动员总是在寻找坡度最大的地段向下滑行。当他处于A点位置时,沿最大坡度路线下降,达到局部极小点,则停止滑行;如果他是从B点开始向下滑行,则他最终将达到全局最小点。

补充:逻辑回归

逻辑函数:Sigmoid函数。

可以看出逻辑函数的导函数可以转化成本身的一个表达式,这在后面用梯度下降法求解参数时会用到。 g(y)=ey1+ey经转换:g′(y)=g(y)⋅[1−g(y)]g(y) = \frac{e^y}{1+e^y}\\经转换:g'(y) = g(y)·[1 - g(y)]g(y)=1+eyey​经转换:g′(y)=g(y)⋅[1−g(y)]

逻辑回归的原理:用逻辑函数把线性回归的结果(−∞,+∞)(-∞,+∞)(−∞,+∞)映射到(,1)(0,1)(0,1)。(把线性回归函数的结果y,放到sigmod函数中去,就构造了逻辑回归函数。)

用公式描述上面这句话: g(y)=11+e−y=11+e−(θ+θ1x1+…+θnxn)=11+e−θγxg(y) = \frac{1}{1+e^{-y}} = \frac{1}{1+e^{-(θ_0+θ_1x_1+…+θ_nx_n)}} = \frac{1}{1+e^{-θ^γx}}g(y)=1+e−y1​=1+e−(θ0​+θ1​x1​+…+θn​xn​)1​=1+e−θγx1​ 转换一下逻辑回归函数,过程如下: g(y)=11+e−y→y=lng(y)1−g(y)g(y) = \frac{1}{1+e^{-y}} → y = ln^{\frac{g(y)}{1-g(y)}}g(y)=1+e−y1​→y=ln1−g(y)g(y)​

2.2 BP算法原理

来源:一文搞定BP神经网络。

2.2.1 四个等式

首先,使用以下符号约定:

WjklW_{jk}^lWjkl​表示:从网络中第(l−1)(l-1)(l−1)层中的第kkk个神经元指向第lll层中的第jjj个神经元的连接的权重;

bjlb_j^lbjl​表示:第lll层中第jjj个神经元的偏置;

zjlz_j^lzjl​表示:第lll层中第jjj个神经元的线性结果(权值求和);

ajla_j^lajl​表示:第lll层中第jjj个神经元的激活函数输出的值;

σσσ表示:激活函数。

因此,第lll层中第jjj个神经元的激活值为:ajl=σ(∑kWjkl⋅akl−1+bjl)a_j^l = σ(\sum_k W_{jk}^l·a_k^{l-1} + b_j^l)ajl​=σ(∑k​Wjkl​⋅akl−1​+bjl​)

学习笔记:深度学习(2)——BP神经网络

反向传播能够知道如何更改网络中的权重WWW和偏置bbb来改变代价函数值。最终这意味着它能够计算偏导数∂L(al,y)∂Wjkl\frac{∂L(a^l,y)}{∂W_{jk}^l}∂Wjkl​∂L(al,y)​和∂L(al,y)∂bjl\frac{∂L(a^l,y)}{∂b_j^l}∂bjl​∂L(al,y)​。为了计算这些偏导数,我们首先引入一个中间变量δjlδ_j^lδjl​,代表:网络中第lll层中第jjj个神经元的误差,由反向传播计算得出。如果为第lll层第jjj个神经元添加一个扰动ΔzjlΔz_j^lΔzjl​,使得损失函数或者代价函数变小,那么就是一个好的扰动。ΔzjlΔz_j^lΔzjl​与δjl=∂L(al,y)∂zjlδ_j^l = \frac{∂L(a^l,y)}{∂z_j^l}δjl​=∂zjl​∂L(al,y)​符号相反。于是,每一层的误差向量可以表示为:δjl=[δ1lδ2l…δ2n]δ_j^l = \begin{bmatrix}δ_1^l\\δ_2^l\\…\\δ_2^n\end{bmatrix}δjl​=⎣⎢⎢⎡​δ1l​δ2l​…δ2n​​⎦⎥⎥⎤​。下面开始介绍反向传播原理的四个基础等式。

输出层误差(LLL表示输出层层数):

δjL=∂L∂ajL⋅σ′(zjL)δ_j^L = \frac{∂L}{∂a_j^L}·σ'(z_j^L)δjL​=∂ajL​∂L​⋅σ′(zjL​)

隐含层误差:

δjL=∑kWkjl+1⋅δkl+1⋅σ′(zjL)δ_j^L = \sum_k W_{kj}^{l+1}·δ_k^{l+1}·σ'(z_j^L)δjL​=k∑​Wkjl+1​⋅δkl+1​⋅σ′(zjL​)

参数变化率:

∂L∂bjl=δjl∂L∂Wjkl=akl−1⋅δjl\frac{∂L}{∂b_j^l} = δ_j^l\\ \frac{∂L}{∂W_{jk}^l} = a_k^{l-1}·δ_j^l∂bjl​∂L​=δjl​∂Wjkl​∂L​=akl−1​⋅δjl​

参数更新规则(ααα为学习率):

bjl←bjl−α∂L∂bjlWjkl←Wjkl−α∂L∂Wjklb_j^l ← b_j^l - α\frac{∂L}{∂b_j^l}\\ W_{jk}^l ← W_{jk}^l - α\frac{∂L}{∂W_{jk}^l}bjl​←bjl​−α∂bjl​∂L​Wjkl​←Wjkl​−α∂Wjkl​∂L​

总结如下:

超参数:

神经网络模型中有一些参数是需要设计者给出的,也有一些参数是模型自己求解的。

比如,学习率ααα,隐含层的层数,每个隐含层的神经元个数,激活函数的选取,损失函数(代价函数)的选取等等,这些需要模型设计者确定的参数被称之为超参数。

其它的参数,比如权重矩阵WWW和偏置系数bbb在确定了超参数之后是可以通过模型的计算来得到的,这些参数称之为普通参数,简称参数。

2.2.2 推导和计算

建立一个典型的三层神经网络结构,如下图:

参数初始化:

输入:特征i1=0.1i_1 = 0.1i1​=0.1,i2=0.2i_2 = 0.2i2​=0.2;

输出:预期结果O1=0.01O_1 = 0.01O1​=0.01,O2=0.99O_2 = 0.99O2​=0.99;

初始权重:W1=0.1,W2=0.2,W3=0.3,W4=0.4W5=0.5,W6=0.6,W7=0.7,W8=0.8W_1 = 0.1, W_2 = 0.2, W_3 = 0.3, W_4 = 0.4\\W_5 = 0.5, W_6 = 0.6, W_7 = 0.7, W_8 = 0.8W1​=0.1,W2​=0.2,W3​=0.3,W4​=0.4W5​=0.5,W6​=0.6,W7​=0.7,W8​=0.8;

偏置:b1=0.55,b2=0.56,b3=0.66,b4=0.67b_1 = 0.55, b_2 = 0.56, b_3 = 0.66, b_4 = 0.67b1​=0.55,b2​=0.56,b3​=0.66,b4​=0.67。

正向传播(输入层→隐含层):

计算隐含层神经元h1h_1h1​的输入加权和:inh1=W1⋅i1+W2⋅i2+1⋅b1=0.1×0.1+0.2×0.2+1×0.55=0.6in_{h_1} = W_1·i_1 + W_2·i_2 + 1·b_1 = 0.1×0.1+0.2×0.2+1×0.55 = 0.6inh1​​=W1​⋅i1​+W2​⋅i2​+1⋅b1​=0.1×0.1+0.2×0.2+1×0.55=0.6;

通过激活函数Sigmoid计算隐含层神经元h1h_1h1​的输出:outh1=1einh1+1=1e−0.6+1=0.6456563062out_{h_1} = \frac{1}{e^{in_{h_1}}+1} = \frac{1}{e^{-0.6}+1} = 0.6456563062outh1​​=einh1​​+11​=e−0.6+11​=0.6456563062;

同理计算出隐含层神经元h2h_2h2​的输出:outh2=0.6592603884out_{h_2} = 0.6592603884outh2​​=0.6592603884。

正向传播(隐含层→输出层):

计算输出层神经元O1O_1O1​的输入加权和:inO1=W5⋅outh1+W6⋅outh2+1⋅b3=0.5×0.6456563062+0.6×0.6592603884+1×0.66=1.3783843861in_{O_1} = W_5·out_{h_1} + W_6·out_{h_2} + 1·b_3 = 0.5×0.6456563062+0.6×0.6592603884+1×0.66 = 1.3783843861inO1​​=W5​⋅outh1​​+W6​⋅outh2​​+1⋅b3​=0.5×0.6456563062+0.6×0.6592603884+1×0.66=1.3783843861;

计算输出层神经元O1O_1O1​的输出:outO1=1einO1+1=1e−1.3789843861+1=0.7987314002out_{O_1} = \frac{1}{e^{in_{O_1}}+1} = \frac{1}{e^{-1.3789843861}+1} = 0.7987314002outO1​​=einO1​​+11​=e−1.3789843861+11​=0.7987314002;

同理计算出隐含层神经元O2O_2O2​的输出:outO2=0.8374488853out_{O_2} = 0.8374488853outO2​​=0.8374488853。

对比输出结果:

输出层的输出结果:[0.7987314002,0.8374488853][0.7987314002, 0.8374488853][0.7987314002,0.8374488853],期望结果[0.01,0.99][0.01, 0.99][0.01,0.99],明显的差太远了,这个时候我们就需要利用反向传播,更新权值WWW,然后重新计算输出。

反向传播(计算输出误差):

此处使用均方误差(MSE)作为损失函数:Etotal=∑i=12EoutO1=12(O1−outO1)2+12(O2−outO2)2=0.0116359213+0.3110486109=0.3226845322E_{total} = \sum^2_{i=1} E_{out_{O_1}} = \frac{1}{2}(O_1 - out_{O_1})^2 + \frac{1}{2}(O_2 - out_{O_2})^2 = 0.0116359213+0.3110486109 = 0.3226845322Etotal​=∑i=12​EoutO1​​​=21​(O1​−outO1​​)2+21​(O2​−outO2​​)2=0.0116359213+0.3110486109=0.3226845322;

PS:使用均方误差(MSE)作为例子,是因为计算比较简单,实际上用的时候效果不怎么样。

如果激活函数是饱和的,带来的缺陷就是系统迭代更新变慢,系统收敛就慢,当然这是可以有办法弥补的,一种方法是使用交叉熵函数作为损失函数。

交叉熵做为代价函数能达到上面说的优化系统收敛下欧工,是因为它在计算误差对输入的梯度时,抵消掉了激活函数的导数项,从而避免了因为激活函数的“饱和性”给系统带来的负面影响。

反向传播(更新隐含层→输出层的权值WWW,以W5W_5W5​为例):

我们知道,权重WWW的大小能直接影响输出,WWW不合适会使得输出存在误差。要想直到某一个WWW值对误差影响的程度,可以用误差对该WWW的变化率来表达。如果WWW的一点点变动,就会导致误差增大很多,说明这个w对误差影响的程度就更大,也就是说,误差对该WWW的变化率越高。而误差对WWW的变化率就是误差对WWW的偏导。

因此,根据链式法则有:∂Etotal∂W5=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂W5\frac{∂E_{total}}{∂W_5} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂W_5}∂W5​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂W5​∂inO1​​​。

按顺序计算:∂Etotal∂outO1=0.7887314002\frac{∂E_{total}}{∂out_{O_1}} = 0.7887314002∂outO1​​∂Etotal​​=0.7887314002,∂outO1∂inO1=0.1607595505\frac{∂out_{O_1}}{∂in_{O_1}} = 0.1607595505∂inO1​​∂outO1​​​=0.1607595505,∂inO1∂W5=0.6456563062\frac{∂in_{O_1}}{∂W_5} = 0.6456563062∂W5​∂inO1​​​=0.6456563062;

联立:∂Etotal∂W5=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂W5=0.7887314002×0.1607595505×0.6456563062=0.0818667051\frac{∂E_{total}}{∂W_5} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂W_5} = 0.7887314002×0.1607595505×0.6456563062 = 0.0818667051∂W5​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂W5​∂inO1​​​=0.7887314002×0.1607595505×0.6456563062=0.0818667051;

因此,更新的W5W_5W5​的值为:W5′=W5−α⋅∂Etotal∂W5=0.5−0.5×0.0818667051=0.45906664745W'_5 = W_5 - α·\frac{∂E_{total}}{∂W_5} = 0.5-0.5×0.0818667051 = 0.45906664745W5′​=W5​−α⋅∂W5​∂Etotal​​=0.5−0.5×0.0818667051=0.45906664745,同理可以计算出W6′,W7′,W8′W'_6,W'_7,W'_8W6′​,W7′​,W8′​的值。

反向传播(更新隐含层→输出层的偏置bbb,以b3b_3b3​为例):

同理,更新偏置,有:∂Etotal∂b3=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂b3\frac{∂E_{total}}{∂b_3} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂b_3}∂b3​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂b3​∂inO1​​​,且:∂inO1∂b3=1\frac{∂in_{O_1}}{∂b_3} = 1∂b3​∂inO1​​​=1。

联立:∂Etotal∂b3=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂b3=0.7887314002×0.1607595505×1=0.12679610536\frac{∂E_{total}}{∂b_3} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂b_3} = 0.7887314002×0.1607595505×1 = 0.12679610536∂b3​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂b3​∂inO1​​​=0.7887314002×0.1607595505×1=0.12679610536;

因此,更新的b3b_3b3​的值为:b3′=b3−α⋅∂Etotal∂b3=0.66−0.5×0.12679610536=0.59660194732b'_3 = b_3 - α·\frac{∂E_{total}}{∂b_3} = 0.66-0.5×0.12679610536 = 0.59660194732b3′​=b3​−α⋅∂b3​∂Etotal​​=0.66−0.5×0.12679610536=0.59660194732,,同理可以计算出b4′b'_4b4′​的更新值。

反向传播(更新输入层→隐含层的权值WWW和偏置,以W1W_1W1​为例):

仔细观察,我们在求W5W_5W5​的更新,误差反向传递路径输出层→隐层,即out(O1)→in(O1)→w5,总误差只有一根线能传回来。但是求W1W_1W1​时,误差反向传递路径是隐藏层→输入层,但是隐藏层的神经元是有2根线的,所以总误差沿着2个路径回来,也就是说,计算偏导时,要分开来算。

即:∂Etotal∂W1=∂Etotal∂outh1⋅∂outh1∂inin1⋅∂inin1∂W1=(∂EO1∂outh1+∂EO2∂outh1)⋅∂outh1∂inin1⋅∂inin1∂W1=(∂EO1∂inO1⋅∂inO1∂outh1+∂EO1∂inO1⋅∂inO1∂outh2)⋅∂outh1∂inin1⋅∂inin1∂W1\frac{∂E_{total}}{∂W_1} = \frac{∂E_{total}}{∂out_{h_1}}·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1} \\= (\frac{∂E_{O_1}}{∂out_{h_1}} + \frac{∂E_{O_2}}{∂out_{h_1}})·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1} \\= (\frac{∂E_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂out_{h_1}} + \frac{∂E_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂out_{h_2}})·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1}∂W1​∂Etotal​​=∂outh1​​∂Etotal​​⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​=(∂outh1​​∂EO1​​​+∂outh1​​∂EO2​​​)⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​=(∂inO1​​∂EO1​​​⋅∂outh1​​∂inO1​​​+∂inO1​​∂EO1​​​⋅∂outh2​​∂inO1​​​)⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​,结果为:∂Etotal∂W1=0.0011362635\frac{∂E_{total}}{∂W_1} = 0.0011362635∂W1​∂Etotal​​=0.0011362635。

因此,更新的W1W_1W1​的值为:W1′=W1−α⋅∂Etotal∂W1=0.1−0.1×0.0011362635=0.0998863737W'_1 = W_1 - α·\frac{∂E_{total}}{∂W_1} = 0.1-0.1×0.0011362635 = 0.0998863737W1′​=W1​−α⋅∂W1​∂Etotal​​=0.1−0.1×0.0011362635=0.0998863737,同理可以计算出W2′,W3′,W4′W'_2,W'_3,W'_4W2′​,W3′​,W4′​的值,以及,同理可以计算出偏置b1′,b2′b'_1, b'_2b1′​,b2′​的值。

偏置和权重可以采用不同的学习率,每一层之间也可以采用不同的学习率。

到此,计算出所有更新的权重和偏置,完成了1次迭代训练,可以重新进行第二次正向传播。随着迭代的次数加深,输出层的误差会越来越小,模型趋于收敛。

本文链接地址:https://www.jiuchutong.com/zhishi/299723.html 转载请保留说明!

上一篇:Vue2中过滤器的用法详解(vue过滤器可以异步吗)

下一篇:【特征提取】Hog特征原理简介与代码实践(特征提取原理)

  • 软文营销的好处与作用(软文营销的主要特点)

    软文营销的好处与作用(软文营销的主要特点)

  • 支付宝运费险月卡怎么取消连续包月(支付宝运费险月卡怎么用)

    支付宝运费险月卡怎么取消连续包月(支付宝运费险月卡怎么用)

  • 淘宝号为什么被降权(淘宝号为什么被盾)

    淘宝号为什么被降权(淘宝号为什么被盾)

  • 美版iphonexr双卡双待吗(美版iphonexr双卡还是单卡)

    美版iphonexr双卡双待吗(美版iphonexr双卡还是单卡)

  • iPad mini4和mini5区别(ipad mini4和mini5区别知乎)

    iPad mini4和mini5区别(ipad mini4和mini5区别知乎)

  • 开热点算不算流量共享(开热点会不会浪费流量)

    开热点算不算流量共享(开热点会不会浪费流量)

  • 微信怎么换成其他图标(微信怎么换成其他头像)

    微信怎么换成其他图标(微信怎么换成其他头像)

  • 抖音老是自动转发(抖音老是自动转发视频)

    抖音老是自动转发(抖音老是自动转发视频)

  • 呼叫转移是拉黑了吗(呼叫转移是拉黑名单了吗)

    呼叫转移是拉黑了吗(呼叫转移是拉黑名单了吗)

  • 华为p30充电慢是什么原因(华为p30充电慢是为什么)

    华为p30充电慢是什么原因(华为p30充电慢是为什么)

  • 电脑打印按哪两个键(电脑打印用哪两个键)

    电脑打印按哪两个键(电脑打印用哪两个键)

  • 魅族17有呼吸灯吗(魅族17有呼吸灯嘛)

    魅族17有呼吸灯吗(魅族17有呼吸灯嘛)

  • 电脑c盘在哪里打开(我的电脑c盘在哪里)

    电脑c盘在哪里打开(我的电脑c盘在哪里)

  • 畅玩5x装电信卡是4g吗(华为畅玩5c支持电信卡吗)

    畅玩5x装电信卡是4g吗(华为畅玩5c支持电信卡吗)

  • 手机号被别人标记为骚扰电话了怎么办?(手机号被别人标记快递送餐怎么取消)

    手机号被别人标记为骚扰电话了怎么办?(手机号被别人标记快递送餐怎么取消)

  • 苹果手机怎么隔空传送照片(苹果手机怎么隔行输入)

    苹果手机怎么隔空传送照片(苹果手机怎么隔行输入)

  • 拼多多买家怎么删评论(拼多多买家怎么买运费险)

    拼多多买家怎么删评论(拼多多买家怎么买运费险)

  • 剪映怎么剪掉多余的音乐(剪映怎么剪掉多余的音乐时间)

    剪映怎么剪掉多余的音乐(剪映怎么剪掉多余的音乐时间)

  • 电脑怎么安装喜马拉雅(电脑 怎么安装)

    电脑怎么安装喜马拉雅(电脑 怎么安装)

  • iwatch要一直开蓝牙吗(iwatch要一直开蓝牙吗 蜂窝)

    iwatch要一直开蓝牙吗(iwatch要一直开蓝牙吗 蜂窝)

  • 抖音被拉黑了是不是就看不到对方更新了(抖音被拉黑了是不是就关注不了对方)

    抖音被拉黑了是不是就看不到对方更新了(抖音被拉黑了是不是就关注不了对方)

  • 苹果6蓝牙搜索一直在转(苹果6蓝牙搜索不到)

    苹果6蓝牙搜索一直在转(苹果6蓝牙搜索不到)

  • 显卡如何超频(七彩虹一键超频伤显卡吗)

    显卡如何超频(七彩虹一键超频伤显卡吗)

  • Vue权限控制(vue权限控制设计)

    Vue权限控制(vue权限控制设计)

  • 筹建期间取得的利息收入 企业所得税
  • 免税合并和应税合并商誉
  • 销售成本是负债吗
  • 装修工程人工费占总价比例
  • 一般纳税人增值税申报操作流程
  • 个体工商户税收起征点是多少?
  • 用外购存货投资分录怎么写?
  • 费用报销凭证是出纳的吗
  • 免税企业开了含税发票
  • 12月份未计提的费用汇算清缴如何调整?
  • 企业理财收入交哪些税
  • 监控设备的维修保养
  • 增值税预缴税需要申报吗
  • 劳务费差额征税的账务处理
  • 加油票不打公司会怎么样
  • 残保金所属期与税款所属期
  • 招待费多少
  • 增值税价外费用不包括
  • 原材料账户可以按什么进行明细核算
  • 上月计提租赁费下月扣怎么做账
  • 工资上浮20%怎么算
  • 每年的发票年底是不是就失效了
  • macbook pro怎么检测
  • 收回物资的加工成本
  • 代销返利业务会计处理
  • 设备租赁费属于劳务吗
  • 如何做好零售商
  • 福利企业增值税即征即退会计处理
  • 一个红苹果多少钱
  • 分公司独立核算和非独立核算哪个好
  • 先开票后发货合法吗
  • phpweb漏洞
  • 茶叶开增值税专用发票,不在申报系统的农副产品类
  • 劳务公司可以
  • 外贸出口企业的税务风险
  • 公司注册登记需要提交的资料包括
  • java 导出excel
  • 购买工业用地
  • 开工程款发票有什么规定?
  • 税务局季度报表利润表
  • PostgreSQL管理工具phpPgAdmin入门指南
  • 公司买手表可以抵扣增值税吗
  • 补缴以前年度所得税怎么做会计分录
  • 房地产按揭贷款放款条件
  • 支付结算办法实施细则最新
  • 固定资产全套账务处理2021
  • 期末结转生产成本的账户
  • 小企业核算方式选独立核算
  • 非盈利社会团体可以开发票吗
  • 给股东分利润怎么做账
  • 企业固定资产内部控制风险防范体系的构建原则
  • 系统多交税款放在哪里
  • 事业单位收入是再分配吗
  • 微软数据收集
  • linux常用小技巧
  • linux nls
  • win7旗舰版32位系统激活
  • linux安装atop
  • win10快捷键合集
  • inc是什么软件
  • Mac系统修复怎么进入
  • 如何管理和维护宿舍卫生
  • win7系统如何关闭开机自动启动软件
  • linux服务器搭建实战详解
  • nacos监控服务
  • windows8介绍
  • ExtJS4利根据登录后不同的角色分配不同的树形菜单
  • perl中sub
  • perl 调用perl
  • 着色器模型
  • 简述android应用的常用开发模式及其优缺点
  • sql怎么设置自增列
  • jquery 表单
  • java urlencode如何使用
  • JavaScript的Cookies
  • 如何利用python写爬虫
  • 莅临指导和莅临交流的区别
  • 曲靖市国家税务局杨春天
  • 个税汇算清缴申报方式选哪个
  • 上饶国资委领导班子成员名单
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设