位置: IT常识 - 正文

学习笔记:深度学习(2)——BP神经网络

编辑:rootadmin
学习笔记:深度学习(2)——BP神经网络

推荐整理分享学习笔记:深度学习(2)——BP神经网络,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

学习时间:2022.04.09~2022.04.09

文章目录2. BP神经网络2.1 理论基础2.1.1 正向传播2.1.2 反向传播2.1.3 梯度下降补充:逻辑回归2.2 BP算法原理2.2.1 四个等式2.2.2 推导和计算2. BP神经网络

上一节了解了感知机模型(Perceptron),当结构上使用了多层的感知机递接连成一个前向型的网络时,就是一个多层感知机(MLP,Multilayer Perceptron),是一种前馈人工神经网络模型。

单个感知机只能实现二分类问题,MLP引入了隐含层(Hidden Layer),可用于多分类。

而BP神经网络,就是在MLP的基础上,引入非线性的激活函数,加入了BP(Back Propagation,反向传播)算法,采用了梯度下降等优化算法进行参数调优的神经网络。

简单理解:BP神经网络指的是用了“BP算法”进行训练的“多层感知机模型”。

2.1 理论基础

首先,从整体上理解一下BP神经网络的实现过程(实线代表正向传播,虚线代表反向传播)。

当完成了一次正反向传播,也就完成了一次神经网络的训练迭代,反复迭代,误差越来越小,完整的模型也就诞生了。

2.1.1 正向传播

数据(信息、信号)从输入端输入后,沿着网络的指向,乘以对应的权重后再加和,再将结果作为输入在激活函数中计算,将计算的结果作为输入传递给下一个节点。依次计算,直到得到最终结果。 通过每一层的感知器/神经元,层层计算,得到输出,每个节点的输出作为下一个节点的输入。这个过程就是正向传播。

2.1.2 反向传播

反向传播的基本思想就是通过计算输出层与期望值之间的误差来调整网络参数,从而使得误差变小,本质是一个“负反馈”的过程。

通过多次迭代,不断地对网络上的各个节点间的权重进行调整(更新),权重的调整(更新)采用梯度下降学习法。

反向传播的思想很简单,然而人们认识到它的重要作用却经过了很长的时间。后向传播算法产生于1970年,但它的重要性一直到David Rumelhart,Geoffrey Hinton和Ronald Williams于1986年合著的论文发表才被重视。

事实上,人工神经网络的强大力量几乎就是建立在反向传播算法基础之上的。反向传播基于四个基础等式,数学是优美的,仅仅四个等式就可以概括神经网络的反向传播过程,然而理解这种优美可能需要付出一些脑力。

2.1.3 梯度下降

在正向传播的过程中,有一个与期望的结果比较是否满意的环节,在这个环节中实际的输出结果与期望的输出结果之间就会产生一个误差,为了减小这个误差,这也就转换为了一个优化过程。

对于任何优化问题,总是会有一个目标函数 (objective function),这个目标函数就是损失函数(Loss Function)/代价函数(Cost Function)。让实际的输出结果与期望的输出结果之间的误差最小,就是利用梯度下降法原理,慢慢地寻找损失函数的最小值,从而得到模型的最终参数。

梯度下降法 是一个很重要很重要的计算方法,要说明这个方法的原理,就又涉及到另外一个问题:逻辑回归。下面只用一个图进行一个简单地说明。

假设上图中的曲线就是损失函数的图像,它存在一个最小值。梯度是一个利用求导得到的数值,可以理解为参数的变化量。从几何意义上来看,梯度代表一个损失函数增加最快的方向,反之,沿着相反的方向就可以不断地使损失逼近最小值,也就是使网络逼近真实的关系。

那么反向传播的过程就可以理解为,根据损失loss ,来反向计算出每个参数(如u1,1,u1,2u_{1,1}, u_{1,2}u1,1​,u1,2​等的梯度d(u1,1),d(u1,2),…d(u_{1,1}), d(u_{1,2}), …d(u1,1​),d(u1,2​),…等等,再将原来的参数分别加上自己对应的梯度,就完成了一次反向传播。

但实际中的梯度下降学习法,有些像高山滑雪运动员总是在寻找坡度最大的地段向下滑行。当他处于A点位置时,沿最大坡度路线下降,达到局部极小点,则停止滑行;如果他是从B点开始向下滑行,则他最终将达到全局最小点。

补充:逻辑回归

逻辑函数:Sigmoid函数。

可以看出逻辑函数的导函数可以转化成本身的一个表达式,这在后面用梯度下降法求解参数时会用到。 g(y)=ey1+ey经转换:g′(y)=g(y)⋅[1−g(y)]g(y) = \frac{e^y}{1+e^y}\\经转换:g'(y) = g(y)·[1 - g(y)]g(y)=1+eyey​经转换:g′(y)=g(y)⋅[1−g(y)]

逻辑回归的原理:用逻辑函数把线性回归的结果(−∞,+∞)(-∞,+∞)(−∞,+∞)映射到(,1)(0,1)(0,1)。(把线性回归函数的结果y,放到sigmod函数中去,就构造了逻辑回归函数。)

用公式描述上面这句话: g(y)=11+e−y=11+e−(θ+θ1x1+…+θnxn)=11+e−θγxg(y) = \frac{1}{1+e^{-y}} = \frac{1}{1+e^{-(θ_0+θ_1x_1+…+θ_nx_n)}} = \frac{1}{1+e^{-θ^γx}}g(y)=1+e−y1​=1+e−(θ0​+θ1​x1​+…+θn​xn​)1​=1+e−θγx1​ 转换一下逻辑回归函数,过程如下: g(y)=11+e−y→y=lng(y)1−g(y)g(y) = \frac{1}{1+e^{-y}} → y = ln^{\frac{g(y)}{1-g(y)}}g(y)=1+e−y1​→y=ln1−g(y)g(y)​

2.2 BP算法原理

来源:一文搞定BP神经网络。

2.2.1 四个等式

首先,使用以下符号约定:

WjklW_{jk}^lWjkl​表示:从网络中第(l−1)(l-1)(l−1)层中的第kkk个神经元指向第lll层中的第jjj个神经元的连接的权重;

bjlb_j^lbjl​表示:第lll层中第jjj个神经元的偏置;

zjlz_j^lzjl​表示:第lll层中第jjj个神经元的线性结果(权值求和);

ajla_j^lajl​表示:第lll层中第jjj个神经元的激活函数输出的值;

σσσ表示:激活函数。

因此,第lll层中第jjj个神经元的激活值为:ajl=σ(∑kWjkl⋅akl−1+bjl)a_j^l = σ(\sum_k W_{jk}^l·a_k^{l-1} + b_j^l)ajl​=σ(∑k​Wjkl​⋅akl−1​+bjl​)

学习笔记:深度学习(2)——BP神经网络

反向传播能够知道如何更改网络中的权重WWW和偏置bbb来改变代价函数值。最终这意味着它能够计算偏导数∂L(al,y)∂Wjkl\frac{∂L(a^l,y)}{∂W_{jk}^l}∂Wjkl​∂L(al,y)​和∂L(al,y)∂bjl\frac{∂L(a^l,y)}{∂b_j^l}∂bjl​∂L(al,y)​。为了计算这些偏导数,我们首先引入一个中间变量δjlδ_j^lδjl​,代表:网络中第lll层中第jjj个神经元的误差,由反向传播计算得出。如果为第lll层第jjj个神经元添加一个扰动ΔzjlΔz_j^lΔzjl​,使得损失函数或者代价函数变小,那么就是一个好的扰动。ΔzjlΔz_j^lΔzjl​与δjl=∂L(al,y)∂zjlδ_j^l = \frac{∂L(a^l,y)}{∂z_j^l}δjl​=∂zjl​∂L(al,y)​符号相反。于是,每一层的误差向量可以表示为:δjl=[δ1lδ2l…δ2n]δ_j^l = \begin{bmatrix}δ_1^l\\δ_2^l\\…\\δ_2^n\end{bmatrix}δjl​=⎣⎢⎢⎡​δ1l​δ2l​…δ2n​​⎦⎥⎥⎤​。下面开始介绍反向传播原理的四个基础等式。

输出层误差(LLL表示输出层层数):

δjL=∂L∂ajL⋅σ′(zjL)δ_j^L = \frac{∂L}{∂a_j^L}·σ'(z_j^L)δjL​=∂ajL​∂L​⋅σ′(zjL​)

隐含层误差:

δjL=∑kWkjl+1⋅δkl+1⋅σ′(zjL)δ_j^L = \sum_k W_{kj}^{l+1}·δ_k^{l+1}·σ'(z_j^L)δjL​=k∑​Wkjl+1​⋅δkl+1​⋅σ′(zjL​)

参数变化率:

∂L∂bjl=δjl∂L∂Wjkl=akl−1⋅δjl\frac{∂L}{∂b_j^l} = δ_j^l\\ \frac{∂L}{∂W_{jk}^l} = a_k^{l-1}·δ_j^l∂bjl​∂L​=δjl​∂Wjkl​∂L​=akl−1​⋅δjl​

参数更新规则(ααα为学习率):

bjl←bjl−α∂L∂bjlWjkl←Wjkl−α∂L∂Wjklb_j^l ← b_j^l - α\frac{∂L}{∂b_j^l}\\ W_{jk}^l ← W_{jk}^l - α\frac{∂L}{∂W_{jk}^l}bjl​←bjl​−α∂bjl​∂L​Wjkl​←Wjkl​−α∂Wjkl​∂L​

总结如下:

超参数:

神经网络模型中有一些参数是需要设计者给出的,也有一些参数是模型自己求解的。

比如,学习率ααα,隐含层的层数,每个隐含层的神经元个数,激活函数的选取,损失函数(代价函数)的选取等等,这些需要模型设计者确定的参数被称之为超参数。

其它的参数,比如权重矩阵WWW和偏置系数bbb在确定了超参数之后是可以通过模型的计算来得到的,这些参数称之为普通参数,简称参数。

2.2.2 推导和计算

建立一个典型的三层神经网络结构,如下图:

参数初始化:

输入:特征i1=0.1i_1 = 0.1i1​=0.1,i2=0.2i_2 = 0.2i2​=0.2;

输出:预期结果O1=0.01O_1 = 0.01O1​=0.01,O2=0.99O_2 = 0.99O2​=0.99;

初始权重:W1=0.1,W2=0.2,W3=0.3,W4=0.4W5=0.5,W6=0.6,W7=0.7,W8=0.8W_1 = 0.1, W_2 = 0.2, W_3 = 0.3, W_4 = 0.4\\W_5 = 0.5, W_6 = 0.6, W_7 = 0.7, W_8 = 0.8W1​=0.1,W2​=0.2,W3​=0.3,W4​=0.4W5​=0.5,W6​=0.6,W7​=0.7,W8​=0.8;

偏置:b1=0.55,b2=0.56,b3=0.66,b4=0.67b_1 = 0.55, b_2 = 0.56, b_3 = 0.66, b_4 = 0.67b1​=0.55,b2​=0.56,b3​=0.66,b4​=0.67。

正向传播(输入层→隐含层):

计算隐含层神经元h1h_1h1​的输入加权和:inh1=W1⋅i1+W2⋅i2+1⋅b1=0.1×0.1+0.2×0.2+1×0.55=0.6in_{h_1} = W_1·i_1 + W_2·i_2 + 1·b_1 = 0.1×0.1+0.2×0.2+1×0.55 = 0.6inh1​​=W1​⋅i1​+W2​⋅i2​+1⋅b1​=0.1×0.1+0.2×0.2+1×0.55=0.6;

通过激活函数Sigmoid计算隐含层神经元h1h_1h1​的输出:outh1=1einh1+1=1e−0.6+1=0.6456563062out_{h_1} = \frac{1}{e^{in_{h_1}}+1} = \frac{1}{e^{-0.6}+1} = 0.6456563062outh1​​=einh1​​+11​=e−0.6+11​=0.6456563062;

同理计算出隐含层神经元h2h_2h2​的输出:outh2=0.6592603884out_{h_2} = 0.6592603884outh2​​=0.6592603884。

正向传播(隐含层→输出层):

计算输出层神经元O1O_1O1​的输入加权和:inO1=W5⋅outh1+W6⋅outh2+1⋅b3=0.5×0.6456563062+0.6×0.6592603884+1×0.66=1.3783843861in_{O_1} = W_5·out_{h_1} + W_6·out_{h_2} + 1·b_3 = 0.5×0.6456563062+0.6×0.6592603884+1×0.66 = 1.3783843861inO1​​=W5​⋅outh1​​+W6​⋅outh2​​+1⋅b3​=0.5×0.6456563062+0.6×0.6592603884+1×0.66=1.3783843861;

计算输出层神经元O1O_1O1​的输出:outO1=1einO1+1=1e−1.3789843861+1=0.7987314002out_{O_1} = \frac{1}{e^{in_{O_1}}+1} = \frac{1}{e^{-1.3789843861}+1} = 0.7987314002outO1​​=einO1​​+11​=e−1.3789843861+11​=0.7987314002;

同理计算出隐含层神经元O2O_2O2​的输出:outO2=0.8374488853out_{O_2} = 0.8374488853outO2​​=0.8374488853。

对比输出结果:

输出层的输出结果:[0.7987314002,0.8374488853][0.7987314002, 0.8374488853][0.7987314002,0.8374488853],期望结果[0.01,0.99][0.01, 0.99][0.01,0.99],明显的差太远了,这个时候我们就需要利用反向传播,更新权值WWW,然后重新计算输出。

反向传播(计算输出误差):

此处使用均方误差(MSE)作为损失函数:Etotal=∑i=12EoutO1=12(O1−outO1)2+12(O2−outO2)2=0.0116359213+0.3110486109=0.3226845322E_{total} = \sum^2_{i=1} E_{out_{O_1}} = \frac{1}{2}(O_1 - out_{O_1})^2 + \frac{1}{2}(O_2 - out_{O_2})^2 = 0.0116359213+0.3110486109 = 0.3226845322Etotal​=∑i=12​EoutO1​​​=21​(O1​−outO1​​)2+21​(O2​−outO2​​)2=0.0116359213+0.3110486109=0.3226845322;

PS:使用均方误差(MSE)作为例子,是因为计算比较简单,实际上用的时候效果不怎么样。

如果激活函数是饱和的,带来的缺陷就是系统迭代更新变慢,系统收敛就慢,当然这是可以有办法弥补的,一种方法是使用交叉熵函数作为损失函数。

交叉熵做为代价函数能达到上面说的优化系统收敛下欧工,是因为它在计算误差对输入的梯度时,抵消掉了激活函数的导数项,从而避免了因为激活函数的“饱和性”给系统带来的负面影响。

反向传播(更新隐含层→输出层的权值WWW,以W5W_5W5​为例):

我们知道,权重WWW的大小能直接影响输出,WWW不合适会使得输出存在误差。要想直到某一个WWW值对误差影响的程度,可以用误差对该WWW的变化率来表达。如果WWW的一点点变动,就会导致误差增大很多,说明这个w对误差影响的程度就更大,也就是说,误差对该WWW的变化率越高。而误差对WWW的变化率就是误差对WWW的偏导。

因此,根据链式法则有:∂Etotal∂W5=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂W5\frac{∂E_{total}}{∂W_5} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂W_5}∂W5​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂W5​∂inO1​​​。

按顺序计算:∂Etotal∂outO1=0.7887314002\frac{∂E_{total}}{∂out_{O_1}} = 0.7887314002∂outO1​​∂Etotal​​=0.7887314002,∂outO1∂inO1=0.1607595505\frac{∂out_{O_1}}{∂in_{O_1}} = 0.1607595505∂inO1​​∂outO1​​​=0.1607595505,∂inO1∂W5=0.6456563062\frac{∂in_{O_1}}{∂W_5} = 0.6456563062∂W5​∂inO1​​​=0.6456563062;

联立:∂Etotal∂W5=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂W5=0.7887314002×0.1607595505×0.6456563062=0.0818667051\frac{∂E_{total}}{∂W_5} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂W_5} = 0.7887314002×0.1607595505×0.6456563062 = 0.0818667051∂W5​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂W5​∂inO1​​​=0.7887314002×0.1607595505×0.6456563062=0.0818667051;

因此,更新的W5W_5W5​的值为:W5′=W5−α⋅∂Etotal∂W5=0.5−0.5×0.0818667051=0.45906664745W'_5 = W_5 - α·\frac{∂E_{total}}{∂W_5} = 0.5-0.5×0.0818667051 = 0.45906664745W5′​=W5​−α⋅∂W5​∂Etotal​​=0.5−0.5×0.0818667051=0.45906664745,同理可以计算出W6′,W7′,W8′W'_6,W'_7,W'_8W6′​,W7′​,W8′​的值。

反向传播(更新隐含层→输出层的偏置bbb,以b3b_3b3​为例):

同理,更新偏置,有:∂Etotal∂b3=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂b3\frac{∂E_{total}}{∂b_3} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂b_3}∂b3​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂b3​∂inO1​​​,且:∂inO1∂b3=1\frac{∂in_{O_1}}{∂b_3} = 1∂b3​∂inO1​​​=1。

联立:∂Etotal∂b3=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂b3=0.7887314002×0.1607595505×1=0.12679610536\frac{∂E_{total}}{∂b_3} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂b_3} = 0.7887314002×0.1607595505×1 = 0.12679610536∂b3​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂b3​∂inO1​​​=0.7887314002×0.1607595505×1=0.12679610536;

因此,更新的b3b_3b3​的值为:b3′=b3−α⋅∂Etotal∂b3=0.66−0.5×0.12679610536=0.59660194732b'_3 = b_3 - α·\frac{∂E_{total}}{∂b_3} = 0.66-0.5×0.12679610536 = 0.59660194732b3′​=b3​−α⋅∂b3​∂Etotal​​=0.66−0.5×0.12679610536=0.59660194732,,同理可以计算出b4′b'_4b4′​的更新值。

反向传播(更新输入层→隐含层的权值WWW和偏置,以W1W_1W1​为例):

仔细观察,我们在求W5W_5W5​的更新,误差反向传递路径输出层→隐层,即out(O1)→in(O1)→w5,总误差只有一根线能传回来。但是求W1W_1W1​时,误差反向传递路径是隐藏层→输入层,但是隐藏层的神经元是有2根线的,所以总误差沿着2个路径回来,也就是说,计算偏导时,要分开来算。

即:∂Etotal∂W1=∂Etotal∂outh1⋅∂outh1∂inin1⋅∂inin1∂W1=(∂EO1∂outh1+∂EO2∂outh1)⋅∂outh1∂inin1⋅∂inin1∂W1=(∂EO1∂inO1⋅∂inO1∂outh1+∂EO1∂inO1⋅∂inO1∂outh2)⋅∂outh1∂inin1⋅∂inin1∂W1\frac{∂E_{total}}{∂W_1} = \frac{∂E_{total}}{∂out_{h_1}}·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1} \\= (\frac{∂E_{O_1}}{∂out_{h_1}} + \frac{∂E_{O_2}}{∂out_{h_1}})·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1} \\= (\frac{∂E_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂out_{h_1}} + \frac{∂E_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂out_{h_2}})·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1}∂W1​∂Etotal​​=∂outh1​​∂Etotal​​⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​=(∂outh1​​∂EO1​​​+∂outh1​​∂EO2​​​)⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​=(∂inO1​​∂EO1​​​⋅∂outh1​​∂inO1​​​+∂inO1​​∂EO1​​​⋅∂outh2​​∂inO1​​​)⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​,结果为:∂Etotal∂W1=0.0011362635\frac{∂E_{total}}{∂W_1} = 0.0011362635∂W1​∂Etotal​​=0.0011362635。

因此,更新的W1W_1W1​的值为:W1′=W1−α⋅∂Etotal∂W1=0.1−0.1×0.0011362635=0.0998863737W'_1 = W_1 - α·\frac{∂E_{total}}{∂W_1} = 0.1-0.1×0.0011362635 = 0.0998863737W1′​=W1​−α⋅∂W1​∂Etotal​​=0.1−0.1×0.0011362635=0.0998863737,同理可以计算出W2′,W3′,W4′W'_2,W'_3,W'_4W2′​,W3′​,W4′​的值,以及,同理可以计算出偏置b1′,b2′b'_1, b'_2b1′​,b2′​的值。

偏置和权重可以采用不同的学习率,每一层之间也可以采用不同的学习率。

到此,计算出所有更新的权重和偏置,完成了1次迭代训练,可以重新进行第二次正向传播。随着迭代的次数加深,输出层的误差会越来越小,模型趋于收敛。

本文链接地址:https://www.jiuchutong.com/zhishi/299723.html 转载请保留说明!

上一篇:Vue2中过滤器的用法详解(vue过滤器可以异步吗)

下一篇:【特征提取】Hog特征原理简介与代码实践(特征提取原理)

  • ipad2020分屏怎么设置一半一半(ipad2020分屏怎么变大)

    ipad2020分屏怎么设置一半一半(ipad2020分屏怎么变大)

  • wps水印怎么去掉背景水印(wps水印怎么去掉pdf)

    wps水印怎么去掉背景水印(wps水印怎么去掉pdf)

  • 抖音点赞怎么变成狮子头(抖音点赞怎么变成推荐怎么没有)

    抖音点赞怎么变成狮子头(抖音点赞怎么变成推荐怎么没有)

  • 华为nova7如何隐藏返回键(华为nova7如何隐藏软件)

    华为nova7如何隐藏返回键(华为nova7如何隐藏软件)

  • 华为nova5z没有双击截屏吗(华为nova5怎么开启双屏模式)

    华为nova5z没有双击截屏吗(华为nova5怎么开启双屏模式)

  • 交管12123教育视频不能播放(交管12123网上教育流程视频)

    交管12123教育视频不能播放(交管12123网上教育流程视频)

  • 短信轰炸怎么办(一直有骚扰短信怎么办)

    短信轰炸怎么办(一直有骚扰短信怎么办)

  • 小电充电宝可以自己在家充电吗(小电充电宝可以随便还吗)

    小电充电宝可以自己在家充电吗(小电充电宝可以随便还吗)

  • 外拨转来电是不是拉黑了(外拨转入来电显示是怎么回事?)

    外拨转来电是不是拉黑了(外拨转入来电显示是怎么回事?)

  • 2张图片怎么合并到1张(2张图片怎么合并到1张a4纸上)

    2张图片怎么合并到1张(2张图片怎么合并到1张a4纸上)

  • 华为手机充电充不进去是怎么回事(华为手机充电充到多少合适)

    华为手机充电充不进去是怎么回事(华为手机充电充到多少合适)

  • 锐化和清晰度区别(锐化高好还是低好)

    锐化和清晰度区别(锐化高好还是低好)

  • nova7se有nfc吗(华为nova7se有nfc功能吗)

    nova7se有nfc吗(华为nova7se有nfc功能吗)

  • 为什么快手收藏的表情包看不到(为什么快手收藏的音乐快影没有)

    为什么快手收藏的表情包看不到(为什么快手收藏的音乐快影没有)

  • 大麦会员有什么用(大麦会员充值能退款吗)

    大麦会员有什么用(大麦会员充值能退款吗)

  • 电脑可以连接电视做显示屏吗(电脑可以连接电容笔吗)

    电脑可以连接电视做显示屏吗(电脑可以连接电容笔吗)

  • 帮别人注册微信辅助安全吗(怎么帮别人注册微信)

    帮别人注册微信辅助安全吗(怎么帮别人注册微信)

  • 手机充电充一晚上对手机会有危害吗(手机充电充一晚上对电池有没有影响)

    手机充电充一晚上对手机会有危害吗(手机充电充一晚上对电池有没有影响)

  • 邮政短信怎么自己开通(邮政短信通知怎么扣费)

    邮政短信怎么自己开通(邮政短信通知怎么扣费)

  • 为什么解散群显示操作失败(为什么群解散了我的群里还有)

    为什么解散群显示操作失败(为什么群解散了我的群里还有)

  • 淘小店是什么模式(淘小店是什么模式真相)

    淘小店是什么模式(淘小店是什么模式真相)

  • 滴滴深夜服务是几点到几点(滴滴深夜服务价格)

    滴滴深夜服务是几点到几点(滴滴深夜服务价格)

  • 为什么没有iphone9和10(为什么没有iphone14mini)

    为什么没有iphone9和10(为什么没有iphone14mini)

  • 商家给淘宝开消费积分发票的周期是(淘宝商家开发票让消费者交税)

    商家给淘宝开消费积分发票的周期是(淘宝商家开发票让消费者交税)

  • 8p前摄像头为什么模糊(8p前摄像头为什么不清晰)

    8p前摄像头为什么模糊(8p前摄像头为什么不清晰)

  • oppo怎么拉黑电话(oppo怎么拉黑电话号码)

    oppo怎么拉黑电话(oppo怎么拉黑电话号码)

  • 怎么将酷狗mv保存相册(怎么将酷狗mv保存到本地)

    怎么将酷狗mv保存相册(怎么将酷狗mv保存到本地)

  • 华为手机最大屏幕尺寸(华为手机最大屏是多少寸)

    华为手机最大屏幕尺寸(华为手机最大屏是多少寸)

  • Win7系统Softmanager进程无法终止的解决方法(WIN7系统如何共享打印机)

    Win7系统Softmanager进程无法终止的解决方法(WIN7系统如何共享打印机)

  • 个体户可选择不交税吗
  • 什么合同属于有效合同
  • 广告公司 印刷
  • 一个月没有账务往来,现金日记账如何登记?
  • 固定资产报废电脑
  • 黑色金属冶炼压延品税收编码
  • 二手房屋增值税税率
  • 建筑业咨询费有哪些
  • 进项税留底是什么意思
  • 小企业营业外支出
  • 营业收入包括其收入吗
  • 什么叫未完税
  • 企业应交增值税的计算公式
  • 社保和医保是分开到账吗
  • 双软企业两免三减半企业所得税优惠政策
  • 工商年报中企业税费缴纳怎么填写
  • 在window中
  • 企业收到保险公司的赔款
  • 股权和投票权的关系是什么关系
  • php中数组的常用函数及用法
  • thinkphp paginate
  • 各种linux
  • winrar压缩后生成的文件格式
  • 购买税盘怎么做分录
  • 多开票金额会计分录
  • vite vuex
  • 酒店客房收入怎么算
  • vue使用百度地图三方标准地图清空后卡死
  • yolov5目标检测流程图
  • php curl cookie
  • mysql desc(DESCRIBE)命令实例讲解
  • 小规模固定资产处置税率
  • 多计提费用可以不用以前年度损益调整吗
  • 本年利润在借方代表亏损吗
  • 产品维修费的会计怎么做
  • SQLite之Autoincrement关键字(自动递增)
  • mongodb4.0安装教程
  • 兼职属于劳务关系吗
  • 软件无形资产摊销年限
  • 企业收到财政拨付的专项资金账务处理
  • 个人独资所得
  • sql2008用ip连接不了
  • 个人对企业的例子
  • 水利建设基金应税项是什么
  • 付款方和发票抬头不一致会计处理
  • 未开票收入如何结转成本
  • 到银行提取备用金
  • 代付电费开发票
  • 原材料用于在建工程进项税可以抵扣吗
  • 去年支付的费用,今年收到发票可以入账吗
  • 小微企业如何自己开发票
  • 增值税专用发票丢了怎么补救
  • 会计错账更正方法口诀
  • 法定盈余公积是什么
  • 明细账要如何做账
  • mysql主界面
  • ubuntu和window双系统
  • mac硬盘挂载软件
  • wps.exe是什么
  • win10改用microsoft账户登录
  • 升级电脑win10系统
  • imscmig.exe
  • linux删除sdb1
  • document.location.hash
  • 用dos杀毒的一个软件
  • 关于博客说法错误的是
  • javascript 正则
  • linux命令统计
  • js domcontentloaded
  • python jose
  • javascript初级教程
  • jquery属性选择器,选取所有带href
  • jquery easyui datagrid实现增加,修改,删除方法总结
  • 辽宁省国家税务局电话
  • 新电子税务局使用方法
  • 税费算管理费用还是财务费用
  • 长春国税局科员工资是多少
  • steam 申请
  • 车辆免征信息怎么查
  • 郑州广电地址
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设