位置: IT常识 - 正文

学习笔记:深度学习(2)——BP神经网络

编辑:rootadmin
学习笔记:深度学习(2)——BP神经网络

推荐整理分享学习笔记:深度学习(2)——BP神经网络,希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:,内容如对您有帮助,希望把文章链接给更多的朋友!

学习时间:2022.04.09~2022.04.09

文章目录2. BP神经网络2.1 理论基础2.1.1 正向传播2.1.2 反向传播2.1.3 梯度下降补充:逻辑回归2.2 BP算法原理2.2.1 四个等式2.2.2 推导和计算2. BP神经网络

上一节了解了感知机模型(Perceptron),当结构上使用了多层的感知机递接连成一个前向型的网络时,就是一个多层感知机(MLP,Multilayer Perceptron),是一种前馈人工神经网络模型。

单个感知机只能实现二分类问题,MLP引入了隐含层(Hidden Layer),可用于多分类。

而BP神经网络,就是在MLP的基础上,引入非线性的激活函数,加入了BP(Back Propagation,反向传播)算法,采用了梯度下降等优化算法进行参数调优的神经网络。

简单理解:BP神经网络指的是用了“BP算法”进行训练的“多层感知机模型”。

2.1 理论基础

首先,从整体上理解一下BP神经网络的实现过程(实线代表正向传播,虚线代表反向传播)。

当完成了一次正反向传播,也就完成了一次神经网络的训练迭代,反复迭代,误差越来越小,完整的模型也就诞生了。

2.1.1 正向传播

数据(信息、信号)从输入端输入后,沿着网络的指向,乘以对应的权重后再加和,再将结果作为输入在激活函数中计算,将计算的结果作为输入传递给下一个节点。依次计算,直到得到最终结果。 通过每一层的感知器/神经元,层层计算,得到输出,每个节点的输出作为下一个节点的输入。这个过程就是正向传播。

2.1.2 反向传播

反向传播的基本思想就是通过计算输出层与期望值之间的误差来调整网络参数,从而使得误差变小,本质是一个“负反馈”的过程。

通过多次迭代,不断地对网络上的各个节点间的权重进行调整(更新),权重的调整(更新)采用梯度下降学习法。

反向传播的思想很简单,然而人们认识到它的重要作用却经过了很长的时间。后向传播算法产生于1970年,但它的重要性一直到David Rumelhart,Geoffrey Hinton和Ronald Williams于1986年合著的论文发表才被重视。

事实上,人工神经网络的强大力量几乎就是建立在反向传播算法基础之上的。反向传播基于四个基础等式,数学是优美的,仅仅四个等式就可以概括神经网络的反向传播过程,然而理解这种优美可能需要付出一些脑力。

2.1.3 梯度下降

在正向传播的过程中,有一个与期望的结果比较是否满意的环节,在这个环节中实际的输出结果与期望的输出结果之间就会产生一个误差,为了减小这个误差,这也就转换为了一个优化过程。

对于任何优化问题,总是会有一个目标函数 (objective function),这个目标函数就是损失函数(Loss Function)/代价函数(Cost Function)。让实际的输出结果与期望的输出结果之间的误差最小,就是利用梯度下降法原理,慢慢地寻找损失函数的最小值,从而得到模型的最终参数。

梯度下降法 是一个很重要很重要的计算方法,要说明这个方法的原理,就又涉及到另外一个问题:逻辑回归。下面只用一个图进行一个简单地说明。

假设上图中的曲线就是损失函数的图像,它存在一个最小值。梯度是一个利用求导得到的数值,可以理解为参数的变化量。从几何意义上来看,梯度代表一个损失函数增加最快的方向,反之,沿着相反的方向就可以不断地使损失逼近最小值,也就是使网络逼近真实的关系。

那么反向传播的过程就可以理解为,根据损失loss ,来反向计算出每个参数(如u1,1,u1,2u_{1,1}, u_{1,2}u1,1​,u1,2​等的梯度d(u1,1),d(u1,2),…d(u_{1,1}), d(u_{1,2}), …d(u1,1​),d(u1,2​),…等等,再将原来的参数分别加上自己对应的梯度,就完成了一次反向传播。

但实际中的梯度下降学习法,有些像高山滑雪运动员总是在寻找坡度最大的地段向下滑行。当他处于A点位置时,沿最大坡度路线下降,达到局部极小点,则停止滑行;如果他是从B点开始向下滑行,则他最终将达到全局最小点。

补充:逻辑回归

逻辑函数:Sigmoid函数。

可以看出逻辑函数的导函数可以转化成本身的一个表达式,这在后面用梯度下降法求解参数时会用到。 g(y)=ey1+ey经转换:g′(y)=g(y)⋅[1−g(y)]g(y) = \frac{e^y}{1+e^y}\\经转换:g'(y) = g(y)·[1 - g(y)]g(y)=1+eyey​经转换:g′(y)=g(y)⋅[1−g(y)]

逻辑回归的原理:用逻辑函数把线性回归的结果(−∞,+∞)(-∞,+∞)(−∞,+∞)映射到(,1)(0,1)(0,1)。(把线性回归函数的结果y,放到sigmod函数中去,就构造了逻辑回归函数。)

用公式描述上面这句话: g(y)=11+e−y=11+e−(θ+θ1x1+…+θnxn)=11+e−θγxg(y) = \frac{1}{1+e^{-y}} = \frac{1}{1+e^{-(θ_0+θ_1x_1+…+θ_nx_n)}} = \frac{1}{1+e^{-θ^γx}}g(y)=1+e−y1​=1+e−(θ0​+θ1​x1​+…+θn​xn​)1​=1+e−θγx1​ 转换一下逻辑回归函数,过程如下: g(y)=11+e−y→y=lng(y)1−g(y)g(y) = \frac{1}{1+e^{-y}} → y = ln^{\frac{g(y)}{1-g(y)}}g(y)=1+e−y1​→y=ln1−g(y)g(y)​

2.2 BP算法原理

来源:一文搞定BP神经网络。

2.2.1 四个等式

首先,使用以下符号约定:

WjklW_{jk}^lWjkl​表示:从网络中第(l−1)(l-1)(l−1)层中的第kkk个神经元指向第lll层中的第jjj个神经元的连接的权重;

bjlb_j^lbjl​表示:第lll层中第jjj个神经元的偏置;

zjlz_j^lzjl​表示:第lll层中第jjj个神经元的线性结果(权值求和);

ajla_j^lajl​表示:第lll层中第jjj个神经元的激活函数输出的值;

σσσ表示:激活函数。

因此,第lll层中第jjj个神经元的激活值为:ajl=σ(∑kWjkl⋅akl−1+bjl)a_j^l = σ(\sum_k W_{jk}^l·a_k^{l-1} + b_j^l)ajl​=σ(∑k​Wjkl​⋅akl−1​+bjl​)

学习笔记:深度学习(2)——BP神经网络

反向传播能够知道如何更改网络中的权重WWW和偏置bbb来改变代价函数值。最终这意味着它能够计算偏导数∂L(al,y)∂Wjkl\frac{∂L(a^l,y)}{∂W_{jk}^l}∂Wjkl​∂L(al,y)​和∂L(al,y)∂bjl\frac{∂L(a^l,y)}{∂b_j^l}∂bjl​∂L(al,y)​。为了计算这些偏导数,我们首先引入一个中间变量δjlδ_j^lδjl​,代表:网络中第lll层中第jjj个神经元的误差,由反向传播计算得出。如果为第lll层第jjj个神经元添加一个扰动ΔzjlΔz_j^lΔzjl​,使得损失函数或者代价函数变小,那么就是一个好的扰动。ΔzjlΔz_j^lΔzjl​与δjl=∂L(al,y)∂zjlδ_j^l = \frac{∂L(a^l,y)}{∂z_j^l}δjl​=∂zjl​∂L(al,y)​符号相反。于是,每一层的误差向量可以表示为:δjl=[δ1lδ2l…δ2n]δ_j^l = \begin{bmatrix}δ_1^l\\δ_2^l\\…\\δ_2^n\end{bmatrix}δjl​=⎣⎢⎢⎡​δ1l​δ2l​…δ2n​​⎦⎥⎥⎤​。下面开始介绍反向传播原理的四个基础等式。

输出层误差(LLL表示输出层层数):

δjL=∂L∂ajL⋅σ′(zjL)δ_j^L = \frac{∂L}{∂a_j^L}·σ'(z_j^L)δjL​=∂ajL​∂L​⋅σ′(zjL​)

隐含层误差:

δjL=∑kWkjl+1⋅δkl+1⋅σ′(zjL)δ_j^L = \sum_k W_{kj}^{l+1}·δ_k^{l+1}·σ'(z_j^L)δjL​=k∑​Wkjl+1​⋅δkl+1​⋅σ′(zjL​)

参数变化率:

∂L∂bjl=δjl∂L∂Wjkl=akl−1⋅δjl\frac{∂L}{∂b_j^l} = δ_j^l\\ \frac{∂L}{∂W_{jk}^l} = a_k^{l-1}·δ_j^l∂bjl​∂L​=δjl​∂Wjkl​∂L​=akl−1​⋅δjl​

参数更新规则(ααα为学习率):

bjl←bjl−α∂L∂bjlWjkl←Wjkl−α∂L∂Wjklb_j^l ← b_j^l - α\frac{∂L}{∂b_j^l}\\ W_{jk}^l ← W_{jk}^l - α\frac{∂L}{∂W_{jk}^l}bjl​←bjl​−α∂bjl​∂L​Wjkl​←Wjkl​−α∂Wjkl​∂L​

总结如下:

超参数:

神经网络模型中有一些参数是需要设计者给出的,也有一些参数是模型自己求解的。

比如,学习率ααα,隐含层的层数,每个隐含层的神经元个数,激活函数的选取,损失函数(代价函数)的选取等等,这些需要模型设计者确定的参数被称之为超参数。

其它的参数,比如权重矩阵WWW和偏置系数bbb在确定了超参数之后是可以通过模型的计算来得到的,这些参数称之为普通参数,简称参数。

2.2.2 推导和计算

建立一个典型的三层神经网络结构,如下图:

参数初始化:

输入:特征i1=0.1i_1 = 0.1i1​=0.1,i2=0.2i_2 = 0.2i2​=0.2;

输出:预期结果O1=0.01O_1 = 0.01O1​=0.01,O2=0.99O_2 = 0.99O2​=0.99;

初始权重:W1=0.1,W2=0.2,W3=0.3,W4=0.4W5=0.5,W6=0.6,W7=0.7,W8=0.8W_1 = 0.1, W_2 = 0.2, W_3 = 0.3, W_4 = 0.4\\W_5 = 0.5, W_6 = 0.6, W_7 = 0.7, W_8 = 0.8W1​=0.1,W2​=0.2,W3​=0.3,W4​=0.4W5​=0.5,W6​=0.6,W7​=0.7,W8​=0.8;

偏置:b1=0.55,b2=0.56,b3=0.66,b4=0.67b_1 = 0.55, b_2 = 0.56, b_3 = 0.66, b_4 = 0.67b1​=0.55,b2​=0.56,b3​=0.66,b4​=0.67。

正向传播(输入层→隐含层):

计算隐含层神经元h1h_1h1​的输入加权和:inh1=W1⋅i1+W2⋅i2+1⋅b1=0.1×0.1+0.2×0.2+1×0.55=0.6in_{h_1} = W_1·i_1 + W_2·i_2 + 1·b_1 = 0.1×0.1+0.2×0.2+1×0.55 = 0.6inh1​​=W1​⋅i1​+W2​⋅i2​+1⋅b1​=0.1×0.1+0.2×0.2+1×0.55=0.6;

通过激活函数Sigmoid计算隐含层神经元h1h_1h1​的输出:outh1=1einh1+1=1e−0.6+1=0.6456563062out_{h_1} = \frac{1}{e^{in_{h_1}}+1} = \frac{1}{e^{-0.6}+1} = 0.6456563062outh1​​=einh1​​+11​=e−0.6+11​=0.6456563062;

同理计算出隐含层神经元h2h_2h2​的输出:outh2=0.6592603884out_{h_2} = 0.6592603884outh2​​=0.6592603884。

正向传播(隐含层→输出层):

计算输出层神经元O1O_1O1​的输入加权和:inO1=W5⋅outh1+W6⋅outh2+1⋅b3=0.5×0.6456563062+0.6×0.6592603884+1×0.66=1.3783843861in_{O_1} = W_5·out_{h_1} + W_6·out_{h_2} + 1·b_3 = 0.5×0.6456563062+0.6×0.6592603884+1×0.66 = 1.3783843861inO1​​=W5​⋅outh1​​+W6​⋅outh2​​+1⋅b3​=0.5×0.6456563062+0.6×0.6592603884+1×0.66=1.3783843861;

计算输出层神经元O1O_1O1​的输出:outO1=1einO1+1=1e−1.3789843861+1=0.7987314002out_{O_1} = \frac{1}{e^{in_{O_1}}+1} = \frac{1}{e^{-1.3789843861}+1} = 0.7987314002outO1​​=einO1​​+11​=e−1.3789843861+11​=0.7987314002;

同理计算出隐含层神经元O2O_2O2​的输出:outO2=0.8374488853out_{O_2} = 0.8374488853outO2​​=0.8374488853。

对比输出结果:

输出层的输出结果:[0.7987314002,0.8374488853][0.7987314002, 0.8374488853][0.7987314002,0.8374488853],期望结果[0.01,0.99][0.01, 0.99][0.01,0.99],明显的差太远了,这个时候我们就需要利用反向传播,更新权值WWW,然后重新计算输出。

反向传播(计算输出误差):

此处使用均方误差(MSE)作为损失函数:Etotal=∑i=12EoutO1=12(O1−outO1)2+12(O2−outO2)2=0.0116359213+0.3110486109=0.3226845322E_{total} = \sum^2_{i=1} E_{out_{O_1}} = \frac{1}{2}(O_1 - out_{O_1})^2 + \frac{1}{2}(O_2 - out_{O_2})^2 = 0.0116359213+0.3110486109 = 0.3226845322Etotal​=∑i=12​EoutO1​​​=21​(O1​−outO1​​)2+21​(O2​−outO2​​)2=0.0116359213+0.3110486109=0.3226845322;

PS:使用均方误差(MSE)作为例子,是因为计算比较简单,实际上用的时候效果不怎么样。

如果激活函数是饱和的,带来的缺陷就是系统迭代更新变慢,系统收敛就慢,当然这是可以有办法弥补的,一种方法是使用交叉熵函数作为损失函数。

交叉熵做为代价函数能达到上面说的优化系统收敛下欧工,是因为它在计算误差对输入的梯度时,抵消掉了激活函数的导数项,从而避免了因为激活函数的“饱和性”给系统带来的负面影响。

反向传播(更新隐含层→输出层的权值WWW,以W5W_5W5​为例):

我们知道,权重WWW的大小能直接影响输出,WWW不合适会使得输出存在误差。要想直到某一个WWW值对误差影响的程度,可以用误差对该WWW的变化率来表达。如果WWW的一点点变动,就会导致误差增大很多,说明这个w对误差影响的程度就更大,也就是说,误差对该WWW的变化率越高。而误差对WWW的变化率就是误差对WWW的偏导。

因此,根据链式法则有:∂Etotal∂W5=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂W5\frac{∂E_{total}}{∂W_5} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂W_5}∂W5​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂W5​∂inO1​​​。

按顺序计算:∂Etotal∂outO1=0.7887314002\frac{∂E_{total}}{∂out_{O_1}} = 0.7887314002∂outO1​​∂Etotal​​=0.7887314002,∂outO1∂inO1=0.1607595505\frac{∂out_{O_1}}{∂in_{O_1}} = 0.1607595505∂inO1​​∂outO1​​​=0.1607595505,∂inO1∂W5=0.6456563062\frac{∂in_{O_1}}{∂W_5} = 0.6456563062∂W5​∂inO1​​​=0.6456563062;

联立:∂Etotal∂W5=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂W5=0.7887314002×0.1607595505×0.6456563062=0.0818667051\frac{∂E_{total}}{∂W_5} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂W_5} = 0.7887314002×0.1607595505×0.6456563062 = 0.0818667051∂W5​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂W5​∂inO1​​​=0.7887314002×0.1607595505×0.6456563062=0.0818667051;

因此,更新的W5W_5W5​的值为:W5′=W5−α⋅∂Etotal∂W5=0.5−0.5×0.0818667051=0.45906664745W'_5 = W_5 - α·\frac{∂E_{total}}{∂W_5} = 0.5-0.5×0.0818667051 = 0.45906664745W5′​=W5​−α⋅∂W5​∂Etotal​​=0.5−0.5×0.0818667051=0.45906664745,同理可以计算出W6′,W7′,W8′W'_6,W'_7,W'_8W6′​,W7′​,W8′​的值。

反向传播(更新隐含层→输出层的偏置bbb,以b3b_3b3​为例):

同理,更新偏置,有:∂Etotal∂b3=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂b3\frac{∂E_{total}}{∂b_3} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂b_3}∂b3​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂b3​∂inO1​​​,且:∂inO1∂b3=1\frac{∂in_{O_1}}{∂b_3} = 1∂b3​∂inO1​​​=1。

联立:∂Etotal∂b3=∂Etotal∂outO1⋅∂outO1∂inO1⋅∂inO1∂b3=0.7887314002×0.1607595505×1=0.12679610536\frac{∂E_{total}}{∂b_3} = \frac{∂E_{total}}{∂out_{O_1}}·\frac{∂out_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂b_3} = 0.7887314002×0.1607595505×1 = 0.12679610536∂b3​∂Etotal​​=∂outO1​​∂Etotal​​⋅∂inO1​​∂outO1​​​⋅∂b3​∂inO1​​​=0.7887314002×0.1607595505×1=0.12679610536;

因此,更新的b3b_3b3​的值为:b3′=b3−α⋅∂Etotal∂b3=0.66−0.5×0.12679610536=0.59660194732b'_3 = b_3 - α·\frac{∂E_{total}}{∂b_3} = 0.66-0.5×0.12679610536 = 0.59660194732b3′​=b3​−α⋅∂b3​∂Etotal​​=0.66−0.5×0.12679610536=0.59660194732,,同理可以计算出b4′b'_4b4′​的更新值。

反向传播(更新输入层→隐含层的权值WWW和偏置,以W1W_1W1​为例):

仔细观察,我们在求W5W_5W5​的更新,误差反向传递路径输出层→隐层,即out(O1)→in(O1)→w5,总误差只有一根线能传回来。但是求W1W_1W1​时,误差反向传递路径是隐藏层→输入层,但是隐藏层的神经元是有2根线的,所以总误差沿着2个路径回来,也就是说,计算偏导时,要分开来算。

即:∂Etotal∂W1=∂Etotal∂outh1⋅∂outh1∂inin1⋅∂inin1∂W1=(∂EO1∂outh1+∂EO2∂outh1)⋅∂outh1∂inin1⋅∂inin1∂W1=(∂EO1∂inO1⋅∂inO1∂outh1+∂EO1∂inO1⋅∂inO1∂outh2)⋅∂outh1∂inin1⋅∂inin1∂W1\frac{∂E_{total}}{∂W_1} = \frac{∂E_{total}}{∂out_{h_1}}·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1} \\= (\frac{∂E_{O_1}}{∂out_{h_1}} + \frac{∂E_{O_2}}{∂out_{h_1}})·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1} \\= (\frac{∂E_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂out_{h_1}} + \frac{∂E_{O_1}}{∂in_{O_1}}·\frac{∂in_{O_1}}{∂out_{h_2}})·\frac{∂out_{h_1}}{∂in_{in_1}}·\frac{∂in_{in_1}}{∂W_1}∂W1​∂Etotal​​=∂outh1​​∂Etotal​​⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​=(∂outh1​​∂EO1​​​+∂outh1​​∂EO2​​​)⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​=(∂inO1​​∂EO1​​​⋅∂outh1​​∂inO1​​​+∂inO1​​∂EO1​​​⋅∂outh2​​∂inO1​​​)⋅∂inin1​​∂outh1​​​⋅∂W1​∂inin1​​​,结果为:∂Etotal∂W1=0.0011362635\frac{∂E_{total}}{∂W_1} = 0.0011362635∂W1​∂Etotal​​=0.0011362635。

因此,更新的W1W_1W1​的值为:W1′=W1−α⋅∂Etotal∂W1=0.1−0.1×0.0011362635=0.0998863737W'_1 = W_1 - α·\frac{∂E_{total}}{∂W_1} = 0.1-0.1×0.0011362635 = 0.0998863737W1′​=W1​−α⋅∂W1​∂Etotal​​=0.1−0.1×0.0011362635=0.0998863737,同理可以计算出W2′,W3′,W4′W'_2,W'_3,W'_4W2′​,W3′​,W4′​的值,以及,同理可以计算出偏置b1′,b2′b'_1, b'_2b1′​,b2′​的值。

偏置和权重可以采用不同的学习率,每一层之间也可以采用不同的学习率。

到此,计算出所有更新的权重和偏置,完成了1次迭代训练,可以重新进行第二次正向传播。随着迭代的次数加深,输出层的误差会越来越小,模型趋于收敛。

本文链接地址:https://www.jiuchutong.com/zhishi/299723.html 转载请保留说明!

上一篇:Vue2中过滤器的用法详解(vue过滤器可以异步吗)

下一篇:【特征提取】Hog特征原理简介与代码实践(特征提取原理)

  • 如何解除qq绑定的手机号(如何解除qq绑定的应用)

    如何解除qq绑定的手机号(如何解除qq绑定的应用)

  • edge浏览器卸载不掉(edge浏览器卸载重装)

    edge浏览器卸载不掉(edge浏览器卸载重装)

  • 微信验证码字符过不了(微信字母验证码一直验证不过)

    微信验证码字符过不了(微信字母验证码一直验证不过)

  • qq空间校园扩列怎么关闭(qq里面的校园扩列怎么不见了)

    qq空间校园扩列怎么关闭(qq里面的校园扩列怎么不见了)

  • 苹果x用一会就很烫正常吗(苹果x用一会就很烫是怎么回事)

    苹果x用一会就很烫正常吗(苹果x用一会就很烫是怎么回事)

  • 华为nova7pro多少赫兹(华为nova7pro多少w快充)

    华为nova7pro多少赫兹(华为nova7pro多少w快充)

  • nova6手机卡从哪里取(nova6手机卡口在什么位置)

    nova6手机卡从哪里取(nova6手机卡口在什么位置)

  • ipad花屏条纹解决方法(ipad花屏条纹解决方法 开关后好了)

    ipad花屏条纹解决方法(ipad花屏条纹解决方法 开关后好了)

  • 苹果手机边充电边玩为什么还是会掉电(苹果手机边充电边玩会爆炸吗)

    苹果手机边充电边玩为什么还是会掉电(苹果手机边充电边玩会爆炸吗)

  • 苹果笔记本更新卡住了怎么办(苹果笔记本更新系统好吗)

    苹果笔记本更新卡住了怎么办(苹果笔记本更新系统好吗)

  • 宝贝评价突然全部没了(宝贝评价0)

    宝贝评价突然全部没了(宝贝评价0)

  • caps lock键的功能是什么(capslock键的功能是控制中西文转换)

    caps lock键的功能是什么(capslock键的功能是控制中西文转换)

  • 抖音的公司叫什么名字(抖音的公司名称叫什么)

    抖音的公司叫什么名字(抖音的公司名称叫什么)

  • ps如何添加符号(ps怎么添加标点符号)

    ps如何添加符号(ps怎么添加标点符号)

  • 一加7T怎么开启蓝牙(一加7t怎么开启地震预警)

    一加7T怎么开启蓝牙(一加7t怎么开启地震预警)

  • 华为电子保修卡在哪里(华为电子保修卡可以作为三包凭证吗)

    华为电子保修卡在哪里(华为电子保修卡可以作为三包凭证吗)

  • x27升降摄像头怎么设置(x27升降摄像头有吱吱的声音吗)

    x27升降摄像头怎么设置(x27升降摄像头有吱吱的声音吗)

  • 抖音号怎样注销账号(抖音号怎样注销的)

    抖音号怎样注销账号(抖音号怎样注销的)

  • 钉钉群成员显示未激活(钉钉群成员显示不全)

    钉钉群成员显示未激活(钉钉群成员显示不全)

  • 苹果x有128g内存的吗(苹果x 有没有128)

    苹果x有128g内存的吗(苹果x 有没有128)

  • 苹果手机语音备忘录怎么关(苹果手机语音备忘录下载)

    苹果手机语音备忘录怎么关(苹果手机语音备忘录下载)

  • mp3怎么下载视频(mp3怎么下载视频教程手机)

    mp3怎么下载视频(mp3怎么下载视频教程手机)

  • 用Python举例实现逆波兰表达式(用python写)

    用Python举例实现逆波兰表达式(用python写)

  • React 高阶组件(react高阶组件)

    React 高阶组件(react高阶组件)

  • 留底退税怎么做账务处理
  • 收到投资款要交企业所得税吗为什么
  • 商业写字楼
  • 利润分配会计处理例题及解析
  • 企业所得税季度预缴怎么计算
  • 负债的账面价值减去未来期间计算应纳税所得额
  • 资产负债表上的资产是原值还是净值
  • 会计发票怎么样粘贴,记账凭证也要粘上吗
  • 支付稿费演出费用怎么算
  • 小规模纳税人费用发票怎么做账
  • 用友如何取消月末结转
  • 企业在建工程如何做账
  • 过路费抵扣税率是多少
  • 购货方申请红字信息表,销售方不开会怎么样
  • 个人房屋租赁税率2023年
  • 收回债权会计分录
  • 房屋贷款基准利率表 历年查询
  • 公司院内打井怎么处罚
  • 工资可以做企业成本吗?
  • 如何准确区分不动产租赁和仓储服务?
  • 如何接收银行承兑
  • wifi不让输入密码怎么办
  • windows4月更新
  • 小规模纳税人安装费税率
  • 工程决算超预算起诉
  • win10电脑输入法不见了怎么恢复
  • 收到汇算清缴的现金
  • 心绞痛的早期症状表现有哪些
  • nvcpl.dll是什么
  • gnaupdaemon.exe是什么
  • php初学
  • php imagecopymerge
  • 企业成立多久可以注销
  • 项目资本金现金流量表现金流入
  • 坏账准备的借贷方向表示什么意思
  • ThinkPHP中Common/common.php文件常用函数功能分析
  • 换货和退货有什么区别
  • 应付票据核算的内容
  • 入库税款异常怎么处理
  • echarts怎么引入
  • 跨月已计入费用后收到发票
  • 什么企业符合高新技术企业
  • 燃气费计入什么科目
  • 固定资产的货币资金包括
  • 资产负债表其他应收款包括哪些内容
  • 交耕地占用税如何交
  • 商业保理怎么账务处理?
  • 施工仪器的主要类别
  • 内部债权债务的抵消分录
  • 往来账核算
  • 施工单位的罚款标准
  • 查账征收的含义
  • 自创商誉是否需要纳税
  • 环境保护税共享信息表
  • 工资完税证明怎么开
  • 固定资产成本包括什么
  • mysql的安全级别
  • mysql在指定字段前添加
  • linux怎么统计文件中出现字符串的数量
  • centos7怎么变成图形化界面
  • vnc server apk
  • ubuntu怎么添加一个新用户
  • linux的head命令
  • 怎么删除swapfile
  • 怎样禁用ie
  • 如何彻底删除超级QQ秀
  • iphone服务器
  • win10预览版和正式版区别
  • win8.1删除所有内容并重新安装
  • js类的实现
  • node:js
  • javascript密码强度
  • startactivity()
  • js-cookie vue
  • javascript获取浏览器代理设置
  • android错误报告
  • java script入门
  • 租房完税证明需要多长时间内的
  • 法制建设包括哪三个方面
  • 工会经费上缴地方工会15%的规定
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设