位置: IT常识 - 正文

Text to image论文精读GigaGAN: 生成对抗网络仍然是文本生成图像的可行选择(论文implications)

编辑:rootadmin
Text to image论文精读GigaGAN: 生成对抗网络仍然是文本生成图像的可行选择

推荐整理分享Text to image论文精读GigaGAN: 生成对抗网络仍然是文本生成图像的可行选择(论文implications),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:论文imrad,论文imrad,textcnn论文,textcnn论文,textcnn论文,context 论文,textcnn论文,imagenet classification with论文,内容如对您有帮助,希望把文章链接给更多的朋友!

GigaGAN是Adobe和卡内基梅隆大学学者们提出的一种新的GAN架构,作者设计了一种新的GAN架构,推理速度、合成高分辨率、扩展性都极其有优势,其证明GAN仍然是文本生成图像的可行选择之一。

文章链接:https://arxiv.org/abs/2303.05511 项目地址:https://mingukkang.github.io/GigaGAN/

一、原文摘要

最近,文字-图像合成技术的成功已经席卷全球,激发了大众的想象力。从技术的角度来看,它也标志着设计生成图像模型所青睐的架构的巨大变化。GANs曾经是事实上的选择,有StyleGAN这样的技术。随着DALL·e2的出现,自回归和扩散模型一夜之间成为大规模生成模型的新标准。这种快速的转变提出了一个基本问题:我们能否扩大GANs的规模,从像LAION这样的大型数据集中受益?我们发现,随意增加StyleGAN架构的容量很快就会变得不稳定。我们介绍了一种新的GAN架构GigaGAN,它远远超过了这一限制,证明了GAN是文本到图像合成的可行选择。GigaGAN有三大优势。首先,它的推理速度快了几个数量级,合成一张512px的图像只需要0.13秒。其次,它可以在3.66秒内合成高分辨率图像,例如1600万像素的图像。最后,GigaGAN支持各种潜在空间编辑应用程序,如潜在插值、样式混合和矢量算术操作。

二、为什么提出GigaGAN?

最近发布的模型如DALL·E 2、Imagen、Parti和Stable Diffusion开创了图像生成的新时代,实现了前所未有的图像质量和模型灵活性。目前占主导地位的扩散模型和自回归模型都依赖于迭代推理,然而众所周知,迭代推理是一把双刃剑,虽然迭代方法可以实现简单目标的稳定训练,但在推理过程中会产生很高的计算成本。

而生成对抗网络只需通过单次向前传递生成图像,相较而言非常高效,其在建模单个或多个对象类方面表现出色,但在扩大规模时会经常遇见模式崩溃,在扩展到复杂的数据集或者更加开放的世界,仍然具有挑战性。

于是,作者提出了一系列问题:

GANs能否继续扩大规模,并可能从这些复杂资源中受益,还是已经停滞不前?是什么阻止了它们进一步扩大,我们能克服这些障碍吗?

在这些问题的基础上,作者首先研究分析了StyleGAN的关键问题,其次重新引入了多尺度训练,找到了一种改进图像-文本对齐和生成输出的低频细节的新方案——GigaGAN,与扩散和自回归模型相比,GigaGAN有三个主要的实际优势:

推理速度快,在0.13秒内生成512*512像素的图像。能合成超高清图像,可以在3.66秒内合成4k分辨率的超高分辨率图像。可控图像合成应用,被赋予了一个可控的、潜在的向量空间,可以用于充分研究的可控图像合成应用,例如风格混合、prompt插值和prompt混合。三、GigaGAN3.1、模型框架

GigaGAN模型框架如上图所示,首先,作者使用预训练的CLIP模型和预训练的文本编码器T提取文本嵌入。然后使用交叉注意力将本地文本描述符提供给生成器,全局文本描述符和潜在代码z一起被馈送到样式映射网络M以生成样式向量w(StyleGAN的方法)。样式向量w输入形成样本自适应核选择帮助调节主生成器。右侧显示样本自适应核选择的具体过程。

3.2、前导知识3.2.1、基线模型:StyleGAN。

GigaGAN架构基于StyleGAN2的条件版本,由两个网络组成G=G~∘MG=\widetilde{G} \circ MG=G∘M,映射网络w = M(z, c)将输入映射到一个“风格”向量w,它调制合成网络G~(w)\widetilde{G}(\mathbf{w})G(w)中的一系列上采样卷积层,以将学习到的常数张量映射到输出图像x。其中卷积是生成图像的主要引擎,而“风格”向量w是调节模型的信息来源。

3.2.2、 样本自适应核选择

为了处理互联网图像的高度多样化分布,文章提出了一种有效的方法来增强卷积核的表达能力,即基于文本条件处理实时创建卷积核,如下图所示

Filter Selection:这个方案中首先实例化了一组N个过滤器(图中叫Filter Bank):{Ki∈RCin ×Cout ×K×K}i=1N\begin{array}{c} \left\{\mathbf{K}_{i} \in {R}^{C_{\text {in }} \times C_{\text {out }} \times K \times K}\right\}_{i = 1}^{N} \end{array}{Ki​∈RCin ​×Cout ​×K×K}i=1N​​它在每一层取一个特征f∈RCinf ∈R^{C_{in}}f∈RCin​,然后样式向量w∈Rdw ∈ R^dw∈Rd经过一个仿射层来[Wfilter,bfilter]∈R(d+1)×N[W_{filter}, b_{filter}]∈R^{(d+1)×N}[Wfilter​,bfilter​]∈R(d+1)×N预测一组权重来平均滤波器,从而产生一个聚合滤波器K∈RCin×Cout×K×KK ∈ R^{C_{in}×C_{out}×K×K}K∈RCin​×Cout​×K×K,计算过程如下(不了解仿射变换的可同学可以看下这篇): K=∑i=1NKi⋅softmax⁡(Wfilter ⊤w+bfilter )i\mathbf{K}=\sum_{i=1}^N \mathbf{K}_i \cdot \operatorname{softmax}\left(W_{\text {filter }}^{\top} \mathbf{w}+b_{\text {filter }}\right)_iK=i=1∑N​Ki​⋅softmax(Wfilter ⊤​w+bfilter ​)i​

然后在StyleGAN2的正则卷积管道中使用该滤波器再经过一层仿射变换[Wfilter,bfilter]∈R(d+1)×Cin[W_{filter}, b_{filter}]∈R^{(d+1)×C_{in}}[Wfilter​,bfilter​]∈R(d+1)×Cin​进行权重调制: gadaconv (f,w)=((W mod ⊤w+bmod )⊗K)∗fg_{\text {adaconv }}(\mathbf{f}, \mathbf{w})=\left(\left(W_{\bmod }^{\top} \mathbf{w}+b_{\text {mod }}\right) \otimes \mathbf{K}\right) * \mathbf{f}gadaconv ​(f,w)=((Wmod⊤​w+bmod ​)⊗K)∗f 其中⊗和∗表示(反)调制和卷积。

在高层次上,基于softmax的加权可以被视为基于输入条件的可微滤波器选择过程。此外,由于滤波器选择过程只在每一层执行一次,选择过程比实际的卷积快得多。 卷积滤波器在每个样本中动态变化,其与动态卷积的想法相同,但不同之处在于文章显式实例化了一个更大的滤波器组,并基于StyleGAN的w-空间条件下的单独路径选择权重。

3.2.3、将注意力与卷积交织

建立这种长期关系的一种方法就是使用注意力层。BigGAN, GANformer和ViTGAN都将注意力层与卷积主干集成在一起来提高性能,但是如果简单地给StyleGAN添加注意层往往会导致训练崩溃。这是由于鉴别器的Lipschitz连续性在稳定训练中发挥了关键作用,作者使用L2-distance代替点积作为注意对数来促进Lipschitz连续性,类似于ViTGAN

为了进一步提高性能,作者发现匹配StyleGAN的架构细节是至关重要的。例如均衡学习率和从单位正态分布初始化权重。作者缩小L2距离对数以大致匹配初始化时的单位正态分布,并减少来自注意层的剩余增益。另外通过绑定键和查询矩阵,并应用权重衰减来进一步提高稳定性。

在综合网络G中,注意层与每个卷积块交错,利用样式向量w作为额外的标记。在每个注意块上,我们添加了一个单独的交叉注意机制gcross−attentiong_{cross-attention}gcross−attention​来处理单个词嵌入。我们使用每个输入特征张量作为查询,文本嵌入作为注意机制的键和值。

3.3、生成器设计3.3.1、文本和潜在空间条件映射

强大的语言模型对于产生强大的结果必不可少。作者对输入提示符进行标记化以产生条件向量C∈RC×1024C∈R^{C×1024}C∈RC×1024,并从预训练好的CLIP特征提取器的倒数第二层提取特征。为了考虑额外的灵活性,模型在顶部应用额外的注意层T来处理词嵌入,然后将它们传递给基于mlp的映射网络:t=T(Etxt(c))∈RC×1024\mathbf{t}=T\left(\mathcal{E}_{\mathrm{txt}}(\mathbf{c})\right) \in \mathbb{R}^{C \times 1024}t=T(Etxt​(c))∈RC×1024,其中t的每一个分量ti都捕获了句子中第i个单词的嵌入。tlocal=t1:C/EOTt_{local} = t_{{1:C}/EOT}tlocal​=t1:C/EOT​ , tglobal∈R1024t_{global}∈R^{1024}tglobal​∈R1024,EOT指的是end of text,通过MLP映射网络处理这个全局文本描述符tglobalt_{global}tglobal​以及潜在代码z ~ N(0,1),以提取样式w=M(z,tglobal)w = M(z, t_{global})w=M(z,tglobal​),全部过程为:

(tlocal ,tglobal )=T(Etxt(c)),w=M(z,tglobal )\begin{gathered}\left(\mathbf{t}_{\text {local }}, \mathbf{t}_{\text {global }}\right)=T\left(\mathcal{E}_{\mathrm{txt}}(\mathbf{c})\right), \\ \mathbf{w}=M\left(\mathbf{z}, \mathbf{t}_{\text {global }}\right)\end{gathered}(tlocal ​,tglobal ​)=T(Etxt​(c)),w=M(z,tglobal ​)​

与原来的StyleGAN不同,模型既使用基于文本的样式代码w来调制合成网络eG,又使用词嵌入tlocal作为交叉注意的特征:x=G~(w,tlocal)x = \widetilde{G}(w,t_{local})x=G(w,tlocal​),文本图像对齐在视觉上随着交叉注意力的作用而改善。

3.3.2、网络

Text to image论文精读GigaGAN: 生成对抗网络仍然是文本生成图像的可行选择(论文implications)

上图表示了生成器网络结构,灰色为卷积,黄色为自注意力层,蓝色为交叉注意力层,合成网络的具体过程用公式表述如下:

fℓ+1=gxa ℓ(gattn ℓ(gadaconv ℓ(fℓ,w),w),tlocal )\mathbf{f}_{\ell+1}=g_{\text {xa }}^{\ell}\left(g_{\text {attn }}^{\ell}\left(g_{\text {adaconv }}^{\ell}\left(\mathbf{f}_{\ell}, \mathbf{w}\right), \mathbf{w}\right), \mathbf{t}_{\text {local }}\right)fℓ+1​=gxa ℓ​(gattn ℓ​(gadaconv ℓ​(fℓ​,w),w),tlocal ​)

其中g’xa、g’attn和g’adaconv表示交叉注意、自我注意和权重(反)调制层的第l层。

3.4、鉴别器设计

鉴别器由图像处理和文本处理两个分支组成。文本分支处理与生成器类似的文本。图像分支接收一个图像金字塔,并对每个图像尺度进行独立预测。此外,预测是在下采样层的所有后续尺度上进行的,使其成为一个多尺度输入,多尺度输出(MS-I/O)鉴别器。 鉴别器由使用条件文本函数tDt_DtD​处理文本和函数φ处理图像的独立分支组成。通过函数ψ比较两个分支的特征来预测真假。

3.4.1、文本处理

首先,为了将条件作用合并到鉴别器中,首先从文本c中提取文本描述符tDt_DtD​:与生成器类似,我们应用一个预先训练好的文本编码器,如CLIP,然后是几个可学习的注意层进行提取,这里只用到全局描述符,不再使用局部描述符。

3.4.2、多尺度图像处理

多尺度图像处理中,随着模型大小的增加,鉴别器网络的依赖于高分辨率层,早期低分辨率层变得不活跃。于是作者重新设计了模型架构,以提供跨多个尺度的训练信号。

为了在不同尺度上提取特征,作者定义了特征ϕi→j:RXi×Xi×3→RXjD×XjD×Cj\phi_{i \rightarrow j}: \mathbb{R}^{X_i \times X_i \times 3} \rightarrow \mathbb{R}^{X_j^D \times X_j^D \times C_j}ϕi→j​:RXi​×Xi​×3→RXjD​×XjD​×Cj​,每个子网络φi→jφ_{i→j}φi→j​都是全φ的子集,φ→Lφ_0→Lφ0​→L,其中i > 0表示进入较晚,j < L表示退出较早。φ中的每一层都是由自我注意组成,然后以步长为2进行卷积。最后一层将空间范围压缩为1 × 1张量。这将产生XjD{X^D_j}XjD​ ={32,16,8,4,1}的输出分辨率。这允许我们将金字塔上分辨率较低的图像注入中间层。由于我们在不同级别上使用共享的特征提取器,并且大多数添加的预测都是在低分辨率下进行的,因此增加的计算开销是可控的。

3.5、损失函数3.5.1、多尺度输入,多尺度输出对抗损失

总的来说,我们的训练目标包括鉴别器损失,以及我们提出的匹配损失,以鼓励鉴别器考虑条件:VMS−I/O(G,D)=∑i=L−1∑j=1LVGAN(Gi,Dij)+Vmatch (Gi,Dij)\mathcal{V}_{\mathrm{MS}-\mathrm{I} / \mathrm{O}}(G, D)=\sum_{i=0}^{L-1} \sum_{j=1}^L \mathcal{V}_{\mathrm{GAN}}\left(G_i, D_{i j}\right)+\mathcal{V}_{\text {match }}\left(G_i, D_{i j}\right)VMS−I/O​(G,D)=i=0∑L−1​j=1∑L​VGAN​(Gi​,Dij​)+Vmatch ​(Gi​,Dij​)

其中VGAN为标准的非饱和GAN损耗,为了计算鉴别器输出,我们训练预测器ψ,它使用文本特征tDt_DtD​来调制图像特征φ(x): Dij(x,c)=ψj(ϕi→j(xi),tD)+Conv⁡1×1(ϕi→j(xi))D_{i j}(\mathbf{x}, \mathbf{c})=\psi_j\left(\phi_{i \rightarrow j}\left(\mathbf{x}_i\right), \mathbf{t}_D\right)+\operatorname{Conv}_{1 \times 1}\left(\phi_{i \rightarrow j}\left(\mathbf{x}_i\right)\right)Dij​(x,c)=ψj​(ϕi→j​(xi​),tD​)+Conv1×1​(ϕi→j​(xi​))

将ψjψ_jψj​实现为4层1×1调制卷积,并加入Conv1×1作为跳跃连接显式地维持一个无条件预测分支

3.5.2、Matching-aware损失

前面的GAN项测量图像x与条件c的匹配程度,以及x看起来有多逼真,而不考虑条件。然而,在早期的训练中,当伪影很明显时,鉴别器严重依赖于做出独立于条件反射的决定,并且在考虑后来的条件反射时犹豫不决。

为了强制判别器加入条件,我们将x与一个随机的、独立采样的条件c匹配,并将它们表示为一个假对: Vmatch =Ex,c,c^[log⁡(1+exp⁡(D(x,c^)))+log⁡(1+exp⁡(D(G(c),c^))]\begin{aligned} \mathcal{V}_{\text {match }}=\mathbb{E}_{\mathbf{x}, \mathbf{c}, \hat{\mathbf{c}}}[ & \log (1+\exp (D(\mathbf{x}, \hat{\mathbf{c}}))) \\ & +\log (1+\exp (D(G(\mathbf{c}), \hat{\mathbf{c}}))]\end{aligned}Vmatch ​=Ex,c,c​[​log(1+exp(D(x,c)))+log(1+exp(D(G(c),c))]​ 其中(x, c)和c分别从pdata中采样。这种损失之前已经在文本到图像的GAN作品中研究过,除了我们发现对G生成的图像以及真实图像x强制Matchingaware损失,会导致性能的明显提高

3.5.3、CLIP对比损失

LCLIP =E{cn}[−log⁡exp⁡(Eimg (G(c))⊤Etxt (c))∑nexp⁡(Eimg (G(c))⊤Etxt (cn))]\left.\mathcal{L}_{\text {CLIP }}=\mathbb{E}_{\left\{\mathbf{c}_n\right\}}\left[-\log \frac{\exp \left(\mathcal{E}_{\text {img }}\left(G\left(\mathbf{c}_0\right)\right)^{\top} \mathcal{E}_{\text {txt }}\left(\mathbf{c}_0\right)\right)}{\sum_n \exp \left(\mathcal{E}_{\text {img }}\left(G\left(\mathbf{c}_0\right)\right)^{\top} \mathcal{E}_{\text {txt }}\left(\mathbf{c}_n\right)\right.}\right)\right]LCLIP ​=E{cn​}​​−log∑n​exp(Eimg ​(G(c0​))⊤Etxt ​(cn​)exp(Eimg ​(G(c0​))⊤Etxt ​(c0​))​​​

3.5.4、视觉辅助对抗性损失

综上所述,模型构建了一个附加的鉴别器,使用CLIP模型作为主干,称为视觉辅助GAN。我们冻结CLIP图像编码器,从中间层提取特征,并通过3 × 3 conv层的简单网络进行处理,从而进行真实/虚假预测。还通过调制结合了条件作用,如公式7所示。为了稳定训练,我们还添加了一个固定的随机投影层,正如投影GAN所提出的那样。称之为视觉辅助对抗性损失LVision(G)L_{Vision(G)}LVision(G)​

最终损失函数为:V(G,D)=VMS−I/O(G,D)+LCLIP(G)+LVision(G)V(G, D) = V_{MS-I/O}(G, D) +L_{CLIP}(G) + L_{Vision}(G)V(G,D)=VMS−I/O​(G,D)+LCLIP​(G)+LVision​(G)

四、实验

作者做了大量且全面的实验,看论文附录也很丰富。这里简单展示部分实验结果,具体请看原文。

4.1、消融实验

4.2、文本生成图像定量对比

4.3、与distilled diffusion models的对比

4.4、视觉效果

五、总结

GigaGAN架构为大规模生成模型开辟了一个全新的设计空间,并带回了关键的编辑功能,这些功能在向自回归和扩散模型过渡时变得具有挑战性。其已经测试的能力远远超出了用新方法可能实现的能力,并通过使用类似资源训练的自回归和扩散模型实现了具有竞争力的视觉质量,同时速度快了几个数量级,并实现了潜在的插值和程式化。

💡 最后

我们已经建立了🏤T2I研学社群,如果你还有其他疑问或者对🎓文本生成图像很感兴趣,可以私信我加入社群。

📝 加入社群 抱团学习:中杯可乐多加冰-深度学习T2I研习群

🔥 限时免费订阅:文本生成图像T2I专栏

🎉 支持我:点赞👍+收藏⭐️+留言📝

本文链接地址:https://www.jiuchutong.com/zhishi/300357.html 转载请保留说明!

上一篇:一文搞懂JS-Web-API——DOM(一文搞懂兰州简史)

下一篇:Node.js 全网最详细教程 (第一章:Node学习入门必看教程)(nodejs.org)

  • 怎么清理c盘只留下系统(怎么清理c盘只保留系统文件)

    怎么清理c盘只留下系统(怎么清理c盘只保留系统文件)

  • 美团地图上怎么添加店铺位置(美团地图上怎么添加自己家位置)

    美团地图上怎么添加店铺位置(美团地图上怎么添加自己家位置)

  • 安卓手机怎么打开html文件(安卓手机怎么打苹果区的王者)

    安卓手机怎么打开html文件(安卓手机怎么打苹果区的王者)

  • 抖音换手机登录会降权重吗(抖音换手机登录不上怎么办)

    抖音换手机登录会降权重吗(抖音换手机登录不上怎么办)

  • 高德地图如何查看公交车实时位置(高德地图如何查看街景实景)

    高德地图如何查看公交车实时位置(高德地图如何查看街景实景)

  • 华硕b360 s和不带s区别(华硕b360ms)

    华硕b360 s和不带s区别(华硕b360ms)

  • 充电器头黑色怎么清除(充电器头黑了怎么弄干净)

    充电器头黑色怎么清除(充电器头黑了怎么弄干净)

  • 红米k30pro有没有双扬声器(红米k30pro有没有魔法换天)

    红米k30pro有没有双扬声器(红米k30pro有没有魔法换天)

  • iphone7p无服务怎么恢复(iphone7p 无服务)

    iphone7p无服务怎么恢复(iphone7p 无服务)

  • 网络设置没有飞行模式(电脑网络设置里没有飞行模式)

    网络设置没有飞行模式(电脑网络设置里没有飞行模式)

  • 苹果手机如何模拟门禁卡(苹果手机如何模拟安卓系统)

    苹果手机如何模拟门禁卡(苹果手机如何模拟安卓系统)

  • 苹果11通话能不能录音(苹果11通话不好什么原因,听不到对方说话)

    苹果11通话能不能录音(苹果11通话不好什么原因,听不到对方说话)

  • 手机分辨率高低有什么区别(在哪里看手机分辨率高低)

    手机分辨率高低有什么区别(在哪里看手机分辨率高低)

  • 华为手机怎么输入拼音声调(华为手机怎么输入m3)

    华为手机怎么输入拼音声调(华为手机怎么输入m3)

  • excel2007怎么下载

    excel2007怎么下载

  • 7p玩游戏闪退怎么回事(7p进游戏闪退)

    7p玩游戏闪退怎么回事(7p进游戏闪退)

  • 华为手环可以连几个手机(华为手环可以连接小米手机吗)

    华为手环可以连几个手机(华为手环可以连接小米手机吗)

  • 苹果锁屏声音忽大忽小(苹果锁屏声音忽大忽小是怎么回事)

    苹果锁屏声音忽大忽小(苹果锁屏声音忽大忽小是怎么回事)

  • qq乐币在哪里看(qq 乐币)

    qq乐币在哪里看(qq 乐币)

  • 怎么把视频分三层(怎么样把视频分三屏)

    怎么把视频分三层(怎么样把视频分三屏)

  • office怎么设置一级标题(office怎么设置一级标题二级标题)

    office怎么设置一级标题(office怎么设置一级标题二级标题)

  • 荣耀手机怎样分屏(荣耀手机怎样分享wifi)

    荣耀手机怎样分屏(荣耀手机怎样分享wifi)

  • 苹果的账户设置在哪里(苹果的账户设置里购买记录怎么删除)

    苹果的账户设置在哪里(苹果的账户设置里购买记录怎么删除)

  • 使用Python进行网站页面开发——HTML(pythonnetworkx)

    使用Python进行网站页面开发——HTML(pythonnetworkx)

  • 文本检测之DBNet,DBNet++(文本检测工具)

    文本检测之DBNet,DBNet++(文本检测工具)

  • 初级会计职称能加多少工资
  • 所得税费用本期金额怎么算
  • 什么是价内税不是重复了吗
  • 一般纳税人金税盘全额抵扣分录
  • 公司银行未开户税务也没开需要做工商年报吗
  • 实际缴纳所得税时应借记什么账户
  • 企业收到的捐赠应计入
  • 税收的三个基本要素是
  • 商铺出租怎么做账
  • 车过户怎么处理
  • 公司美元账户收到美元要交税吗
  • 委托加工模具的费用计入什么科目?
  • 外地预缴企业所得税税率
  • 资产一次性摊销
  • 个人去税局开劳务费需要注意什么
  • 建筑业异地预缴增值税
  • 财务软件里面可以修改吗
  • 以前年度损益在借方
  • 企业撤回投资说明模板怎么写
  • 积分兑换的话费在使用后不再累计消费积分是什么意思
  • 研发过程中材料费计入
  • 跨期费用会计处理
  • 进货折让会计分录
  • 如何阻止windows10升级到11
  • 手机压缩包损坏怎么修复
  • 国外差旅费如何报销
  • 加计扣除的会计要素
  • 筹建期固定资产汇算清缴
  • 经营免租期是什么意思
  • 税控设备抵减增值税会计处理
  • pascl32.exe - pascl32是什么进程 有什么用
  • php进程数设置
  • 会计中利得的定义
  • 交通运输发票票样
  • 核销对哪些单据对应关系进行的操作
  • 工程项目过路费是指什么意思啊
  • phpcms生成html
  • 让渡资产使用权收入计入什么科目
  • 房屋租赁需要计提印花税吗
  • 固定资产盘盈为什么计入盈余公积
  • 接受捐赠的材料计入什么科目
  • 购买商标需要交什么税
  • 公账上的钱怎么提出来
  • 付款凭证怎么写样本
  • 贷记坏账准备借记什么
  • 应交个人所得税借方余额表示什么
  • 坐车时的保险费怎么算
  • 申报抵扣的进项税额怎么算
  • 旅游饮食服务企业财务会计制度
  • win8宽带连接
  • slmgr.vbs /dli
  • centos安装软件教程
  • ubuntu系统中文
  • big是什么文件格式
  • windows资源管理器被结束进程了怎么办
  • win10 win7兼容模式
  • win7电脑开机显示屏显示黑屏怎么办
  • win7 win8.1
  • apache2 rewrite
  • centos最小化安装步骤
  • win7怎么查看
  • 64位的win10更新安装补丁KB3105213失败总是重复安装该怎么办?
  • 升级win10后c盘满了
  • win10桌面图标排列设置
  • 浅谈一下新冠的好处
  • js页面点击怎么随机生成图片
  • js实例教程
  • js倒计时结束操作
  • vue父向子传方法
  • node+mongodb
  • android 笔记软件推荐
  • unity如何连接数据库
  • JavaScript中的数据类型分为两大类
  • jquery怎么打开
  • 安卓微信仿ios版
  • python+flask
  • 河北电子税务局手机app
  • 残疾人个人所得税怎么申报退税
  • 建筑业统一发票税率
  • 湖北航天金税盘服务器地址
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设