位置: IT常识 - 正文

深入理解TDNN(Time Delay Neural Network)——兼谈x-vector网络结构(深入理解linux内核)

编辑:rootadmin
深入理解TDNN(Time Delay Neural Network)——兼谈x-vector网络结构 概述TDNN(Time Delay Neural Network,时延神经网络)是用于处理序列数据的,比如:一段语音、一段文本将TDNN和统计池化(Statistics Pooling)结合起来,正如x-vector的网络结构,可以处理任意长度的序列TDNN出自Phoneme recognition using time-delay neural networksx-vector出自X-Vectors: Robust DNN Embeddings for Speaker Recognition此外,TDNN还演化成了ECAPA-TDNN,而ECAPA-TDNN则是当前说话人识别领域,在VoxCeleb1数据集的三个测试集VoxCeleb1 (cleaned)、VoxCeleb1-H (cleaned)、VoxCeleb1-E (cleaned)上的最强模型,因此学习TDNN还是很有必要的x-vector的网络结构x-vector是用于文本无关的说话人识别的,因此需要处理任意长度的序列,其网络结构如下图所示: 上图的迷惑性其实非常大,有必要好好讲解一下,现在我给出从frame1到frame4层(frame5与frame4本质上是一样的,只不过卷积核数量不同)的可视化结果 输入:每个特征图表示一帧,特征图的通道数为24,表示一帧的特征数(原文是24维fbank特征),特征图的分辨率是1,在这里需要明确:语音是1维数据,因此特征图并不是二维图,而是一个值,24个特征图堆叠起来构成24维fbank特征frame1frame1的特征图经过1维卷积得到,卷积核大小inchannels×kernelsize×outchannels=24×5×512inchannels \times kernelsize \times outchannels=24\times5\times512inchannels×kernelsize×outchannels=24×5×512frame1的每个特征图下面连接的5条线,表示卷积核。这5条线不是5根细线,而是5根麻花线,每根麻花线由inchannels=24inchannels=24inchannels=24根细线组成,每根细线连接一个特征。每根细线的权重都是一样的,每根麻花线的权重不一样 kernelsize=5kernelsize=5kernelsize=5,对应闭区间[t−2,t+2][t-2,t+2][t−2,t+2]一共5帧的上下文,也可以表示为{t−2,t−1,t,t+1,t+2}\left \{ t-2,t-1,t,t+1,t+2 \right \}{t−2,t−1,t,t+1,t+2},之所以表格说frame1的输入是120,是因为将5帧上下文的特征都计算进去了5×24=1205\times24=1205×24=120outchannels=512outchannels=512outchannels=512,表示卷积核的厚度是512,可以理解为5根麻花线堆叠了512次,每次堆叠都得到新的5根麻花线,都符合“每根细线的权重都是一样的,每根麻花线的权重不一样”。5根麻花线同时运算,得到一个值,从而frame1的每个特征图其实也是一个值,且通道数为512,对应表格中的frame1的输出是512frame2frame2的特征图经过1维膨胀卷积得到,卷积核大小inchannels×kernelsize×outchannels=512×3×512inchannels \times kernelsize \times outchannels=512\times3\times512inchannels×kernelsize×outchannels=512×3×512不要被膨胀卷积吓到了,膨胀卷积的kernelsize=3kernelsize=3kernelsize=3,表示3根麻花线中,第2根麻花线连接第t帧,第1根麻花线连接第t-2帧,第3根麻花线连接第t+2帧,对应表格中的{t−2,t,t+2}\left \{ t-2,t,t+2 \right \}{t−2,t,t+2}共3帧的上下文,这就是膨胀卷积和标准卷积的不同之处,隔帧连接在PyTorch中,1维卷积的api为 torch.nn.Conv1d(inchannels,outchannels,kernelsize,stride=1,padding=,dilation=1,groups=1,bias=True,paddingmode=′zeros′,device=None,dtype=None)torch.nn.Conv1d(inchannels, outchannels, kernelsize, stride=1, padding=0, dilation=1, groups=1, bias=True, paddingmode='zeros', device=None, dtype=None)torch.nn.Conv1d(inchannels,outchannels,kernelsize,stride=1,padding=0,dilation=1,groups=1,bias=True,paddingmode=′zeros′,device=None,dtype=None) 其中,dilation=1dilation=1dilation=1表示标准卷积,frame2的膨胀卷积需要设置dilation=2dilation=2dilation=2在这里我们也发现一点:TDNN其实是卷积的前身,后世提出的膨胀卷积,在TDNN里已经有了雏形,只不过TDNN是用于1维数据的frame3、frame4没有引进新的运算。frame3需要设置dilation=3dilation=3dilation=3,而frame4的卷积核大小inchannels×kernelsize×outchannels=512×1×512inchannels \times kernelsize \times outchannels=512\times1\times512inchannels×kernelsize×outchannels=512×1×512,因为kernelsize=1kernelsize=1kernelsize=1,所以与MLP(dense layer)没有本质区别,卷积核通过在每一帧上移动,实现全连接,因此可以看到有些代码实现用kernelsize=1kernelsize=1kernelsize=1的卷积替代全连接从frame1到frame5,每次卷积的步长stridestridestride都等于1,从而对每一帧都有对应的输出,也就是说,对于任意长度的帧序列,frame5的输出也是一个同等长度的序列,长度记为TTT,而由于frame5的outchannels=1500outchannels=1500outchannels=1500,所以表格中统计池化的输入是1500×T1500 \times T1500×T统计池化的原理颇为简单,本质是在序列长度TTT这一维度求均值和标准差,然后将均值和标准差串联(concatenate)起来,所以池化后,序列长度TTT这一维度消失了,得到了150015001500个均值和150015001500个标准差,串联起来就是长度为300030003000的向量segment6、segment7和Softmax都是标准的MLP,不再赘述最后segment6输出的512512512长度的向量,被称为x-vector,用于训练一个PLDA模型,进行说话人识别,可以计算一下,提取x-vector所需的参数 frame1+frame2+frame3+frame4+frame5+segment6=120×512+1536×512+1536×512+512×512+512×1500+3000×512=420,0448\begin{aligned} &frame1+frame2+frame3+frame4+frame5+segment6 \\ =&120 \times 512 + 1536 \times 512 + 1536 \times 512 + 512 \times 512 + 512 \times 1500 + 3000 \times 512 \\ =&420,0448 \end{aligned}==​frame1+frame2+frame3+frame4+frame5+segment6120×512+1536×512+1536×512+512×512+512×1500+3000×512420,0448​参数量并不能代表计算量,因为输入网络的是任意长度的帧序列
本文链接地址:https://www.jiuchutong.com/zhishi/299905.html 转载请保留说明!

上一篇:chatgpt实际是怎样工作的?(chattr i)

下一篇:Pytorch训练过程中出现RuntimeError: falseINTERNAL ASSERT FAILED... Couldn‘t open shared file mapping...(pytorch训练函数)

  • 所得税没有计提怎么做账
  • 股票权类型
  • 外贸企业出口流程图
  • 财务软件交多少钱印花税
  • 印花税贴花是什么时候取消的
  • 股东所有者权益公式
  • 接受投资专利技术科目
  • 上个月没有清卡,这个月可以抄税吗
  • 广告公司个人所得税几个点
  • 公司购买的理财产品所得需要缴纳企业所得税吗?
  • 销售返利的会计科目
  • 公司汽车的折旧费可以扺税吗
  • 利润表中所得税费用包括哪些
  • 长期股权投资的4个明细科目
  • 由于红字发票生成红字进项税转出如何做账?
  • 税务房屋租赁发票图片
  • 客户以旧料抵货款账务如何处理?
  • 一般纳税人收小规模普票可以算成本吗
  • 收取职工房租 算收入吗
  • 小微企业免税销售额填含税还是不含税
  • 委托贷款利息收入现金流
  • 开培训费专用发票开票有具体要求吗?
  • 筹建期装修费用计入什么科目
  • 物流企业税务稽查要点
  • 企业重组有什么好处
  • 收派服务发票需交税吗
  • 有限责任公司自然人独资可以增加股东吗
  • 进口应税消费品所支付的金额不包括
  • 超额用电罚款应由谁缴纳
  • 金蝶是先过账还是先审核
  • 客户转钱到公司怎么说
  • 如何在windows11上打开蓝牙
  • 新手会计入门
  • 文件过滤什么意思
  • 报税系统维护费怎么入账
  • win10桌面2怎么使用
  • 苹果14
  • php遍历显示多维数组
  • 第三方检测公司招聘信息
  • win7旗舰版叫啥
  • yarn的配置
  • php加减
  • 网站变成灰色什么时候恢复
  • 交易性金融资产的入账价值
  • 发ai的英文单词
  • php.ini中date.timezone设置详解
  • php 后端
  • 余热发电前景
  • 增值税申报表销项税额怎么算?
  • 裁员补偿金如何合理避税
  • 不动产投资应该怎么做账
  • vj刷题
  • 公司购入车辆的增值税怎么算
  • 个人所得税是可以全部退回吗
  • 企业每月应交哪几种税费
  • 存货跌价准备借减贷增吗
  • 建筑企业属于什么类型
  • 研发费用如何进账
  • 固定资产大修理和更新改造的区别
  • 小规模纳税人的认定标准是什么
  • 汇算清缴可以不调整吗
  • 公司章程在工商局盖章需要什么
  • 补缴以前年度所得税怎么做会计分录
  • 项目清算后未售房产怎么纳税
  • 企业设备可以贷款吗?
  • 在建工程转长期待摊费用是什么意思
  • 刻章费发票怎么开
  • sql批量导出数据
  • Win7旗舰版系统安装
  • 进程关不掉怎么解决
  • centosfind命令
  • windows升级10
  • linux0.01编译
  • centos 怎么用
  • 可以自己做手写的软件
  • 梦见擦窗户框
  • 国家税务局福建省电子税务
  • 国税系统重点领导名单
  • 电子发票开票失败怎么回事?
  • 深圳北站哪里取纸质票
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号

    网站地图: 企业信息 工商信息 财税知识 网络常识 编程技术

    友情链接: 武汉网站建设