位置: IT常识 - 正文

【语音算法】wav2vec系列原理和使用(语音处理算法)

发布时间:2024-01-07
【语音算法】wav2vec系列原理和使用 文章目录前言1. wav2vec2. vq-wav2vec3. wav2vec2.03.1 encoder3.2 context3.3 wav2vec2.0的使用(transformers库)参考文献前言

推荐整理分享【语音算法】wav2vec系列原理和使用(语音处理算法),希望有所帮助,仅作参考,欢迎阅读内容。

文章相关热门搜索词:语音识别算法c源码,语音处理算法,语音 算法,语音 算法,phonetics语音算法,语音算法方向及前景,语音算法方向及前景,语音算法方向及前景,内容如对您有帮助,希望把文章链接给更多的朋友!

wav2vec系列工作由facebook AI Research团队提出,包括wav2vec、vq-wav2vec、wav2vec2.0,效仿nlp上的word2vec,是语音的一种通用特征提取器。本文重点讲解wav2vec2.0模型及其使用方法。

1. wav2vec

论文:wav2vec: Unsupervised Pre-training for Speech Recognition

本文提出一种无监督的语音预训练模型 wav2vec,可迁移到语音下游任务。模型结构如下图,分为将原始音频x编码为潜在空间z的 encoder network(5层卷积),和将z转换为contextualized representation的 context network(9层卷积),最终特征维度为512x帧数。目标是在特征层面使用当前帧预测未来帧。

2. vq-wav2vec

论文:vq-wav2vec: Self-Supervised Learning of Discrete Speech Representations

【语音算法】wav2vec系列原理和使用(语音处理算法)

本文基于wav2vec,将连续特征z通过提出的量化模块,变成离散特征z‘,实现特征空间从无限的连续到有限的离散的转换过程。文中提出了两种量化方法,Gumbel softmax和K-Means,如下图。 其中,左右两个部分中的 e1 … ev,就是码本(记录特征集,可以理解为 BERT 中的词表),Gumbel通过逻辑值最大化(回传时使用Gumbel softmax来保证可导)找对应码本条,K-Means通过计算与码本距离来找最小距离的码本条。

3. wav2vec2.0

论文:wav2vec 2.0: A Framework for Self-Supervised Learning of Speech Representations

本文基于wav2vec,结合了vq-wav2vec的量化模块和Transformer,提出了wav2vec2.0,如下图。其中,encoder network基于CNN,而context network基于Transformer,任务是在特征层面恢复被mask的量化的帧。 模型的整体结构如下图,以下具体讲解结构。

3.1 encoder

feature extractor 使用了7层的一维CNN,步长为(5,2,2,2,2,2,2),卷积核宽度为(10,3,3,3,3,2,2)。 对于x=16000的输入语音,各卷积层输出的时间维度为: cnn0 (16000-10)/5+1 = 3199 cnn1 (3199-3)/2+1 = 1599 cnn2 (1599-3)/2+1 = 799 cnn3 (799-3)/2+1 = 399 cnn4 (399-3)/2+1 = 199 cnn5 (199-2)/2+1 = 99 (除法有小数,向下取整) cnn6 (99-2)/2+1 = 49 (除法有小数,向下取整) 因此,对于16k采样率的1s的语音对应矩阵(1,16000),channels大小为512,对应的输出为 (512,49),时间维度上约相当于每20ms产生一个512维的特征向量,但实际上每一帧都经过多层卷积,可见到的时间不止20ms。 另外,在cnn0使用了GroupNorm,在cnn1-6的输出使用了GELU。

(feature_extractor): Wav2Vec2FeatureEncoder( (conv_layers): ModuleList( (0): Wav2Vec2GroupNormConvLayer( (conv): Conv1d(1, 512, kernel_size=(10,), stride=(5,), bias=False) (activation): GELUActivation() (layer_norm): GroupNorm(512, 512, eps=1e-05, affine=True) ) (1): Wav2Vec2NoLayerNormConvLayer( (conv): Conv1d(512, 512, kernel_size=(3,), stride=(2,), bias=False) (activation): GELUActivation() ) (2): Wav2Vec2NoLayerNormConvLayer( (conv): Conv1d(512, 512, kernel_size=(3,), stride=(2,), bias=False) (activation): GELUActivation() ) (3): Wav2Vec2NoLayerNormConvLayer( (conv): Conv1d(512, 512, kernel_size=(3,), stride=(2,), bias=False) (activation): GELUActivation() ) (4): Wav2Vec2NoLayerNormConvLayer( (conv): Conv1d(512, 512, kernel_size=(3,), stride=(2,), bias=False) (activation): GELUActivation() ) (5): Wav2Vec2NoLayerNormConvLayer( (conv): Conv1d(512, 512, kernel_size=(2,), stride=(2,), bias=False) (activation): GELUActivation() ) (6): Wav2Vec2NoLayerNormConvLayer( (conv): Conv1d(512, 512, kernel_size=(2,), stride=(2,), bias=False) (activation): GELUActivation() ) ) )3.2 context

整体结构图中的context包括左右两部分,左边负责将z转换成c(对应wav2vec2特征),右边负责将z离散化以计算损失。

左边部分中,对于输入512x50的z,有: post_extract_proj: 768x50 apply_mask->pos_conv->LN: 768x50 Transformer*12: 768x50 choose_masking: 768xM,M为mask的帧数 final_proj: 256xM

右边部分中,对于输入512x50的z,有: choose_masking: 512xM quantizer: 256xM project_q: 256xM

其中,量化的参数有:码本个数G=2,每个码本的条目个数V=320,条目的维度d/G=256/2=128。参数含义:G=latent_groups,V=latent_vars,d=vq_dim。 具体的quantizer流程如下图所示,前向的时候直接找出来最大值对应的码本中的条目,相当于是一个离散的操作,但是这个步骤不可导,无法进行反向传播,为了解决这个问题,采用了gumbel softmax操作。

3.3 wav2vec2.0的使用(transformers库)import soundfile as sfimport torchfrom transformers import Wav2Vec2ForCTC, Wav2Vec2Processorprocessor = Wav2Vec2Processor.from_pretrained("facebook/wav2vec2-base-960h")model = Wav2Vec2ForCTC.from_pretrained("facebook/wav2vec2-base-960h") # 用于ASR等,32维audio_input, sample_rate = sf.read(path_audio) # (31129,)input_values = processor(audio_input, sampling_rate=sample_rate, return_tensors="pt").input_values # torch.Size([1, 31129])logits = model(input_values).logits # torch.Size([1, 97, 32])predicted_ids = torch.argmax(logits, dim=-1) # torch.Size([1, 97])transcription = processor.decode(predicted_ids[0]) # ASR的解码结果from transformers import Wav2Vec2Modelmodel = Wav2Vec2Model.from_pretrained("facebook/wav2vec2-base-960h") # 用于提取通用特征,768维wav2vec2 = model(input_values)['last_hidden_state'] # torch.Size([1, 97, 768]),模型出来是一个BaseModelOutput的结构体。参考文献

https://blog.csdn.net/xmdxcsj/article/details/115787729

本文链接地址:https://www.jiuchutong.com/zhishi/288923.html 转载请保留说明!

上一篇:支付宝小程序跳转第三方H5页面(支付宝小程序跳回app)

下一篇:得了遗尿症应该怎么办?(得了遗尿症应该怎么办)

  • 监控系统维护费计入什么科目
  • 购车保险返现如何做会计凭证
  • 代扣代缴个税对企业所得税的影响
  • 重新建账 和之前数据差的多
  • 房产未竣工如何缴纳房产税
  • 联营和合营的区别
  • 小规模纳税人计提增值税
  • 未竣工验收导致发生质量问题由谁承担责任
  • 社会团体收费项目有哪些
  • 收到托收凭证怎么填写
  • 基本生产车间领用周转材料会计分录
  • 非正常工资的个税是多少
  • 一般纳税人苗木发票可以抵扣吗
  • 收到个人实收资本怎么做账
  • 500元以下不需要发票
  • 电子发票怎么打成A4纸一半
  • 退休职工费用哪里列支
  • 怎么处理有问题的货物
  • 劳务派遣发票备注栏要求
  • 华为鸿蒙系统如何关闭纯净系统
  • win10通知栏怎么设置
  • 收益相关的政府补助分录
  • php做
  • 待抵扣进项税额和待认证进项税额的区别
  • Win11文件夹怎么加密设置密码
  • php数组函数输出《咏雪》里有多少"片"字
  • 手把手怎么样
  • 原材料科目是什么意思
  • php获取文件名后缀
  • 企业应交税费的会计分录
  • 简述gnss数据处理流程
  • html中的标签有哪些
  • php调用微信扫描二维码
  • yum命令详解
  • 车辆转让后的责任谁承担
  • 差旅费可以加计吗
  • 资产减值损失是什么意思
  • php网站修改
  • 租金收入如何分析
  • 企业所得税的会计处理怎么做
  • 所得税费用该怎么算
  • 购买商品并入库做什么会计分录
  • 政府对企业提交的项目申请报告主要从等方面进行核准
  • 简易计税差额抵扣
  • 报销单据粘贴单模板
  • 合作经营利润分配协议
  • 售后回购怎么做账
  • 怎么对外投资
  • 加油站固定资产折旧方法
  • 单位车辆转籍
  • 2020年专项扣除怎么填
  • 每月分红会计分录
  • 费用设置的明细科目
  • 银行日记账怎么导出
  • 出纳和记账会计哪个好
  • 建立备查账的是
  • 如何解决局域网问题
  • linux中的rpm
  • 极速一键装机
  • issch.exe
  • 电脑被攻击了怎么修复
  • ubuntu linux指南:基础篇
  • linux进程和线程底层实现原理一样吗
  • 登录远程linux系统可以用的方法
  • windows7回收站图标没了
  • win7怎么升级到win10系统软件还在吗
  • macbook截
  • linux系统的配置
  • win7设备管理器里面没有网络适配器
  • Android 中的 TableLayout 继承自
  • perl脚本输出变量
  • bootstrap入门
  • node.js安装模式选择
  • unity shaderlab新手宝典
  • 批处理加延时
  • 欢迎使用天翼智能网关
  • 深入理解中国式现代化
  • 北京国税办税服务厅
  • 发票查验结果不一致的原因有哪些
  • 广东揭阳怎么了
  • 免责声明:网站部分图片文字素材来源于网络,如有侵权,请及时告知,我们会第一时间删除,谢谢! 邮箱:opceo@qq.com

    鄂ICP备2023003026号