Wav2vec2 论文阅读看到的一些问题

Wav2vec2 论文阅读看到的一些问题

这里只是简单的思考一下论文的一些问题,不是论文解读。

Q1. 为什么wav2vec依旧需要Transformer来做推理,而不直接使用VQ生成的内容?

A1. Transformer在更长的序列上有更好的编码效果,例如论文也写Contextualized representations with Transformers。另一个因素在于对比学习本质上是区分相似性,让正样本之间更接近,让正负样本之间更远离,而不是类似CE的完全逼近。参考损失函数:
− l o g e x p ( s i m ( c t , q t ) / κ ) ∑ q ∼ Q t ^ e x p ( s i m ( c t , q ^ ) / κ ) -log \frac{exp(sim(\textbf{c}_t, \textbf{q}t) / \kappa)}{\sum{\hat{\textbf{q} \sim \textbf{Q}_t} exp(sim (\textbf{c}_t, \hat{\textbf{q}})/ \kappa)}} −log∑q∼Qt^exp(sim(ct,q^)/κ)exp(sim(ct,qt)/κ)

Q2. VQ是怎么训练的?

A2. 是联合训练的,在训练早期CodeBook是随机初始化。这个一点和HuBERT有一点不太一样,后者是提前预训练。

相关推荐
Jamence3 小时前
多模态大语言模型arxiv论文略读(153)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
莫彩4 小时前
【大模型推理论文阅读】Enhancing Latent Computation in Transformerswith Latent Tokens
论文阅读·人工智能·语言模型
崔高杰4 小时前
微调性能赶不上提示工程怎么办?Can Gradient Descent Simulate Prompting?——论文阅读笔记
论文阅读·人工智能·笔记·语言模型
张较瘦_8 小时前
[论文阅读] 人工智能 | 5C提示词框架的研究
论文阅读·人工智能
Jamence1 天前
多模态大语言模型arxiv论文略读(155)
论文阅读·人工智能·计算机视觉·语言模型·论文笔记
Jamence1 天前
多模态大语言模型arxiv论文略读(156)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
quintus05051 天前
【论文阅读】ARM: Adaptive Reasoning Model
论文阅读·语言模型
不是吧这都有重名2 天前
[论文阅读]VGGFace2: A dataset for recognising faces across pose and age
论文阅读
Jamence2 天前
多模态大语言模型arxiv论文略读(151)
论文阅读·人工智能·语言模型·自然语言处理·论文笔记
m0_743106462 天前
【论文笔记】BlockGaussian:巧妙解决大规模场景重建中的伪影问题
论文阅读·计算机视觉·3d·aigc·几何学