Wav2vec2 论文阅读看到的一些问题

Wav2vec2 论文阅读看到的一些问题

这里只是简单的思考一下论文的一些问题,不是论文解读。

Q1. 为什么wav2vec依旧需要Transformer来做推理,而不直接使用VQ生成的内容?

A1. Transformer在更长的序列上有更好的编码效果,例如论文也写Contextualized representations with Transformers。另一个因素在于对比学习本质上是区分相似性,让正样本之间更接近,让正负样本之间更远离,而不是类似CE的完全逼近。参考损失函数:
− l o g e x p ( s i m ( c t , q t ) / κ ) ∑ q ∼ Q t ^ e x p ( s i m ( c t , q ^ ) / κ ) -log \frac{exp(sim(\textbf{c}_t, \textbf{q}t) / \kappa)}{\sum{\hat{\textbf{q} \sim \textbf{Q}_t} exp(sim (\textbf{c}_t, \hat{\textbf{q}})/ \kappa)}} −log∑q∼Qt^exp(sim(ct,q^)/κ)exp(sim(ct,qt)/κ)

Q2. VQ是怎么训练的?

A2. 是联合训练的,在训练早期CodeBook是随机初始化。这个一点和HuBERT有一点不太一样,后者是提前预训练。

相关推荐
红苕稀饭6661 小时前
PVC论文阅读
论文阅读
菜鸟‍1 小时前
【论文学习】大语言模型(LLM)论文
论文阅读·人工智能·学习
何如千泷6 小时前
【论文阅读】PathMR: Multimodal Visual Reasoning for Interpretable Pathology Analysis
论文阅读·医学图像分割·病理
依夏c11 小时前
FACT-AUDIT
论文阅读·论文笔记
CV-杨帆1 天前
论文阅读:ACL 2025 Stepwise Reasoning Disruption Attack of LLMs
论文阅读
想看雪的瓜1 天前
利用VOSviewer快速可视化文献全过程(以Web of science为例)
论文阅读·论文笔记
Chandler_Song1 天前
【读书笔记】《巨人的工具》
论文阅读
红苕稀饭6662 天前
LongVU论文阅读
论文阅读
ZhiqianXia2 天前
论文阅读 (2) :Reducing Divergence in GPGPU Programs with Loop Merging
论文阅读
EEPI2 天前
【论文阅读】π0 : A Vision-Language-Action Flow Model for General Robot Control
论文阅读