ASR(自动语音识别)任务中的LLM(大语言模型)

一、LLM大语言模型的特点

二、大语言模型在ASR任务中的应用

浅度融合

浅层融合指的是LLM本身并没有和音频信息进行直接计算。其仅对ASR模型输出的文本结果进行重打分或者质量评估。

深度融合

LLM与ASR模型进行深度结合,统一语音和文本的编码空间或者直接利用ASR编码器的隐状态参与计算,利用大语言模型的能力得到更好的解码结果。

三、浅度融合

++1、Large-scale++ ++Language++ ++Model Rescoring on Long-Form Data++

利用能力更加强大的LLM为ASR模型的推理结果进行质量评分

++++

++2、Prompting Large Language Models For Zero-Shot Domain Adaptation in Speech Recognition++

利用能力更加强大的LLM为语言模型的输出进行重打分

四、深度融合

++1、Prompting Large Language Models For Zero-Shot Domain Adaptation in Speech Recognition++

使用语音编码器编码和提示文本的信息输入到大语言模型中预测下一个token

编码器:使用HuBERT处理语音序列,并使用卷积网络对其进行下采样;

解码器:使用LLaMA作为解码器并融入Gated-XATT-FFN;

Cross-attention:使用编码器的输出作为key、value,解码器的domain prompt和历史输出作为query计算注意力,注意力使用Gated cross attention。

在训练时,保持LLaMA的参数固定,其他模块参数更新。

++2、Adapting LLM with Speech for Full Formatted End-to-End Speech Recognition++

使用语音编码器编码的信息输入到大语言模型中预测下一个token

Text Encoder:用于在训练阶段提供更多的文本数据使解码器可以更好地被训练,在推理阶段不再被使用;

Speech Encoder:用于编码语音并使用CTC进行解码获得对应的token;

Text Decoder:在训练时对Text Encoder计算MLM损失,对Speech Encoder计算CE损失,用来预测下一个token。在推理时对Speech Encoder的输出进行修正。

Speech Encoder:用于编码语音信息;

LM:对Speech Encoder下采样之后的输出进行下一个token预测。

++3、Prompting Large Language Models with Speech Recognition Abilities++

使用语音编码器编码的信息输入到大语言模型中预测下一个token

++++

Encoder:基于Conformer的声学编码器,最后使用n个帧进行堆叠投影,得到和LLaMA相同的维度;

Decoder:基于LLaMA 7B的解码器结构;

在训练时,LLaMA使用了基于LoRA的微调方法。

++4、On++ ++Decoder-Only++ ++Architecture++ ++For++ ++Speech-to-Text++ ++and Large Language Model Integration++

使用语音编码器编码和提示文本的信息输入到大语言模型中预测下一个token

LLM:LLaMA 7B

CTC Compressor:通过过滤语音空白匹配标签序列文本的长度;

Audio Encoder:对CTC过滤后的语音信号进行编码;

Text Prompt:手工设计的提示词,为了达到instruct tuning的效果,本文在训练时设计了多种提示词;

为了稳定训练,在训练时第一阶段训练CTC Compressor,对LLM进行冻结;第二阶段使用LoRA对LLM进行微调。

++5、Speech-to-Text Adapter and Speech-to-Entity Retriever Augmented LLMs for Speech Understanding++

Speech2Text adapter:由一些自注意力子层组成,主要作用是将CTC过滤后的张量转换为可由LLM模型处理的张量。在训练期间,其他部分保持不动,仅训练此部分从而得到一个speech2text性能较好的适配器。

Speech2Entity retriever:根据过滤后的语音表征从数据库中查找与该段语音相关的topk个实体。

T5 Encoder****输入:由三部分组成,分别是提示文本表征,输入语音表征以及检索到的topk实体文本表征。Topk实体会被添加到到提示文本输入前,从而提高T5模型语音识别实体的准确率。

五、深度学习方法对比

相关推荐
新加坡内哥谈技术1 小时前
提升AI性能的关键大型语言模型(LLM)压缩策略
人工智能·语言模型·自然语言处理
火山引擎边缘云6 小时前
创新实践:基于边缘智能+扣子的智能轮椅 AIoT 解决方案
人工智能·llm·边缘计算
OptimaAI7 小时前
【 LLM论文日更|检索增强:大型语言模型是强大的零样本检索器 】
人工智能·深度学习·语言模型·自然语言处理·nlp
大山同学8 小时前
DPGO:异步和并行分布式位姿图优化 2020 RA-L best paper
人工智能·分布式·语言模型·去中心化·slam·感知定位
技术仔QAQ9 小时前
【tokenization分词】WordPiece, Byte-Pair Encoding(BPE), Byte-level BPE(BBPE)的原理和代码
人工智能·python·gpt·语言模型·自然语言处理·开源·nlp
OneFlow深度学习框架11 小时前
LLM长上下文RAG能力实测:GPT o1 vs Gemini
gpt·语言模型·大模型·openai·gemini·o1
龙的爹233312 小时前
论文 | The Capacity for Moral Self-Correction in LargeLanguage Models
人工智能·深度学习·机器学习·语言模型·自然语言处理·prompt
Baihai_IDP12 小时前
「混合专家模型」可视化指南:A Visual Guide to MoE
人工智能·llm·aigc
shelly聊AI14 小时前
语音识别原理:AI 是如何听懂人类声音的
人工智能·语音识别
雷龙发展:Leah14 小时前
离线语音识别自定义功能怎么用?
人工智能·音频·语音识别·信号处理·模块测试