语言大模型基础概念 一(先了解听说过的名词都是什么)

SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别

STF(Supervised Fine-Tuning)和RLHF(Reinforcement Learning from Human Feedback)是两种不同的模型训练方法,分别用于不同的阶段和目的。具体介绍参考SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别_sft和rlhf-CSDN博客

LoRA(Low-Rank Adaptation)

Lora(Low-Rank Adaptation)是一种新的模型微调技术。在预训练好的模型中引入并行的低秩矩阵,用于修正预训练模型的输出(有点像ResNet,增加新的参数用来生成预训练模型的残差)。具体介绍参考理解Lora微调只需一个公式-CSDN博客

语言大模型主体架构

参考

Decoder-Only、Encoder-Only、Encoder-Decoder 区别_decoder only-CSDN博客语言大模型知识点简介_prefix decoder-CSDN博客

  1. Decoder-Only 架构

描述: 仅包含解码器部分,没有编码器

应用: 通常用于生成任务 ,如语言模型和对话系统。

代表模型: GPT(Generative Pre-trained Transformer)

其他: prefix Decoder (输入为之前所有的输出,)和 causal Decoder(输入为上一时刻的输出,)。

  1. Encoder-Only 架构

描述: 仅包含编码器部分,没有解码器。

应用: 通常用于理解任务 ,如文本分类和情感分析。

代表模型: BERT(Bidirectional Encoder Representations from Transformers)

  1. Encoder-Decoder 架构

描述: 同时包含编码器和解码器部分。

应用: 通常用于序列到序列(seq2seq)任务 ,如机器翻译和文本摘要。

代表模型: Transformer、T5

相关推荐
qq_124987075313 分钟前
基于Hadoop的信贷风险评估的数据可视化分析与预测系统的设计与实现(源码+论文+部署+安装)
大数据·人工智能·hadoop·分布式·信息可视化·毕业设计·计算机毕业设计
Coder_Boy_16 分钟前
TensorFlow小白科普
人工智能·深度学习·tensorflow·neo4j
L、21817 分钟前
CANN 中的图优化技术详解:如何让 AI 模型跑得更快、更省
人工智能
大模型玩家七七19 分钟前
梯度累积真的省显存吗?它换走的是什么成本
java·javascript·数据库·人工智能·深度学习
新缸中之脑20 分钟前
像画家一样编程
人工智能
tq108622 分钟前
心主神明:传统智慧如何启示AI的可靠之道
人工智能
珠海西格电力科技25 分钟前
微电网能量平衡理论的实现条件在不同场景下有哪些差异?
运维·服务器·网络·人工智能·云计算·智慧城市
新缸中之脑27 分钟前
“AI 裁员“神话
人工智能
零售ERP菜鸟1 小时前
范式革命:从“信息化”到“数字化”的本质跃迁
大数据·人工智能·职场和发展·创业创新·学习方法·业界资讯
光羽隹衡1 小时前
计算机视觉——Opencv(图像拼接)
人工智能·opencv·计算机视觉