语言大模型基础概念 一(先了解听说过的名词都是什么)

SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别

STF(Supervised Fine-Tuning)和RLHF(Reinforcement Learning from Human Feedback)是两种不同的模型训练方法,分别用于不同的阶段和目的。具体介绍参考SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别_sft和rlhf-CSDN博客

LoRA(Low-Rank Adaptation)

Lora(Low-Rank Adaptation)是一种新的模型微调技术。在预训练好的模型中引入并行的低秩矩阵,用于修正预训练模型的输出(有点像ResNet,增加新的参数用来生成预训练模型的残差)。具体介绍参考理解Lora微调只需一个公式-CSDN博客

语言大模型主体架构

参考

Decoder-Only、Encoder-Only、Encoder-Decoder 区别_decoder only-CSDN博客语言大模型知识点简介_prefix decoder-CSDN博客

  1. Decoder-Only 架构

描述: 仅包含解码器部分,没有编码器

应用: 通常用于生成任务 ,如语言模型和对话系统。

代表模型: GPT(Generative Pre-trained Transformer)

其他: prefix Decoder (输入为之前所有的输出,)和 causal Decoder(输入为上一时刻的输出,)。

  1. Encoder-Only 架构

描述: 仅包含编码器部分,没有解码器。

应用: 通常用于理解任务 ,如文本分类和情感分析。

代表模型: BERT(Bidirectional Encoder Representations from Transformers)

  1. Encoder-Decoder 架构

描述: 同时包含编码器和解码器部分。

应用: 通常用于序列到序列(seq2seq)任务 ,如机器翻译和文本摘要。

代表模型: Transformer、T5

相关推荐
@心都几秒前
机器学习数学基础:29.t检验
人工智能·机器学习
9命怪猫2 分钟前
DeepSeek底层揭秘——微调
人工智能·深度学习·神经网络·ai·大模型
kcarly1 小时前
KTransformers如何通过内核级优化、多GPU并行策略和稀疏注意力等技术显著加速大语言模型的推理速度?
人工智能·语言模型·自然语言处理
MinIO官方账号3 小时前
使用 AIStor 和 OpenSearch 增强搜索功能
人工智能
江江江江江江江江江3 小时前
深度神经网络终极指南:从数学本质到工业级实现(附Keras版本代码)
人工智能·keras·dnn
Fansv5873 小时前
深度学习-2.机械学习基础
人工智能·经验分享·python·深度学习·算法·机器学习
小怪兽会微笑4 小时前
PyTorch Tensor 形状变化操作详解
人工智能·pytorch·python
Erekys4 小时前
视觉分析之边缘检测算法
人工智能·计算机视觉·音视频
livefan5 小时前
我国首条大型无人机城际低空物流航线成功首航
人工智能·无人机
唔皇万睡万万睡5 小时前
数字水印嵌入及提取系统——基于小波变换GUI
人工智能·计算机视觉