语言大模型基础概念 一(先了解听说过的名词都是什么)

SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别

STF(Supervised Fine-Tuning)和RLHF(Reinforcement Learning from Human Feedback)是两种不同的模型训练方法,分别用于不同的阶段和目的。具体介绍参考SFT(监督微调)和RLHF(基于人类反馈的强化学习)的区别_sft和rlhf-CSDN博客

LoRA(Low-Rank Adaptation)

Lora(Low-Rank Adaptation)是一种新的模型微调技术。在预训练好的模型中引入并行的低秩矩阵,用于修正预训练模型的输出(有点像ResNet,增加新的参数用来生成预训练模型的残差)。具体介绍参考理解Lora微调只需一个公式-CSDN博客

语言大模型主体架构

参考

Decoder-Only、Encoder-Only、Encoder-Decoder 区别_decoder only-CSDN博客语言大模型知识点简介_prefix decoder-CSDN博客

  1. Decoder-Only 架构

描述: 仅包含解码器部分,没有编码器

应用: 通常用于生成任务 ,如语言模型和对话系统。

代表模型: GPT(Generative Pre-trained Transformer)

其他: prefix Decoder (输入为之前所有的输出,)和 causal Decoder(输入为上一时刻的输出,)。

  1. Encoder-Only 架构

描述: 仅包含编码器部分,没有解码器。

应用: 通常用于理解任务 ,如文本分类和情感分析。

代表模型: BERT(Bidirectional Encoder Representations from Transformers)

  1. Encoder-Decoder 架构

描述: 同时包含编码器和解码器部分。

应用: 通常用于序列到序列(seq2seq)任务 ,如机器翻译和文本摘要。

代表模型: Transformer、T5

相关推荐
IT_陈寒6 分钟前
为什么我的JavaScript异步回调总是乱序执行?
前端·人工智能·后端
Zzj_tju10 分钟前
大语言模型技术指南:Transformer 为什么能成为基础架构?核心模块与参数怎么理解
人工智能·语言模型·transformer
gorgeous(๑>؂<๑)16 分钟前
【CVPR26-韩国科学技术院】令牌扭曲技术助力多模态大语言模型从邻近视角观察场景
人工智能·语言模型·自然语言处理
AC赳赳老秦30 分钟前
OpenClaw email技能:批量发送邮件、自动回复,高效处理工作邮件
运维·人工智能·python·django·自动化·deepseek·openclaw
用户7824520807791 小时前
一些容易混淆的点(个人记录)
人工智能
胡志辉1 小时前
OpenClaw 教程:新 Mac 从 0 配到国产 AI、飞书微信和无人值守
人工智能·神经网络
机器之心1 小时前
全球第一,13个SOTA!我们找到了龙虾界掌管GUI的神
人工智能·openai
AI问答工程师1 小时前
Meta Muse Spark 的"思维压缩"到底是什么?我用 Python 复现了核心思路(附代码)
人工智能·python
机器之心1 小时前
大佬深度解析:Coding Agent的底层运行逻辑是什么?
人工智能·openai
爱吃的小肥羊1 小时前
Claude降智再被实锤!推理能力严重下滑,用户连夜跑路 Codex
人工智能·aigc·openai