《大模型的结构》

一、大模型整体结构

一个大模型其实就是:

文本 -> tokenizer(分词器) -> embedding(变成向量) -> Transformer(核心大脑) -> 输出

二、具体步骤

1、文本输入

比如输入:This Paper is interesting

2、分词器(tokenizer)

"This" , "paper" , "is" , "interest" , "ing"

再变成Token ID(每个大模型的Token ID是不一样的):

101,2023,20021,...

3、Embedding

模型不会直接用数字ID,会变成"向量"(一小串数字):101 -> [0.12, -0.98, 0.33, ...]

可以简单的理解为:token -> 坐标点(语义空间)

4、Transformer(核心大脑)

这是大模型最重要的部分,它让每个词互相理解对方
核心机制: Self-Attention(自注意力)

比如:The paper is not good,模型会学"good"要注意"not","paper"和"good"有关系,所以每个token都会看其他token

**Transformer结构:**一个Transformer层大概是:Self-Attention -> Feed Forward(小神经网络) -> 重复很多层(比如12层/32层/96层)

GPT-4这种,几十到上百层Transformer

5、输出

不同模型输出不同:
GPT(生成模型): 输入:This paper is 输出:interesting

**BERT(分类模型)**输入:This paper is interesting 输出:accept / reject

三、总结成一个流程图

文本

tokenizer

token IDs

embedding(变向量)

Transformer(理解语义)

输出(预测 / 生成)

四、可以这样理解整个模型

把它想成一个"超级读书人":

1、tokenizer -> 切词

2、embeding -> 理解词的含义

3、attention -> 看上下文

4、多层网络 -> 深度思考

5、输出 -> 给答案

五、BERT vs GPT

BERT GPT
方向 双向(看前后) 单向(只看前)
用途 分类/理解 生成
例子 accept/reject 写review
相关推荐
Awu12271 小时前
🍎Claude.md 是啥?让你的 AI 助手乖乖听你的话
人工智能·ai编程·claude
AI人工智能+1 小时前
从像素到数据:浅析计算机视觉与自然语言处理驱动的毕业证书识别
深度学习·计算机视觉·自然语言处理·ocr·毕业证书识别
推理幻觉1 小时前
Claude Code 常用命令
人工智能·开发工具·cc·claude code
Swift社区1 小时前
AI 为什么需要“确认”?OpenClaw 的安全启示
人工智能·安全·openclaw
高洁011 小时前
AI项目团队意见分歧?协调与决策方法
人工智能·深度学习·数据挖掘·transformer·知识图谱
流年似水~1 小时前
Docker/Kubernetes 实战:从入门到生产级部署
人工智能·程序人生·docker·语言模型·ai编程
Coremail邮件安全1 小时前
2026 Q1邮箱安全预警|被盗账号逆势涨10%,AI“内鬼式”攻击防不胜防
人工智能
nervermore9901 小时前
3. 人工智能学习-PyTorch框架学习
人工智能·pytorch·学习