Vlm-GPT简介

语言类的AI的三大类,其中的两个类别分别就是之前说的Bert和下面的GPT

BERT属于 Encoder-only 架构(基于 Transformer 编码器),核心是双向注意力机制 ,天然擅长语义理解类任务,比如文本分类、命名实体识别、语义相似度计算、阅读理解等主要擅长的语义理解。

GPT 属于 Decoder-only 架构(基于 Transformer 解码器),核心是自回归注意力机制 ,天然擅长文本生成类任务,比如内容续写、对话生成、文案创作等

|--------|---------------------|-------------|-----------------------------------|----------|
| 模型 | Transformer 块数量 | 最大上下文长度 | 架构细节 | 核心任务 |
| GPT-1 | 12 层 | 512 tokens | 单块结构:LayerNorm→前馈→LayerNorm→自注意力 | 文本预测 |
| GPT-2 | 48 层 | 1024 tokens | 块结构调整:前馈→LayerNorm→自注意力→LayerNorm | 文本预测 |
| GPT-3 | 96 层 | 2048 tokens | 持 "稀疏 / 密集交替" 注意力(实际以密集为主) | 文本预测 |

相关推荐
2501_948114245 天前
【2026架构实战】GPT-5.3与蒸汽数据融合:基于Open Claw与星链4SAPI的RAG落地指南
gpt·架构
小雨中_8 天前
3.1 GPT 系列:Generative Pre-Training(从 GPT-1 到 GPT-3)
人工智能·gpt·深度学习·机器学习·自然语言处理·gpt-3
香芋Yu8 天前
【2026大模型面试圣经】(2)主流大模型架构全景 | GPT/LLaMA/DeepSeek/Qwen深度对比
gpt·面试·架构
一个努力编程人9 天前
NLP领域————GPT算法
人工智能·gpt·自然语言处理
狮子座明仔9 天前
REDSearcher:如何用30B参数的小模型,在深度搜索上击败GPT-o3和Gemini?
人工智能·gpt·深度学习·microsoft·语言模型·自然语言处理
智算菩萨10 天前
2026年春节后,AI大模型格局彻底变了——Claude 4.6、GPT-5.2与六大国产模型全面横评
人工智能·gpt·ai编程
Learner__Q12 天前
GPT模型入门教程:从原理到实现
python·gpt
五月君_13 天前
除夕夜炸场!Qwen 3.5 正式发布:激活仅 17B,性能硬刚 GPT-5.2?
gpt
向量引擎小橙15 天前
视觉艺术的“奇点”:深度拆解 Gemini-3-Pro-Image-Preview 绘画模型,看这只“香蕉”如何重塑 AI 创作逻辑!
人工智能·python·gpt·深度学习·llama
阿乐艾官15 天前
【MBR与GPT分区】
gpt