Vlm-GPT简介

语言类的AI的三大类,其中的两个类别分别就是之前说的Bert和下面的GPT

BERT属于 Encoder-only 架构(基于 Transformer 编码器),核心是双向注意力机制 ,天然擅长语义理解类任务,比如文本分类、命名实体识别、语义相似度计算、阅读理解等主要擅长的语义理解。

GPT 属于 Decoder-only 架构(基于 Transformer 解码器),核心是自回归注意力机制 ,天然擅长文本生成类任务,比如内容续写、对话生成、文案创作等

|--------|---------------------|-------------|-----------------------------------|----------|
| 模型 | Transformer 块数量 | 最大上下文长度 | 架构细节 | 核心任务 |
| GPT-1 | 12 层 | 512 tokens | 单块结构:LayerNorm→前馈→LayerNorm→自注意力 | 文本预测 |
| GPT-2 | 48 层 | 1024 tokens | 块结构调整:前馈→LayerNorm→自注意力→LayerNorm | 文本预测 |
| GPT-3 | 96 层 | 2048 tokens | 持 "稀疏 / 密集交替" 注意力(实际以密集为主) | 文本预测 |

相关推荐
balmtv14 小时前
从“知识检索”到“深度推理”:Gemini 3.1如何用三层思考模式解决学术难题
人工智能·gpt·chatgpt
AI-Ming15 小时前
程序员转行学习 AI 大模型: 踩坑记录,HuggingFace镜像设置未生效
人工智能·pytorch·python·gpt·深度学习·学习·agi
ai大模型中转api测评1 天前
从并发噩梦到弹性自由:2026年开发者如何构建高可用的API分发层?
人工智能·gpt·gemini
AI-Ming1 天前
程序员转行学习 AI 大模型: 踩坑记录:服务器内存不够,程序被killed
服务器·人工智能·python·gpt·深度学习·学习·agi
ofoxcoding2 天前
GPT-5 API 费率全拆解:2026 各平台真实价格对比,附省钱方案
gpt·ai
桂花饼2 天前
告别天价API!刚刚,Gemini 3.1 Flash-Lite 彻底杀死了大模型的“性价比之战”
人工智能·gpt·qwen3-next·sora2pro·gemini-3.1pro
华农DrLai2 天前
知识工程和知识图谱有什么区别?如何构建完整的知识体系?
数据库·人工智能·gpt·nlp·prompt·知识图谱
somi73 天前
ARM-07-i.MX6ULL-EPIT定时器和GPT
arm开发·单片机·嵌入式硬件·gpt·定时器·自用·时钟配置
坤坤藤椒牛肉面3 天前
ARM——General Purpose Timer (GPT)
arm开发·gpt