Vlm-GPT简介

语言类的AI的三大类,其中的两个类别分别就是之前说的Bert和下面的GPT

BERT属于 Encoder-only 架构(基于 Transformer 编码器),核心是双向注意力机制 ,天然擅长语义理解类任务,比如文本分类、命名实体识别、语义相似度计算、阅读理解等主要擅长的语义理解。

GPT 属于 Decoder-only 架构(基于 Transformer 解码器),核心是自回归注意力机制 ,天然擅长文本生成类任务,比如内容续写、对话生成、文案创作等

|--------|---------------------|-------------|-----------------------------------|----------|
| 模型 | Transformer 块数量 | 最大上下文长度 | 架构细节 | 核心任务 |
| GPT-1 | 12 层 | 512 tokens | 单块结构:LayerNorm→前馈→LayerNorm→自注意力 | 文本预测 |
| GPT-2 | 48 层 | 1024 tokens | 块结构调整:前馈→LayerNorm→自注意力→LayerNorm | 文本预测 |
| GPT-3 | 96 层 | 2048 tokens | 持 "稀疏 / 密集交替" 注意力(实际以密集为主) | 文本预测 |

相关推荐
薛定猫AI11 小时前
【深度解析】AI 大模型新一轮竞速:Kimi K2.6、GPT-5.5、Gemini 新检查点与 Agent 化趋势全景拆解
人工智能·gpt
昆曲之源_娄江河畔15 小时前
婴儿版训练GPT
python·gpt·机器学习·大模型训练
热爱生活的五柒18 小时前
GPT PLUS的多种应用(codex、深度研究、图片AI修图等)
gpt
秦ぅ时18 小时前
Recraft-V3 技术手册
人工智能·gpt
ofoxcoding18 小时前
GPT-5.4 API 怎么低延迟调用?2026 年 5 种接入方案实测对比
python·gpt·ai·flask
AI 编程助手GPT19 小时前
【实战】多模型编程时代已至:Codex+Claude+Gemini 组合拳实战,让 AI 替你写代码
人工智能·gpt·ai·chatgpt·ai编程
AI 编程助手GPT19 小时前
【实战】Codex 接管电脑 + Claude Routines 云端值守:一次 Bug 排查的“无人化”闭环
人工智能·gpt·ai·chatgpt·bug
摆烂工程师1 天前
GPT-Image-2 真有点夯:中文不乱码了!GPT-Image-2的入口在哪?教你如何确认自己是否被灰度推送了 GPT-Image-2
gpt·chatgpt·openai
一乐小哥2 天前
在claude code中使用codex来做codereview
gpt·claude
天地沧海2 天前
GPT、BERT、LLaMA 这些模型类别怎么区分
gpt·bert·llama