Vlm-GPT简介

语言类的AI的三大类,其中的两个类别分别就是之前说的Bert和下面的GPT

BERT属于 Encoder-only 架构(基于 Transformer 编码器),核心是双向注意力机制 ,天然擅长语义理解类任务,比如文本分类、命名实体识别、语义相似度计算、阅读理解等主要擅长的语义理解。

GPT 属于 Decoder-only 架构(基于 Transformer 解码器),核心是自回归注意力机制 ,天然擅长文本生成类任务,比如内容续写、对话生成、文案创作等

|--------|---------------------|-------------|-----------------------------------|----------|
| 模型 | Transformer 块数量 | 最大上下文长度 | 架构细节 | 核心任务 |
| GPT-1 | 12 层 | 512 tokens | 单块结构:LayerNorm→前馈→LayerNorm→自注意力 | 文本预测 |
| GPT-2 | 48 层 | 1024 tokens | 块结构调整:前馈→LayerNorm→自注意力→LayerNorm | 文本预测 |
| GPT-3 | 96 层 | 2048 tokens | 持 "稀疏 / 密集交替" 注意力(实际以密集为主) | 文本预测 |

相关推荐
百***07451 天前
GPT-5.2:重构通用智能边界,迈向生产级AI新纪元
开发语言·python·gpt
百***78752 天前
Grok-4.1与GPT-5.2深度对比:技术差异、适用场景及Python集成指南
java·python·gpt
独自破碎E2 天前
解释一下向量数据库中的HNSW、LSH和PQ
gpt·语言模型
姚瑞南2 天前
【AI 风向标】强化学习(RL):智能体自我优化的学习范式
人工智能·经验分享·python·gpt·深度学习·学习·机器学习
aigcapi3 天前
GPT API 哪家好?2026 企业级优选,4SAPI(星链引擎)凭四大核心优势领跑
大数据·人工智能·gpt
kebijuelun4 天前
FlashInfer-Bench:把 AI 生成的 GPU Kernel 放进真实 LLM 系统的“闭环引擎”
人工智能·gpt·深度学习·机器学习·语言模型
百***78754 天前
GLM-4.7深度实测:开源编码王者,Claude Opus 4.5平替方案全解析
人工智能·gpt
百***78754 天前
GLM-4.7与GPT-5.2工程化对比及接入全指南(实战版)
gpt
百***24374 天前
GLM-4.7底层技术拆解与落地避坑:开源大模型编码实战指南
人工智能·gpt·开源