Vlm-GPT简介

语言类的AI的三大类,其中的两个类别分别就是之前说的Bert和下面的GPT

BERT属于 Encoder-only 架构(基于 Transformer 编码器),核心是双向注意力机制 ,天然擅长语义理解类任务,比如文本分类、命名实体识别、语义相似度计算、阅读理解等主要擅长的语义理解。

GPT 属于 Decoder-only 架构(基于 Transformer 解码器),核心是自回归注意力机制 ,天然擅长文本生成类任务,比如内容续写、对话生成、文案创作等

|--------|---------------------|-------------|-----------------------------------|----------|
| 模型 | Transformer 块数量 | 最大上下文长度 | 架构细节 | 核心任务 |
| GPT-1 | 12 层 | 512 tokens | 单块结构:LayerNorm→前馈→LayerNorm→自注意力 | 文本预测 |
| GPT-2 | 48 层 | 1024 tokens | 块结构调整:前馈→LayerNorm→自注意力→LayerNorm | 文本预测 |
| GPT-3 | 96 层 | 2048 tokens | 持 "稀疏 / 密集交替" 注意力(实际以密集为主) | 文本预测 |

相关推荐
acai_polo21 小时前
如何在国内合规、稳定地使用GPT/Claude/Gemini API?中转服务全解析
人工智能·gpt·ai·语言模型·ai作画
迈火2 天前
SD - Latent - Interposer:解锁Stable Diffusion潜在空间的创意工具
人工智能·gpt·计算机视觉·stable diffusion·aigc·语音识别·midjourney
空中楼阁,梦幻泡影2 天前
主流4 大模型(GPT、LLaMA、DeepSeek、QWE)的训练与推理算力估算实例详细数据
人工智能·gpt·llama
晓晓不觉早3 天前
OpenAI Codex App的推出:多代理工作流的新时代
人工智能·gpt
kebijuelun3 天前
Towards Automated Kernel Generation in the Era of LLMs:LLM 时代的自动化 Kernel 生成全景图
人工智能·gpt·深度学习·语言模型
卖芒果的潇洒农民5 天前
20260201 GPT VPC中的CIDR Block 概念
笔记·gpt
薛定谔的猫19825 天前
二十、使用PyTorch和Hugging Face Transformers训练中文GPT-2模型的技术实践
人工智能·pytorch·gpt
向量引擎小橙8 天前
Google 帝国的绝地反击:Gemini 3 深度硬核测评——GPT-5 的噩梦来了吗?
开发语言·人工智能·gpt·深度学习·机器学习
原来是你~呀~8 天前
Kali GPT - 人工智能渗透测试助手Linux部署
linux·人工智能·gpt·网络安全·自动化渗透测试
康康的AI博客8 天前
2026 OpenAI技术全景:GPT-5.2领衔的AI革命与DMXAPI无缝替代方案
人工智能·gpt