说说大模型的命名的含义

说说大模型的命名的含义

  • [0. 概述](#0. 概述)
  • [1. Base 模型(基座 / 原生模型)](#1. Base 模型(基座 / 原生模型))
  • [2. Instruct 模型(指令模型 / 对话模型)](#2. Instruct 模型(指令模型 / 对话模型))
  • [3. Thinking 模型(思考模型 / 推理增强模型)](#3. Thinking 模型(思考模型 / 推理增强模型))
  • [4. Chat 模型(对话专用,在 Instruct 基础上再优化)](#4. Chat 模型(对话专用,在 Instruct 基础上再优化))
  • [5. A3B](#5. A3B)
    • [5.1. A3B 的核心含义](#5.1. A3B 的核心含义)
    • [5.2. A3B 的技术背景与应用](#5.2. A3B 的技术背景与应用)

0. 概述

大模型命名有点道道,这里就说道说道:

  • Base:毛坯房,只会 "续写文字",不会听话。
  • Instruct:精装修,听懂人话、能对话、能干活,日常 90% 场景用它。
  • Thinking:带 "大脑思考室" 的增强版,专门做复杂推理、数学、逻辑、长思考,算力 / 参数开销更大。
  • Chat:对话专用,在 Instruct 基础上再优化

1. Base 模型(基座 / 原生模型)

  • 全称:Base Model / Pre-trained Model
  • 来源:只做过海量无标注文本预训练(看书、网页、代码),没做过人类指令对齐。
  • 能力:
    • 擅长:文本续写、补全、风格模仿、语言建模
    • 不擅长:听不懂指令、不会问答、不会按要求做事
  • 输出:你给一句开头,它顺着往下写,不会 "理解你的意图"。
  • 用途:
    • 供研究、二次微调(做垂直领域模型)
    • 做 LoRA、全量微调的基底
  • 命名常见后缀:-base、-pretrain

例子:Llama 3-8B-Base、Qwen3-30B-Base

2. Instruct 模型(指令模型 / 对话模型)

  • 全称:Instruct-tuned Model / Chat Model
  • 来源:在 Base 基础上做了:
    • SFT 监督微调(学习人类问答 / 指令格式)
    • 常见再加 RLHF/DPO(对齐人类偏好,更安全、更有用)
  • 能力:
    • 听懂自然语言指令(写文案、总结、代码、翻译、对话)
    • 有上下文、有角色、有格式约束
  • 输出:直接给答案 / 结果,不废话、不瞎续写。
  • 用途:
    • 聊天机器人、API 服务、日常工具、办公助手
    • 绝大多数用户、产品、部署都用 Instruct
  • 命名常见后缀:-instruct、-chat、-it

例子:Llama 3-8B-Instruct、Qwen3-30B-Instruct、GPT-3.5-turbo(本质就是 instruct)

3. Thinking 模型(思考模型 / 推理增强模型)

  • 不是标准学术名,是厂商为 "强推理" 单独分出的版本,常见于 MoE 架构(比如你问的 A3B 系列)。
  • 来源:
    • 通常基于 Instruct 再增强:长推理链、CoT(思维链)、多步思考
    • MoE 模型里:思考模式会激活更多专家 / 更多参数
      • 例如:普通模式 A3B(激活 3B),思考模式激活更多(A22B 等)
  • 能力:
    • 极强:数学、逻辑、代码、规划、推理、多步解题、长文本分析
    • 会 "先思考再回答",展示中间步骤(...)
  • 缺点:
    • 生成更慢、token 更多、算力 / 显存更高
    • 简单问题反而没必要用
  • 用途:
    • 数学竞赛、代码 debug、复杂逻辑推理、科研推导、长决策链
    • 命名常见后缀 / 关键词:-thinking、-reasoning、-max、-plus、-deepseek-r1 这类推理向

例子:Qwen3-Thinking、DeepSeek-R1、Kimi 思考模式、部分闭源 "深度思考版"

4. Chat 模型(对话专用,在 Instruct 基础上再优化)

  • 和 Instruct 高度重叠,但更偏多轮对话、人格、记忆、闲聊
  • 常见后缀:-chat
    • 例:Llama-3-8B-Chat、Qwen-Chat

5. A3B

还有比如名称里面带A3B,指Activated 3 Billion(激活 30 亿参数)

5.1. A3B 的核心含义

A = Activated(激活):表示 MoE 架构中动态参与计算的专家子网络参数

3 = 3 Billion(30 亿):每次推理仅激活约 30 亿参数,通常占总参数的10% 左右

B = Billion(十亿):参数数量单位,与模型名称中常见的 "3B""7B" 含义一致

5.2. A3B 的技术背景与应用

  • MoE 架构基础:混合专家模型将总参数拆分为多个 "专家" 子网络,每次推理仅选择少量专家参与计算,而非全部参数同时工作
  • 首创与推广:由通义千问 Qwen3 系列模型首创(如 Qwen3-30B-A3B),后被 Kimi(Moonlight-16B-A3B)、百度(ERNIE-4.5-VL-28B-A3B)等厂商采用
  • 命名规范扩展:已形成统一范式,如 Qwen3-235B-A22B 表示总参数 2350 亿、激活 220 亿参数
相关推荐
数据智能老司机2 小时前
用于构建多智能体系统的智能体架构模式——多智能体协调模式
人工智能·llm·agent
CaracalTiger2 小时前
OpenClaw-VSCode:在 VS Code 中通过 WebSocket 远程管理 OpenClaw 网关的完整方案
运维·ide·人工智能·vscode·websocket·开源·编辑器
硅谷秋水2 小时前
REALM:用于机器人操作泛化能力的真实-仿真验证基准测试
人工智能·机器学习·计算机视觉·语言模型·机器人
AI周红伟2 小时前
周红伟:智能体和大模型培训方案落地,电商场景的智能客服与营销方案
人工智能
摘星编程2 小时前
RAG重塑搜索:如何用检索增强生成打造企业级AI问答系统
人工智能
啊阿狸不会拉杆2 小时前
《机器学习导论》第 9 章-决策树
人工智能·python·算法·决策树·机器学习·数据挖掘·剪枝
曦月逸霜2 小时前
机器学习——个人笔记(持续更新中~)
人工智能·机器学习
新缸中之脑2 小时前
30个最好的3D相关AI代理技能
人工智能·3d
Pyeako2 小时前
opencv计算机视觉--LBPH&EigenFace&FisherFace人脸识别
人工智能·python·opencv·计算机视觉·lbph·eigenface·fisherface