大语言模型(Large Language Model, LLM)本质上是一个基于海量文本训练出的"概率预测机器"。它并不"懂"你在说什么,而是通过计算"下一个最可能出现的词是什么"来生成文本。
可以把它理解为一个拥有极强记忆力和统计能力的超级自动补全工具。
🧠 它是如何工作的?
LLM 的工作流程可以拆解为三个核心步骤:
-
输入(Tokenize):将你的问题(如"什么是 API")拆解成模型能理解的碎片(Token)。
-
计算(Forward):基于数十亿甚至万亿级的参数,计算出下一个最可能出现的 Token 是什么。
-
输出(Generate):循环往复,像"滚雪球"一样生成完整的句子、代码或答案。
关键特性:
-
无监督学习:它通过"阅读"互联网上的海量文本自学成才,而非死记硬背标准答案。
-
上下文理解:利用 Transformer 架构中的"注意力机制",能记住对话历史,理解上下文关联。
-
多任务泛化:同一个模型既能写诗、写代码,也能做翻译,无需为每个任务单独训练。
🌟 主流模型家族(2026年视角)
目前市场上的 LLM 主要分为通用基座模型 和垂直领域模型两大类。以下是你在技术选型时最常遇到的"明星选手":
1. 通用基座模型(Foundation Models)
这类模型能力全面,是大多数应用的基础底座。
| 模型系列 | 核心特点 | 典型应用 |
|---|---|---|
| GPT 系列 (OpenAI) | 闭源,对话能力极强,生态完善(API易用) | 通用问答、内容创作、商业应用 |
| Claude 系列 (Anthropic) | 上下文窗口极大(200K+),安全性高 | 长文档分析、法律/合规文本处理 |
| Llama 系列 (Meta) | 开源标杆,社区活跃,微调资源丰富 | 企业私有化部署、学术研究 |
| Qwen 系列 (阿里) | 中文能力突出,开源版本丰富(1.5B-110B) | 中文内容生成、国内企业服务 |
| Gemini 系列 (Google) | 原生多模态(文本+图像),推理能力强 | 复杂逻辑推理、多模态任务 |
2. 垂直领域模型(Domain-Specific)
针对特定场景优化,性能往往优于通用模型。
| 模型名称 | 专精领域 | 适用场景 |
|---|---|---|
| Code Llama / DeepSeek-Coder | 代码生成 | 自动补全、代码解释、bug修复 |
| **VLM (Visual Language Model)** | 视觉理解 | 看图说话、图像问答(如LLaVA) |
| Med-PaLM | 医疗问答 | 医学诊断辅助、报告解读 |
| FinGPT | 金融分析 | 财报分析、市场预测 |
⚖️ 闭源 vs 开源:怎么选?
选择策略如下:
| 维度 | **闭源 (GPT, Claude)** | **开源 (Llama, Qwen)** |
|---|---|---|
| 部署方式 | 调用 API,无需运维 | 本地/私有云部署,需GPU资源 |
| 数据安全 | 数据需传输至厂商服务器 | 数据不出域,适合敏感业务 |
| 成本模型 | 按调用量付费,无硬件成本 | 前期硬件投入高,后期边际成本低 |
| 定制能力 | 只能通过 Prompt 调整 | 可微调 (Fine-tuning),适配私有数据 |
| 你的场景 | 快速验证、对外服务 | 内部测试平台、文档安全要求高 |
建议 :如果你在做企业内部工具 (如文档问答、测试用例生成),开源模型(Llama/Qwen) 是更安全、可控的选择;如果追求极致的对话效果和开发速度,则选 GPT/Claude API。
🛠️ 技术栈关联
很多概念,其实都是围绕 LLM 的"配套设施":
-
RAG(检索增强) :解决 LLM "知识滞后"和"幻觉"问题。
-
vLLM :专门用来加速和部署 LLM 的推理框架。
-
Embedding:LLM 将文字转换为向量的技术,是 RAG 的基石。
-
Fine-tuning:用你的数据对开源 LLM 进行二次训练,让它更懂你的业务。
一句话总结:LLM 是大脑,RAG 是外挂硬盘,vLLM 是发动机,Embedding 是翻译官。
大模型最大生成token数
最大生成 Token 数(max_tokens)是 LLM 生成文本的"安全绳" 。它直接决定了模型单次回复的最长篇幅,设置不当会直接导致回复被截断或资源浪费。
这个参数至关重要。
🧠 核心定义:Token 是什么?
在 LLM 眼里,Token 不是汉字或单词,而是"语义碎片"。
-
1 个 Token ≈ 0.75 个英文单词 或 1 个常见汉字。
-
举例 :
"Hello, world!"会被拆成["Hello", ",", " world", "!"]等多个 Token。
max_tokens就是限制模型"碎碎念"的总次数上限。
⚙️ 参数作用与场景映射
| 设置值 | 典型场景 | 风险 |
|---|---|---|
| **较小 (e.g., 128)** | 短问答、代码补全 适合"解释这个函数"、"写一行正则"。 | 回答若超过 128 Token 会被硬截断,可能丢失关键信息。 |
| **中等 (512-1024)** | 文档摘要、测试用例生成 这是最通用的"甜点区",能输出完整的测试场景或需求分析。 | 无 |
| **较大 (2048+)** | 长文生成、报告撰写 适合生成完整的测试计划或技术方案。 | 消耗大量算力,生成速度慢,且可能包含冗余废话。 |
🚨 必须警惕的"截断"风险
这是最容易被忽视的坑。如果模型生成的答案长度达到 max_tokens上限,输出会立即停止,没有任何结束符。
-
错误示范 :你问"生成 10 个测试用例",
max_tokens=500,但生成到第 8 个时 Token 耗尽,结果只返回了 8 个不完整的用例。 -
避坑法则 :对于关键业务输出(如代码、列表),宁可设大一点,也不要让回复被截断。
💡 最佳实践(针对你的场景)
-
文档问答(RAG):
-
建议值 :
512 - 1024 -
逻辑:RAG 已经将长文档拆分为片段(Chunk),模型通常只需基于一个片段生成精炼答案,不需要极长的篇幅。
-
-
测试用例/代码生成:
-
建议值 :
1024 - 2048 -
逻辑:一个包含前置条件、步骤、断言的正规模板需要较多 Token。如果生成的是复杂接口测试,建议预留更多空间。
-
-
流式传输(Streaming):
- 如果你使用流式输出,
max_tokens是必须设置的,否则连接可能一直保持打开,消耗资源。
- 如果你使用流式输出,
⚖️ 与上下文长度(Context Window)的关系
-
Context Window :是模型的"内存容量"(如 32K),决定它能看多长的输入(你的问题 + 历史对话 + 文档)。
-
Max Tokens :是模型的"输出限额",决定它能说多长的话。
-
约束关系 :
Max Tokens必须小于模型剩余的可用的上下文长度。例如,如果你的输入(Prompt)占了 20K Token,那么Max Tokens最大只能设为 12K(在 32K 模型下)。
总结 :将 max_tokens视为生成内容的预算 。对于技术场景,512-1024 是安全区间 ,对于长文生成则需上调。永远警惕截断风险,对于重要输出,宁可多给一点预算。
大模型的温度
温度(Temperature)是大模型生成文本时的"创造力旋钮" 。它控制着模型在预测下一个词时,是保守地选择概率最高的词 ,还是冒险地选择一些概率较低但有趣的词。
这个参数不改变模型的"知识",只改变它的"表达风格"。
🧠 底层机制:概率分布的"平滑度"
大模型在生成每个 Token 时,都会计算一个概率分布(即所有候选词的概率列表)。
-
低温度(< 0.3) :模型会**锐化(Sharpen)** 概率分布,让最高概率的词"赢者通吃",输出变得确定。
-
高温度(> 0.7) :模型会**平滑(Smooth)** 概率分布,让低概率的词也有机会被选中,输出变得随机。
⚙️ 参数设置与场景对照
| 温度值 | 模型行为 | 适用场景 | 风险 |
|---|---|---|---|
| **0.1 - 0.3(低温)** | 严谨、确定、可复现 每次回答几乎一样,像"背书"。 | ✅ 代码生成 ✅ 事实性问答 ✅ 测试用例生成 ✅ API接口响应 | 回答可能显得枯燥、模板化。 |
| **0.5 - 0.7(中温)** | 平衡、自然 在准确性和流畅度间取得平衡。 | ✅ 技术文档写作 ✅ 邮件/报告撰写 ✅ 通用聊天助手 | 偶尔可能出现不严谨的表达。 |
| **0.8 - 1.2(高温)** | 创意、发散、随机 可能会产生意想不到的比喻或脑洞。 | ✅ 头脑风暴 ✅ 创意写作 ✅ 营销文案 | **高风险!** 容易产生事实错误(幻觉),不适合技术场景。 |
🚨 极端情况
-
温度 = 0 :模型强制贪婪解码(Greedy Decoding),永远只选概率最高的词。虽然结果确定,但容易陷入重复循环(如"好好好好...")。
-
温度 → ∞:输出完全随机,变成"胡言乱语机"。
💡 针对你场景的最佳实践
结合测试平台、文档问答、代码生成 需求,建议采用低温策略:
-
测试用例生成 / 代码补全:
-
推荐温度:
0.1 - 0.3 -
理由 :你需要的是可复现、符合规范的代码。高温可能会导致生成的代码结构不稳定,甚至引入语法错误。
-
-
文档问答(WeKnora/RAG):
-
推荐温度:
0.3 - 0.5 -
理由:在保证事实准确性的基础上,让回答稍微自然一点,避免像机器人一样生硬。
-
-
探索性任务(如需求分析):
-
推荐温度:
0.7 -
理由:当你需要模型从不同角度思考问题时,可以适当调高温度以激发多样性。
-
⚖️ 与 Top-p (Nucleus) 的配合
在实际应用中,温度通常与 Top-p(又称 Nucleus Sampling)参数配合使用:
-
温度 :控制选词的随机性程度。
-
Top-p :控制候选词的范围(只从概率累积达到 p 的词汇表中选)。
常用组合:
-
严谨模式 :
temperature=0.2, top_p=0.9 -
创意模式 :
temperature=0.8, top_p=0.95
⚠️ 常见误区
-
误区1:"调高温度能让模型更聪明。"
- 真相:温度只影响随机性,不提升智商。高温反而可能让模型"聪明反被聪明误",编造事实。
-
误区2:"温度是控制回答长度的。"
- 真相 :控制长度的是 **
max_tokens** 参数。高温可能因为选词发散导致回答变长,但这不是直接控制。
- 真相 :控制长度的是 **
总结 :在技术工作中,**默认使用低温(0.2-0.3)** 是最安全的选择。只有在需要创意发散时,才考虑调高温度,并时刻警惕由此带来的"幻觉"风险。