大模型入门圣经—对话“三板斧”

一:大模型对话之基 - Token

  • 什么是Token?
  • Token是怎么生成的?
  • Token和字或者词到底是什么关系?

Token是模型处理自然语言的最小语义单元。每个大模型语言一个上下文窗口都有对应的上下文长度。

1.1 大模型的基本工作原理

大模型本质是一个巨大的"数学函数",内部全是矩阵运算,输入是数字([35,36,34,10]),输出也是"数字"([36]),根本不理解人类的文字。

1.2 翻译官-Tokenizer

分词器负责"编码"和"解码"两个环节:

  • 编码:文字->数字
  • 解码:数字->文字

关键操作:

  • 切分:将一个句子分成独立的词语。
  • 映射:将每个词语对应一个数字ID。

1.3 Tokenizer的训练过程

Tokenizer是被训练出来的,业界目前有很多训练Tokenizer的算法,如:Unigram(元分词)- Google、BPE(字节对编码)- Open AI、Anthropic,以BPE为例,演示Tokenizer的训练流程。

BPE算法2016 年被 Rico Sennrich 等人引入 NLP 领域用于分词,核心是通过迭代合并高频相邻符号对构建子词表,在字符级细粒度与词级语义效率间取得平衡,能有效处理未登录词并控制词表大小,原理:经常一起出现的字------>Token。

训练材料:文章,产出:训练材料--->词表+合并规则。

张 三 喜 欢 人 工 智 能 吗

人 工 智 能 很 智 能

人 工 智 能 比 人 工 更 智 能

张 三 喜 欢 智 能

初始词表:记录Token 与 Token ID对应关系的表格,单字词表(Token与Token ID是一一对应的关系,Token ID无实际含义,只是个编号,没有特殊的语义在里面)

Token Token ID
1
2
3
4
... N

问题切分为Token,问题:张三喜欢人工智能吗

这种方式一个字就对应一个Token,缺陷效率低。

理想情况:将模型的输入从9个减少至4个,模型的推理速度也会更快。

找规律构建"高级"词表:算法扫描:智能x5、人工x4、人工智能x3、张三x2、喜欢x2

至此:Tokenizer训练完毕。

1.4 Tokenize的使用过程

回到最初问题:"张三喜欢人工智能吗"

编码:根据合并规则切分结果

  • 切分:张三 喜欢 人工智能 吗
  • 映射:35 36 34 9

解码:模型输出 36

  • 映射:36------>喜欢

1.5 Token与字数的换算关系

  • 256K Token 不等于 256K字/词。
  • 大致换算关系:一个token = 1.5 ~2 个汉字 or 4个英文字母或0.75个英文单词

Tokenizer不仅是一个翻译机,还是一个压缩机,将高频出现的字合并成一个Token,可以使得模型输入更少,提高模型训练和推理的效率。

二:大模型对话之度 - Temperature(采样温度)和Top-p(采样概率)

控制大模型回答的随机性和创造性。

  • 高 ------> 随机、有创造力
  • 低 ------> 确定、偏向保守

试想一下:

  • 问题一:为什么需要两个参数?
  • 问题二:如果把一个调高,一个调低,结果会中和吗?

    大模型是如何回答问题的?
    虽然大模型的内部结构无比复杂,但是它执行的核心任务其实非常朴素,那就是"预测下一个最有可能出现的词"

2.1 预测过程拆解



转换概率

Softmax函数
S o f t m a x ( z i ) = e z i ∑ j = 1 K e z j = e z i e z 1 + e z 2 + e z 3 + e z 4 + e z 5 Softmax(z_i) = \frac{e^{z_i}}{\sum_{j=1}^K e^{z_j}} = \frac{e^{z_i}}{e^{z_1} + e^{z_2} + e^{z_3} + e^{z_4} + e^{z_5}} Softmax(zi)=∑j=1Kezjezi=ez1+ez2+ez3+ez4+ez5ezi

  • z i z_i zi: 第 i 个词的分数
  • K K K:词的总量
  • S o f t m a x ( z i ) Softmax(z_i) Softmax(zi):第i个词的输出概率

实际案例运用

加权采样

通过概率来生成预测词的过程

2.2 Temperature(采样温度)

Softmax函数完整版本:其中T就是"Temperature",只不过最开始设置成了 T=1 ;T的作用:改变不同词的概率差距
Softmax ( z i ) = e z i ∑ j = 1 K e z j ⟶ 完整版本 Softmax ( z i ) = e z i / T ∑ j = 1 K e z j / T \text{Softmax}(z_i) = \frac{e^{z_i}}{\sum_{j=1}^K e^{z_j}} \quad\stackrel{\text{完整版本}}{\longrightarrow} \quad\text{Softmax}(z_i) = \frac{e^{z_i/T}}{\sum_{j=1}^K e^{z_j/T}} Softmax(zi)=∑j=1Kezjezi⟶完整版本Softmax(zi)=∑j=1Kezj/Tezi/T

2.3 Top-p(采样概率)

在加权采样时,上面根据每一个词的分数,给它们分配了对等的区间,然后生成一个随机数,来确认预测词。

隐患:虽然"自行车"和"hello"只有很小的概率,但是理论上试的次数足够多,或者运气足够好,大模型最后还是有可能输出这两个词;最终可能获得回答:"自行车的维修和保养"?

长尾词

大模型的词汇表里有几十万个词,每次回答问题,除了头部的几个合理词,后面基本上都是拖着长长的一串低概率的垃圾词------长尾词;而在上面的例子中"自行车"和"hello"就是与用户毫无关系的长尾垃圾词。

防止模型去选择长尾词,需要一个保安,将这些离谱的选项都拦在门外------Top-p(Top Cumulative Probability):最高累加概率;其中p就是指的一个概率阈值。

Top-p相当于一个动态的入门门槛,主要用来切断尾部的那些不靠谱的长尾词,保证回答不跑题。

2.4 总结

Temperature:控制不同词的概率差距

  • 调低:拉大差距,输出稳定
  • 调高:缩小差距,输出多样

Top-p:控制长尾词的概率阈值

  • 调低:去掉长尾,输出稳定
  • 调高:放宽门槛,输出多样

越大越多样------写小说,头脑风暴

越小越稳定------写代码,做数学题

三:大模型对话之钥:提示词工程(Prompt Engineering)

3.1 如何应用和激发大预言模型的能力

三种关键方法与应用

  1. 提示词工程(Prompt Engineering): 通过精心设计的提示语,引导模型按照我们的意图生成内容或完成任务。
  2. 微调(Fine Tuning): 在预训练模型的基础上,使用特定领域的数据进行训练,使模型在特定任务上表现更好。
  3. 构建智能机器人代理(Agent):以大语言模型为大脑驱动的系统,具备自主理解、感知、规划、记忆和使用工具的能力,能够自动化执行完成复杂任务的系统。

3.2 提示词工程简介

定义​

  • 提示词工程(Prompt Engineering)就是一门关于如何构造和精炼你的提示词的艺术和科学,目的是最大化 AI 模型的性能,让它产出更符合你需求的、高质量的输出。
  • 在人工智能,特别是大语言模型(如 ChatGPT、Claude、DeepSeek)的时代,提示词工程已经成为一项至关重要的技能,它不再是简单的输入问题,而是一种与 AI 高效协作、精准激发其潜能的新型编程。
  • 提示词工程就像是你在和人工智能(AI)聊天或下指令时,学习如何更好地提问和表达,从而让 AI 更准确、更有效地给出你想要的答案或结果。

为什么学习提示词工程

  • 提高准确性:不好的提示词可能导致 AI 给出错误、跑题或无用的回答。好的提示词能让 AI 直击核心。
  • 节省时间:通过一次到位的指令,减少你和 AI 之间的来回修改和尝试。
  • 解锁能力:有些复杂的任务,如总结长文、扮演特定角色、或进行复杂的推理,需要特殊的提示词技巧才能激发 AI 的潜力。

提示词对比

优化前:

  • 模糊的指令:"写一篇关于猫的文章。"
  • 结果:生成一篇泛泛而谈、没有重点的文章。

    使用提示词工程优化后:
  • 经过工程化的指令:你是一位宠物科普作家。请以轻松幽默的口吻,为养猫新手写一篇 200 字左右的文章,重点介绍如何选择第一只猫和接猫回家前三天的必备准备。文章需要包含三个小标题,并在结尾给出一个简洁的 checklist。
  • 结果:回答更具针对性、结构清晰,且符合具体需求。

3.4 提示词工程的关键要素与基础技巧

一个有效的提示词通常包含以下几个要素(并非唯一标准,但很有帮助)

复制代码
  # 提示词要素说明
要素 英文 说明 示例
角色与背景 Capacity & Role 为 AI 设定一个身份或场景,引导其使用特定的知识体系和表达方式。 "你是一位经验丰富的 Python 编程导师。"
任务与指令 Insight & Statement 清晰、具体地说明你要 AI 完成什么任务。这是提示词的核心。 "请解释 列表推导式 的概念,并给出三个由易到难的例子。"
步骤与约束 Procedure & Steps 将复杂任务分解为步骤,或添加格式、长度、风格等限制条件。 "请按以下步骤回答:1. 一句话定义。2. 语法说明。3. 示例代码及注释。"
输出格式 Format & Output 明确指定你希望的回答格式,如 JSON、Markdown、表格、代码块等。 "请将对比结果以表格形式呈现,包含'方法'、'优点'、'缺点'三列。"
输入示例 Examples 提供一两个输入-输出的例子,让 AI 更准确地模仿你想要的模式(少样本学习)。 "例如,如果我问'苹果',你应该回答'它是一种水果'。那么,当我问'香蕉'时..."

基础技巧实践

场景:让 AI 生成产品特点描述。

  • 基础版(效果一般):

    写一下我们这个新款"HydraTech 智能保温杯"的特点。

  • 优化版(应用提示词工程):
javascript 复制代码
# 角色
你是一位顶尖的电子产品营销文案写手。
# 任务
为我公司的新款"HydraTech 智能保温杯"撰写一段吸引人的产品特点描述。
# 约束
描述需面向都市白领群体,突出"健康提醒"、"长效保温"、"设计简约"三大核心卖点,语言简洁有力,充满科技感。
# 格式
最终输出为一段不超过 150 字的文案,并额外用 - 列出三个最突出的技术参数。

显然,优化后的提示词能引导 AI 生成更符合商业用途的高质量文案。

提示词工程的核心就是:像教一个新员工一样,清晰、完整、有结构地给出指令。

记住四要素:角色、指令、背景、限制。

提示词工程的核心原则

  1. 明确的角色定位(Personal)
    让 AI 扮演一个特定的"专家"或"角色"。这能帮助 AI 调整它的语气、知识范围和输出格式。
元素 示例 作用
角色 "你是一位资深的历史学家。" 确保回答专业、严谨。
角色 "你是一位幽默的朋友。" 确保回答轻松、口语化。
  1. 清晰的任务指令(Task/Goal)
    准确地告诉 AI 你想让它做什么。使用动词和明确的结果要求。
元素 示例 作用
指令 "总结以下文章的三个核心要点。" 明确数量和动作。
指令 "列出一个包含步骤和材料的食谱。" 明确格式要求。
  1. 提供足够的背景信息(Context)
    AI 不是神,它需要知道更多关于你的情况才能给出个性化的答案。
元素 示例 作用
背景 "我正在为五年级的学生准备一堂课。" AI 会使用简单易懂的语言。
背景 "我的预算是5000元,地点在上海。" AI 会基于这些限制条件提供建议。
  1. 限制条件和格式要求(Constraints/Format)
    告诉 AI 不要说什么,或者必须以什么形式呈现结果。
元素 示例 作用 格式
强制使用结构化数据 "请用Markdown表格输出。" 限制 "回答长度不超过100字。"
避免冗长,保持简洁 "回答长度不超过100字。" 限制 "请用Markdown表格输出。"

3.5 实战场景

  • 场景一:写一封感谢信
类型 内容
坏提示词(模糊、无要求) 帮我写一封感谢信。
好提示词(遵循原则) 角色/Persona:请扮演一位专业的公关人员。 指令/Task:为我的老板写一封简短的感谢信,感谢他批准了我的年假。 格式/Format:信件语气要正式且诚恳,长度控制在五行以内。
  • 场景二:学习了一个新概念
坏提示词(空泛) 好提示词(提供背景和限制)
什么是黑洞? 角色/Persona:请扮演一名高中物理老师。 背景/Context:我是一个对科学感兴趣的高中生,刚接触天文学。 指令/Task:请用生活中的比喻来解释黑洞是什么。 格式/Format:请确保解释清晰易懂,并避免复杂的数学公式。

从理论到实践:一个完整的提示词工作流

提示词工程往往不是一蹴而就的,而是一个"编写 - 测试 - 分析 - 迭代"的循环过程。

迭代示例:

  1. 第一轮:你让 AI "总结一篇文章",结果太笼统。
  2. 第二轮:你修改为"用三个要点总结这篇文章的核心论点",结果好一些,但要点是原文片段的复述。
  3. 第三轮:你再次优化为"假设你是中学生,用通俗易懂的语言,分三个部分总结这篇文章的主要观点,并每部分举一个生活中的例子",这次你得到了一个结构清晰、易于理解的总结。

总结:

提示词工程不是魔法,而是一种可学习的、结构化的沟通技能。 它的本质是 降低模糊性,提升对齐度,确保你的意图被 AI 精准理解。

使用建议:

  1. 从模仿开始:多观察和分析优秀的提示词案例(如 GitHub 上的 Awesome-Prompts 项目)。
  2. 实践并迭代:不要满足于 AI 的第一次回答。多问自己"如何能让它更好?",然后修改提示词再试。
  3. 建立自己的工具箱:将工作中常用的有效提示词(如邮件润色、周报生成、代码调试)保存下来,形成个人生产力工具箱。

四:其他

  • 提示词进阶可以参看:https://www.promptingguide.ai/zh

  • 提示词优化网站:http://stag-prompt-gu.s.migames.com/

  • 最后

    内容核心就是一句话:Token 是底层逻辑,参数是调控手段,提示词是实战武器。

    三点结合起来,从 "只会用大模型" 变成 "会驾驭大模型" 。

  • 各模型的擅长领域

阶段 侧重模型 模型特点
技术方案 深度推理与复杂问题解决专家
GPT-5.1 Pro 侧重点是平衡的指令理解与清晰的结构化输出
Claude Opus 4.5 侧重点在于战略设计与复杂系统分析
代码开发 高效、可靠的代码生成与集成专家
GPT-5.1-Codex-Max 侧重点在于生产级代码的可靠集成,生产开发首选
Gemini 3 Pro 侧重点在快速原型开发与绿色场构建,适合快速验证想法和构建原型,多模态、前端。生产级代码的"加固"方面可能稍弱
Claude Opus 4.5 侧重点在复杂算法与详尽实现。极其详细、带有大量注释的代码,会导致代码量膨胀,个别情况下可能引入不易察觉的逻辑缺陷
composer-1 Free 免费
代码评审 上下文感知与精准规则检查专家
Claude Sonnet 4.5 侧重点在于基于语义的深度理解与逻辑漏洞发现
GPT-5.1-Codex-Max 专精代码模型,侧重点是语法规范与最佳实践审查
单元测试 高覆盖率测试用例生成专家
GPT-5.1 以上
测试方案 系统化思维与场景构建专家
Claude Opus 4.5 侧重点在于构建全面、多维度的测试体系
GPT-5.1 Pro 侧重点是设计可执行、贴合业务场景的测试用例
上线方案 工程化与性能优化顾问
结合知识库的通用模型(如GPT-5.1 Pro) 侧重点在于生成部署清单、回滚方案和运维手册
相关推荐
康康的AI博客3 小时前
什么是API中转服务商?如何低成本高稳定调用海量AI大模型?
人工智能·ai
FIT2CLOUD飞致云3 小时前
赛道第一!1Panel成功入选Gitee 2025年度开源项目
服务器·ai·开源·1panel
XSKY星辰天合4 小时前
XSKY 赋能高端半导体制造:12 寸晶圆产线数据的高效管治实践
ai·分布式存储
DS随心转插件4 小时前
ChatGPT和Gemini排版指令
人工智能·ai·chatgpt·deepseek·ds随心转
数字游民95275 小时前
半年时间大概上了70个web站和小程序,累计提示词超过20w
人工智能·ai·小程序·vibecoding·数字游民9527
RANCE_atttackkk6 小时前
使用redis+springboot+langchain4j实现AI对话持久化
java·数据库·spring boot·redis·缓存·ai·ai编程
Bruk.Liu6 小时前
快速使用Python实现一个AI Agent
开发语言·人工智能·python·ai·agent
Elastic 中国社区官方博客6 小时前
使用 LangGraph 和 Elasticsearch 构建 人机协同( HITL )AI agent
大数据·人工智能·elasticsearch·搜索引擎·ai·机器人·全文检索
LeenixP6 小时前
GitHub Copilot 调用第三方模型API
ai·github·copilot·ai编程·oai compatible
让我上个超影吧7 小时前
【SpringAI】RAG工作流程与ETL实战解析
java·spring boot·ai·etl