前两天和朋友聊天,他说自己用 GPT 写东西总是不满意,问我是不是模型不够好。
我看了他的提示词,一句话:帮我写一篇关于职场沟通的文章。
这让我想起自己刚开始用 AI 的时候,也觉得这玩意儿应该很聪明,我说什么它就懂什么,结果每次输出的内容都像是从教科书里复制粘贴出来的。
后来我才明白,和 AI 对话这件事,远比我们想象的要难得多。
你以为在聊天,它以为在解题
我们从小到大都在和人说话,习惯了那种模糊的、跳跃的、充满暗示的交流方式。
比如你跟朋友说"今天好累",对方就知道你可能想吐槽工作,或者想约个饭放松一下。
这种默契是建立在共同的文化背景、生活经验和情感共鸣上的。
AI 没有这些。
它看到"今天好累",可能会给你列出十条缓解疲劳的方法,或者问你是身体累还是心理累。
它不是不聪明,而是它根本不知道你真正想要什么。
这就是第一个悖论:模型越强大,我们越需要把话说清楚。
你不能指望它猜,你得告诉它具体要什么格式、什么风格、什么长度、面向什么人群。
别告诉它不要做什么
我以前写提示词,特别喜欢加一堆"不要"。
不要太长、不要用专业术语、不要写得像机器人。
感觉这样说很保险,把坑都堵上了。
后来发现完全相反。
你越是强调"不要",它越容易往那个方向跑。
就像你现在脑子里是不是已经出现了一头粉色大象?
人类的语言习惯被 AI 继承了,它在训练数据里学到的就是这样的思维模式。
更有效的做法是直接说你要什么。
要简洁、要通俗、要有人情味。
把注意力引导到目标上,而不是禁区上。
示例不是越多越好
很多人以为给 AI 多举几个例子,它就能学得更好。
我之前也这么干过,恨不得把五六个案例全塞进去。
结果输出的内容反而变差了。
后来看到一个研究,说 3 到 5 个高质量示例的效果,往往比十几个平庸示例要好得多。
因为每个示例都会占用上下文空间,而且如果示例质量参差不齐,模型反而会被误导。
它可能只学到了表面的格式,而没有理解你真正想要的逻辑。
有时候甚至不需要示例,直接把任务说清楚就够了。
这个发现让我意识到,克制也是一种能力。
结构比你想象的重要
我有个习惯,写提示词的时候喜欢用三个反引号把不同部分分开。
比如把背景信息、具体指令、参考资料分别框起来。
一开始只是觉得这样看起来整洁,后来发现这对 AI 的理解帮助特别大。
因为自然语言本身就是模糊的。
你写一大段话,AI 可能分不清哪句是指令,哪句是背景,哪句是例子。
用分隔符把它们隔开,就像给代码加注释一样,减少了歧义。
这不是在迁就 AI,而是在强迫自己把思路理清楚。
你自己都没想明白要什么,怎么指望 AI 给你想要的东西?
让它展示思考过程
这个技巧我是无意中发现的。
有一次我让 AI 解决一个复杂问题,随口加了一句"一步一步来"。
结果输出质量明显提升了。
后来才知道这叫思维链提示,是个很成熟的技术。
原理也不复杂:AI 生成内容是逐字逐句进行的,当你让它把推理过程写出来,实际上改变了它的计算路径。
就像我们做数学题,把解题步骤写下来,往往比直接心算更不容易出错。
这个方法甚至不需要给示例,只要加一句"让我们一步一步思考"就行。
说起来有点玄学,但确实管用。
上下文比模型本身更关键
大家讨论 AI 的时候,总是在争论哪个模型更强。
GPT-4 还是 Claude,Gemini 行不行。
我以前也纠结这个问题。
后来看到一个观点:模型输出的质量,更多取决于你给它什么样的上下文,而不是模型本身有多先进。
这个说法一开始我不太信。
后来自己试了试,发现确实是这样。
一个中等水平的模型,如果你给它足够丰富的背景信息、清晰的指令、相关的参考资料,输出质量可以吊打一个上下文贫乏的顶级模型。
这就像一个普通厨师拿着好食材,能做出比顶级厨师用劣质食材更好的菜。
重点不在于厨师有多牛,在于你给他什么原料。
迭代才是真功夫
我见过很多人用 AI,都想一次性写出完美提示词。
写完发现不对,就换个模型再试。
这种思路是错的。
提示工程不是一次性的创作,而是反复试验的过程。
你得把它当成一个实验:提出假设、测试、观察哪里不对、调整、再测试。
最开始我也没有这个意识。
后来养成了一个习惯,每次用 AI 都会记录下提示词和输出结果,标注哪些地方满意、哪些地方需要改进。
时间长了就会发现规律。
什么样的表述方式更有效,什么样的结构更清晰,什么样的示例更有代表性。
甚至可以让 AI 帮你优化提示词。
这听起来有点绕,但确实是个加速学习的方法。
如果你要做的不只是聊天
聊天机器人可以随意发挥。
你问它问题,它用自然语言回答,就算有点偏差也无所谓。
如果你要做的是一个真正的应用------比如自动化工作流、数据处理、系统集成------自然语言就不够用了。
你需要结构化输出。
JSON、XML、或者其他可以被程序解析的格式。
因为下游系统不会理解"大概"、"可能"、"差不多"这种模糊表述。
它需要确定的、可验证的、类型明确的数据。
这时候你就得在提示词里明确要求输出格式,甚至用 Pydantic 这种工具来校验。
把概率性的文本生成,转化成确定性的数据结构。
这是让 AI 从玩具变成工具的关键一步。
我们正在学习一种新的沟通方式
回到最开始的问题。
为什么和 AI 对话比我们想象的难?
不是因为技术不成熟,而是因为我们在学习和一种全新的智能打交道。
它不是人,不会读懂你的弦外之音。
它需要你更精确、更结构化、更有意图。
这种训练,说实话,对我们自己也有好处。
它逼着你把模糊的想法变成清晰的指令。
把感性的需求变成理性的步骤。
把"我想要一个好的结果"变成"我要什么格式、什么风格、什么标准的结果"。
这个过程本身就是在提升思维质量。
所以提示工程不只是一门技术。
它是一种新的思考方式。
当你学会了如何和 AI 清晰沟通,你也学会了如何和自己清晰对话。