自己在开发AI应用的过程总结的 Prompt - 持续更新
- [0. 引言](#0. 引言)
- [1. 让模型以"中文"进行回复](#1. 让模型以"中文"进行回复)
- [2. 控制模型仅输出"hi"](#2. 控制模型仅输出"hi")
- [3. 让模型"提供简单、清晰而具体的回答"](#3. 让模型"提供简单、清晰而具体的回答")
- [4. 让模型"在最后说谢谢"](#4. 让模型"在最后说谢谢")
0. 引言
我想,我们多半有着相似的经历,在开发AI应用的过程中,撰写Prompt几乎成了工作的重心,Prompt已经不可或缺地融入了代码之中。
面对的挑战是,有的Prompt根本难以发挥作用,而有的则是忽冷忽热,效果不一。
因此,我打算通过这篇文章,分享我在AI应用开发过程中,撰写Prompt的心得体会,以及一些实用的Prompt技巧。
随着时间的流逝和工作经验的积累,这篇文章将持续获得更新。对此感兴趣的朋友们,不妨将其收藏。
注意:因为Prompt 在不同模型上的表现不同,所以我会注明测试时使用的模型。还有一点,各个模型本身也在不断更新,随着时间的流逝模型的表现也可能会变化。
1. 让模型以"中文"进行回复
在使用一些非原生中文模型时,大预言模型默认是以"英文"进行回复的,我们可以通过下面的提示词,让模型以"中文"进行回复。
- 测试工具:Ollama
- 测试模型:8x7b-instruct-v0.1-fp16
- Prompt
python
Please provide all responses in CHINESE.
2. 控制模型仅输出"hi"
在使用Ollama部署模型时,如果一段时间不访问,Ollama会自动卸载掉加载到显存上的模型,为了避免这个问题,我通过cron设置了定时访问Ollama的API,此时让大模型只回复"hi"即可。
- 测试工具:Ollama
- 测试模型:8x7b-instruct-v0.1-fp16
- Prompt
python
You will ONLY respond with 'hi' and not with any explanations.
- (参考)cron内容
python
*/2 * * * * curl http://localhost:11434/v1/chat/completions -H "Content-Type: application/json" -d '{"model": "gpt-4", "messages": [{"role": "user", "content": "You will ONLY respond with 'hi' and not with any explanations."}]}'
3. 让模型"提供简单、清晰而具体的回答"
大模型的回答有时会非常"啰嗦",如果想让模型提供简单、清晰而具体的回答时,可以尝试一下这个Prompt。
- 测试工具:Ollama
- 测试模型:8x7b-instruct-v0.1-fp16
- Prompt
python
Please provide all responses that are SIMPLE, CLEAR, and CONCISE.
4. 让模型"在最后说谢谢"
有时我们想让大模型在回答的最后说"谢谢"或者其他固定描述,可以尝试一下这个Prompt。
- 测试工具:Ollama
- 测试模型:8x7b-instruct-v0.1-fp16
- Prompt
python
Please add "谢谢!" at last.
未完待续,持续更新