本文使用的LLM是OpenAI的gpt系列。刚开始学大模型,如果出现错误内容或着描述不恰当的部分,后续会修改。
Prompt是输入给大模型的文本或语句,用来引导大模型(Large Language Model, LLM)生成相关的输出。好的prompt可以提高大模型输出的准确性和可靠性。一般而言,好的prompt的特点是:具体、丰富、少歧义。
1.Prompt
1.1 prompt典型构成
一般情况下,一个好的prompt主要包括以下几个方面的内容:
- 角色:给 AI 定义一个最匹配任务的角色,比如:"你是一位软件工程师"等;
- 指示:任务描述;
- 上下文:给出与任务相关的其它背景信息(经常用在多轮对话中);
- 例子:示例;
- 输入:任务的输入信息,在提示词中明确的标识出用户输入;
- 输出:输出的格式描述,以便后继模块自动解析模型的输出结果,比如JSON、XML等;
tips: 大模型对prompt的开头和结尾部分更敏感;OpenAI GPT 对 Markdown 格式的prompt友好; 如果更换了大模型或者大模型更新了,prompt也需要跟着更新。
1.2 prompt用法
这里给出一个使用prompt操作GPT模型的例子(这里使用的是GPT的API,具体环境执行配置,这里不赘述),具体代码如下:
python
from openai import OpenAI
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
client=OpenAI()
message=[
{"role":"system","content":"你是一个微信公众号文章的写手。"},
{"role":"user","content":"写一段话介绍大模型,字数要求200字以内。"},
]
response=client.chat.completions.create(
model="gpt-4",
messages=message,
temperature=0.8)
print(response.choices[0].message.content)
GPT输出内容为(每次输出内容均不相同):
大模型,指的是通过大量数据训练得到的庞大的人工智能系统。这类模型因其庞大的参数数量和强大的数据处理能力而得名。它们能够处理复杂的任务,如自然语言理解、图像识别、语音处理等。大模型通过深度学习技术,学习数据中的模式和规律,从而实现对语言、图像等多种类型数据的理解和生成。这些模型的训练需要大量的计算资源和数据,因此常常由拥有强大计算能力的大型科技公司或研究机构开发。大模型的出现推动了人工智能技术的边界,使得机器能够在更多领域内执行复杂的任务,表现出接近甚至超越人类的能力。
关于上述GPT代码,这里只关注client.chat.completions.create
中的message
参数(其他参数后序博客介绍)。message
参数主要用来接收prompt。关于message
的说明主要有以下几点:
message
是一个object
组成的数组。每个object
都必须至少包含两个字段:role
和content
。content
中的内容即为具体的信息内容。- 目前
message
支持的角色类型role
有:system
、user
、assistant
和tool
。 - 当
role
为system
时,可以存放prompt中的角色信息。 - 当
role
为user
时,可以存放prompt中的其他信息。 - 当
role
为assistant
时,代表大模型返回的内容。注意:将assistant
类型的信息通过messages
参数再次传递给大模型,可以实现多轮对话。GPT这些模型本身是没有多轮对话的能力的。 - 当
role
为tool
时,用来保存tool_call
的返回结果。(后续博客会做详细介绍)
下面举一个简单的例子验证在messages
中添加role
为system
类信息时的作用,具体如下:
python
message=[
{"role":"system","content":"你是一个微信公众号文章的写手。你叫小A"},
{"role":"user","content":"你是谁?"},
]
response=client.chat.completions.create(
model="gpt-3.5-turbo",
messages=message,
temperature=0.8)
print(response.choices[0].message.content)
其输出内容为:
嘿,我是小A,是这个微信公众号的写手。有什么可以帮你的吗?
如果运行命令print(response.choices[0].message)
,将会看到如下结果(GPT返回的信息中role
的值为assistant
):
ChatCompletionMessage(content=' 嘿,我是小A,是这个微信公众号的写手。有什么可以帮你的吗?', role='assistant', function_call=None, tool_calls=None)
2 Prompt使用案例
大模型适合完成文本入、文本出类的任务。
2.1 使用prompt实现文章过滤
需求:需要利用大模型依据文章标题挑选出与特定主题相关的文章。假如需要挑选出与"阅读"或者"书籍"相关的文章。
完整代码如下:
python
from openai import OpenAI
from dotenv import load_dotenv, find_dotenv
_ = load_dotenv(find_dotenv())
client=OpenAI()
def get_completion(messages,model='gpt-4'):
response=client.chat.completions.create(
model=model,
messages=messages,
temperature=0.8)
return response.choices[0].message.content
prompt="""
##目标
你可以依据用户输入的文章标题,判断这篇文章是否跟阅读或者书籍相关。
##用户输入
{input_article_title}
##输出
只输出"是"或"否",
##示例
最适合今天读的灵性书籍: 是
肾脏很怕的 8 种食物,很多人每天都吃,还吃不少: 否
"""
article_list=["用七本想象力爆棚的绘本,点燃那颗崭新的童心",
'"书香盈怀 悦读致远" 2023年北京市诵读大赛燕山赛区活动通知',
"哪本书让你流了最多的眼泪?(话费福利)",
"今日宜自我分析",
"文化和自然遗产日:考验你的时刻到啦!",
"英文故事磨耳朵:When Sophie Gets Angry-Really,Really Angry...(附亲子共读获奖名单)",
"今日宜消化情绪",
"拜托了,夏天别和我提吃,除非......",
"预约!预约!预约!",
"今日宜大胆尝试",
"预约!聆听恐龙故事,揭开恐龙足迹背后的远古谜团",
"今日宜品读经典"]
messages=[
{"role":"user",
"content":prompt.format(input_article_title=str(article_list))}]
result=get_completion(messages)
print(result)
大模型输出结果为:
是、是、是、否、否、是、否、否、否、否、是、是