大模型应用--prompt工程实践

在使用大模型进行prompt 训练时,自己做的相关笔记。

本文以openai<1.0版为例。

1.调用大模型

定义调用openai大模型的函数 get_completion()

python 复制代码
def get_completion(prompt, model="gpt-3.5-turbo"):
    messages = [{"role": "user", "content": prompt}]
    response = openai.ChatCompletion.create(
        model=model,
        messages=messages,
        temperature=0,  # 模型输出的随机性,0 表示随机性最小
    )
    print(response)
    return response.choices[0].message["content"]

在openai.ChatCompletion.create函数中,还有以下这些参数:

python 复制代码
response = openai.ChatCompletion.create(
        model=model,
        messages=_session,
        # 以下默认值都是官方默认值
        temperature=1,          # 生成结果的多样性 0~2之间,越大越随机,越小越固定
        stream=False,           # 数据流模式,一个个字接收
        top_p=1,                # 随机采样时,只考虑概率前百分之多少的 token。不建议和 temperature 一起使用
        n=1,                    # 一次生成 n 条结果
        max_tokens=100,         # 每条结果最多多少个 token(超过截断)
        presence_penalty=0,     # 对出现过的 token 的概率进行降权
        frequency_penalty=0,    # 对出现过的 token 根据其出现过的频次,对其的概率进行降权
        logit_bias={},        # 对指定 token 的采样概率手工加/降权,不常用
    )

2.定义prompt

下面就开始写prompt中的内容,prompt中的内容通常包含:

python 复制代码
	• 角色: 定义一个最匹配任务的角色。
	• 指示{instruction}:对任务进行描述
	• 上下文{context}: 给出与任务相关的其它背景信息 (尤其在多轮交互中)
	• 例子{example}: 必要时给出举例
	• 输入{input_text}:任务的输入信息;在提示词中明确的标识出输入
	• 输出{output_format}: 输出的格式描述,比如 (JSON、XML)

对于以上的内容都可以在propmt中定义。

然后,把各个部分都写到propmt中即可,

python 复制代码
prompt = f"""

{instruction}

{output_format}

{context}

{example}

# 用户输入
{input_text}

"""

有很多的方法可以调优

在实际应用的过程中,对于prompt的训练还有很多的方法,需要一点一点实践。

下面的链接是官方给的prompt教程,一起学起来吧!!!🥝🥝🥝

Prompt Engineering Guide | Learn Prompting: Your Guide to Communicating with AI

我是大模型的初学者,慢慢完善,欢迎大佬指点一二,欢迎同学一起学习。🍭🍭🍭

相关推荐
板板正9 小时前
SpringAI——提示词(Prompt)、提示词模板(PromptTemplate)
java·spring boot·ai·prompt
半城风花半城雨18 小时前
Prompting Engineer 十大核心设计原则
人工智能·深度学习·prompt·prompt engineer
曲幽1 天前
Python使用diffusers加载文生图模型教程
python·ai·prompt·pipeline·torch·image·diffusers·transforms
MUTA️1 天前
Clip微调系列:《MaPLe: Multi-modal Prompt Learning》
人工智能·深度学习·微调·prompt·多模态
Blossom.1182 天前
基于深度学习的情感分析模型:从文本数据到模型部署
人工智能·深度学习·神经网络·学习·机器学习·prompt·sklearn
Blossom.1183 天前
从“炼丹”到“流水线”——如何用Prompt Engineering把LLM微调成本打下来?
人工智能·python·深度学习·神经网络·学习·机器学习·prompt
侃山3 天前
Visual Prompt Tuning核心思路讲解(个人总结)
prompt
三桥君4 天前
在AI应用中Prompt撰写重要却难掌握,‘理解模型与行业知识是关键’:提升迫在眉睫
人工智能·ai·系统架构·prompt·产品经理·三桥君
semantist@语校4 天前
日本语言学校:签证制度类 Prompt 的结构整理路径与策略
人工智能·百度·ai·语言模型·prompt·github·数据集
正在走向自律5 天前
第三章-提示词-解锁Prompt提示词工程核销逻辑,开启高效AI交互(10/36)
人工智能·prompt·交互·上下文注入·lora 微调·多模态提示·ape(自动提示词工程)