langchian 批次调用 prompt

目录

基础不使用批次

batch

批次调用


关于 langchian 额一些应用,可以查看案例:

GitHub - 5zjk5/prompt-engineering: prompt 工程项目案例

基础不使用批次

python 复制代码
from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
]
start = time.time()


def base_llm_chain(model, prompt, **kwargs):
    """
    https://python.langchain.com/docs/modules/model_io/prompts/composition/#string-prompt-composition
    基础链,带有变量的 prompt ,model 两个组成链
    :param model: llm
    :param prompt: prompt 其中的变量是用 {} 括起来的
    :param kwargs: prompt 中的变量
    :return:
    """
    prompt = PromptTemplate.from_template(prompt)
    chain = LLMChain(llm=model, prompt=prompt)
    res = chain.run(kwargs)
    return res
res = []
for p in prompt:
    _ = base_llm_chain(llm, p)
    res.append(_)
end = time.time()
t = end - start
print(t)

batch

Quickstart | 🦜️🔗 LangChain

python 复制代码
from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
]
start = time.time()
def batch_base_llm_chain_no_var(model, prompt):
    """
    基础链,批次调用
    不带变量的,传入的 prompt 是一个列表
    这种方式经过测试,没有用,测试了通义,智谱,这应该是专门为 openai 设计的接口
    需要真正批次调用使用 batch_base_llm_chain 方法,经测试有用
    """
    res = model.batch(prompt)
    return res
# res = Chain.batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt)
res = batch_base_llm_chain_no_var(llm, prompt)
end = time.time()
t = end - start
print(t)

跑几次都是 22s 左右,跟一条一条调用没有区别,测试了通义,智谱都一样,这应该是专门为 openai 设计的接口。

批次调用

下面这个方法才有用

python 复制代码
from dotenv import load_dotenv
import time
import os
from langchain_core.prompts import PromptTemplate
from langchain.chains import LLMChain

load_dotenv('key.env')

from langchain_community.llms import Tongyi
def tongyi_qwen_plus(temperature=1):
    # 通义 qwen_plus
    model = Tongyi(temperature=temperature, model_name='qwen-plus', dashscope_api_key=os.getenv('DASHSCOPE_API_KEY'))
    return model
llm = tongyi_qwen_plus()


prompt = [
    '说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
'说出"你好",不需要输出其他字',
    '说出"中国在哪里?",不需要输出其他字',
    '说出"你能做什么?",不需要输出其他字',
    '说出"讲一个小白兔故事",不需要输出其他字',
]
start = time.time()


def batch_base_llm_chain(model, prompt, max_concurrency=5, **kwargs):
    """
    https://python.langchain.com/docs/modules/model_io/prompts/composition/#string-prompt-composition
    基础链,带有变量的 prompt ,与不带变量的都可以用,model 两个组成链,批次调用
    :param model: llm
    :param prompt: prompt 其中的变量是用 {} 括起来的
    :param kwargs: prompt 中的变量
    :param max_concurrency: 并发请求数
    e.g: 带变量的调用
        prompt = 'tell me a joke about {other} and {topic2}'
        other = ['bear', 'dog']
        topic2 = ['cat', 'monkey']
        Chain.batch_base_llm_chain(llm, prompt, other=other, topic2=topic2)

        传进来后的 kwargs: kwargs = {'topic1': ['bear', 'dog'], 'topic2': ['cat', 'monkey']}
        处理后 batch_list: batch_list = [{"topic1": "bears", "topic2": "cat"}, {"topic1": "dog", "topic2": "monkey"}]

    e.g: 不带变量的调用
        prompt = '{prompt_string}'
        prompt_lst = ['xxx', 'xxx'...]
        Chain.batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt_lst)

    :return:
    """
    prompt = PromptTemplate.from_template(prompt)
    chain = LLMChain(llm=model, prompt=prompt)

    # 确保所有列表长度相同,构造批次列表
    keys = list(kwargs.keys())
    first_list_length = len(kwargs[keys[0]])
    if all(len(kwargs[key]) == first_list_length for key in keys):
        # 使用zip函数将所有值配对
        paired_values = zip(*[kwargs[key] for key in keys])
        # 遍历配对后的值,构造新的字典列表
        batch_list = [dict(zip(keys, values)) for values in paired_values]
    else:
        print("批次对应列表长度不一致,无法转换。")
        return None

    res = chain.batch(batch_list, config={"max_concurrency": max_concurrency})
    return res
res = batch_base_llm_chain(llm, '{prompt_string}', max_concurrency=16, prompt_string=prompt)
end = time.time()
t = end - start
print(t)

快了 2-3 倍

相关推荐
糯米导航4 小时前
ChatGPT Prompt 编写指南
人工智能·chatgpt·prompt
Daphnis_z9 小时前
大模型应用编排工具Dify之常用编排组件
人工智能·chatgpt·prompt
风雨中的小七1 天前
解密prompt系列47. O1 Long Thought的一些特征分析
prompt
赫萝的红苹果2 天前
图片生成Prompt编写技巧
prompt
overmind2 天前
[oeasy]python062_提示符是怎么来的_[词根溯源]prompt_input_输入函数_提示符
prompt
--fancy3 天前
提示词的艺术----AI Prompt撰写指南(个人用)
人工智能·chatgpt·prompt
cqbamboo3 天前
Learning Prompt
prompt
三月七(爱看动漫的程序员)3 天前
One Prompt is not Enough: Automated Construction of a Mixture-of-Expert Prompts
前端·人工智能·语言模型·自然语言处理·prompt·知识图谱
FOUR_A3 天前
【CLIP-LIT】Iterative Prompt Learning for Unsupervised Backlit Image Enhancement
人工智能·算法·机器学习·计算机视觉·prompt
Elastic 中国社区官方博客3 天前
Observability:最大化可观察性 AI 助手体验的 5 大提示(prompts)
大数据·人工智能·elasticsearch·搜索引擎·信息可视化·prompt·全文检索