Amazon Bedrock +Amazon Step Functions实现链式提示(Prompt Chaining)

一、链式提示 Prompt Chaining架构

Prompt Chaining 是一种在生成式人工智能(如大型语言模型)中广泛使用的技术,它允许用户通过一系列精心设计的提示(Prompts)来引导模型生成更加精确、丰富且符合特定需求的内容。

Prompt Chaining 的核心思想在于不是一次性给出一个复杂的指令或问题给模型,而是将大问题分解成一系列更小、更具体的子问题,每个子问题通过生成的文本作为下一个提示的基础,逐步引导模型向目标输出逼近。这种链式提示的方式能够有效提高模型的响应质量,减少错误,并使得生成的内容更加符合用户的预期。

Prompt Chaining的工作原理基于两个关键要素:任务分解和对话连续性。

  1. 任务分解:首先,用户需要将复杂的任务或问题分解成一系列可管理的子任务或子问题。这些子任务应该按照逻辑顺序排列,以便逐步引导模型向最终目标靠近。
  2. 对话连续性:在分解任务后,用户会向模型发送第一个提示,并接收其生成的响应。然后,用户会根据这个响应设计下一个提示,这个提示可能会引用或反馈前一个响应的内容,以保持对话的连续性和一致性。这个过程会重复进行,直到达到满意的结果。

以上是一个示例的链式提示架构,首先其设计了一系列通过Amazon Step Functions定义的状态机。每个状态机代表了一个示例或任务的执行流程,它能够引导程序完成特定的任务或操作。这些状态机会调用Amazon Bedrock中的基础模型来生成对应内容,最后Streamlit应用程序将展示这些状态机执行的结果,并展示给用户。

二、实践:Amazon Bedrock +Amazon Step Functions实现链式提示

2.1、依赖安装与代码准备

首先进入**亚马逊云科技海外区官网** 点击亚马逊控制台,搜索Cloud 9,打开Cloud9 控制台界面:

进入控制台后,点击打开Cloud9 IDE:

进入Cloud9 IDE之后,首先在终端中输入sudo npm install -g npm更新NPM,然后,使用npm安装cdk:

然后,使用git克隆,下载本次实践的代码:

bash 复制代码
git clone https://github.com/aws-samples/build-genai-agent-workflows-with-step-functions

出现build-genai开头的文件夹时,表明代码拉取成功:

最后,cd进入build-genai-agent-workflows-with-step-functions文件夹,并安装对应依赖:

bash 复制代码
cd build-genai-agent-workflows-with-step-functions/
pip install -r requirements.txt

2.2、通过 CDK 部署项目

CDK(AMazon Cloud Development Kit)是一个开源的软件开发框架,其提供了一种声明式的方法来构建、编写和部署基础设施,使得基础设施的创建和管理更加可靠、可重复和易于维护。

准备好代码和依赖后,下面在终端输入:cdk deploy --all开始部署,部署大致需要 5 分钟:

部署成功后,会给出预览的网址,单击链接,打开项目地址:

项目的效果如下,其将故事撰写任务分为多个子任务,首先为故事生成角色列表,然后为故事生成每个角色的情节,之后使用角色描述和情节生成短篇故事。

2.3、打开 Step Functions监控工作流运行细节

以上项目已经为我们成功创建了 Step Functions工作流,我们可以打开控制台,搜索并点击进入Step Functions:

在Step Functions控制台中找到PromptChainDemo-StoryWriter状态机:

打开任务,并查看streamlit开头的任务:

在图表视图里,就可以看到工作流的具体流程以及正在发生的事件:

故事撰写的完整工作流图示如下:

整个工作流设计了一个使用人工智能辅助创作故事的过程,其中包括角色和故事情节的生成、迭代、错误处理、故事合并和最终选择,其中它从"Start"开始,然后进入一系列步骤,每个步骤都以"Generate Characters"或"Generate Character Story Arc"开始,表明这些步骤是关于角色生成或故事情节构建的。整个工作流的连贯分析如下:

  1. 角色生成:首先,工作流涉及角色的创建,包括准备消息、格式化提示、调用模型、提取模型响应和准备输出。创作者需要准备输入给模型的信息,然后使用模型生成角色,最后提取并准备这些角色的输出。
  2. 角色故事映射:在角色生成后,有一个"Character Story Map"步骤,这意味着将角色与他们的故事线进行关联或映射。
  3. 故事情节生成:与角色生成类似,故事情节的生成也包括准备消息、格式化提示、调用模型、提取模型响应和准备输出。
  4. 合并角色故事:在角色和故事情节生成之后,有一个"Merge Character Stories"步骤,将不同角色的故事线合并成一个连贯的故事。
  5. 故事完整性:接下来是"Generate the Full Story",这包括准备消息、包括之前的消息、格式化提示、调用模型、提取模型响应和准备输出,主要用于整合之前生成的所有元素,以形成一个完整的故事。
  6. 选择故事:最后,有一个"Select Story"步骤,这可能意味着从生成的多个故事中选择一个最终版本。

至此,我们就成功部署了一个基于 Amazon Bedrock,Amazon Cloud9,Amazon Step Functions,Amazon Lambda 和 Amazon Fargate 等 Serverless服务搭建的工作流。这个工作流使用Prompt Chaining将一个宏大的创作任务------Story Writer------分解成一系列角色创建、情节设计等步骤。每个步骤都通过调用LLM并传递特定的Prompt来执行。把一个复杂的任务分解成多个步骤,多次调用大语言模型,稳定可靠的完成任务。

现在进入亚马逊云科技海外区官网, 除了免费的Amazon Step Functions、Amazon Lambda,还有丰富的亚马逊云服务器(Amazon EC2)、亚马逊云科技云存储(Amazon S3),负载均衡(Elastic Load Balancing),虚拟服务器VPS(Amazon Lightsail)、视频会议(Amazon Chime )等等100 余种云产品或服务免费试用。

相关推荐
Jurio.14 分钟前
Conda 管理项目环境
人工智能·python·深度学习·conda·virtualenv·pip
曼城周杰伦26 分钟前
自然语言处理:第六十二章 KAG 超越GraphRAG的图谱框架
人工智能·pytorch·神经网络·自然语言处理·chatgpt·nlp·gpt-3
Donvink28 分钟前
多模态大语言模型——《动手学大模型》实践教程第六章
人工智能·深度学习·语言模型·自然语言处理·llama
Joyner20181 小时前
pytorch训练的双卡,一个显卡占有20GB,另一个卡占有8GB,怎么均衡?
人工智能·pytorch·python
我爱学Python!1 小时前
解决复杂查询难题:如何通过 Self-querying Prompting 提高 RAG 系统效率?
人工智能·程序人生·自然语言处理·大模型·llm·大语言模型·rag
AI视觉网奇1 小时前
pytorch3d linux安装
linux·人工智能·pytorch
OBOO鸥柏1 小时前
OBOO鸥柏28.6寸液晶广告屏:创新技术引领智能显示新时代
人工智能·科技·大屏端·广告一体机
封步宇AIGC1 小时前
量化交易系统开发-实时行情自动化交易-4.2.1.简单移动平均线实现
人工智能·python·机器学习·数据挖掘
封步宇AIGC2 小时前
量化交易系统开发-实时行情自动化交易-4.1.4.A股布林带(BOLL)实现
人工智能·python·机器学习·数据挖掘
HengCeResearch882 小时前
中国【食品检测实验室自动化】程度相对欧美等发达国家相对落后,并且技术层面存在明显的代差,未来有比较大的发展空间
人工智能·百度·自动化