你是否曾觉得搭建AI智能体门槛太高而望而却步?其实,Qwen-Agent的搭建并没有想象中复杂------即使你没有AI开发经验,也能跟着清晰的步骤完成从环境准备到智能体运行的全流程。
本文将用直白的语言拆解Qwen-Agent搭建的每一个关键步骤,从环境准备到最终启动,每一步都有明确指引,帮你真正实现"从0到1"搞定Qwen-Agent搭建。
测试开发全景图:人工智能测试、智能驱动、自动化、测试开发、左移右移与DevOps的持续交付
一、环境准备与安装
首先需要配置基础开发环境:
bash
# 创建并激活conda环境
conda create --name qwen-agent python=3.12
conda activate qwen-agent
# 克隆Qwen-Agent仓库
git clone https://github.com/QwenLM/Qwen-Agent.git
cd Qwen-Agent
# 安装核心依赖包
pip install -e ./"[rag,code_interpreter,python_executor]"
确保你的系统满足以下要求:
- 硬件:推荐配备16GB显存的GPU(如NVIDIA RTX系列)
- Python:3.6及以上版本
- 网络:能够访问GitHub和PyPI仓库
二、模型部署:两种方案选择
Qwen-Agent支持两种模型服务对接方式:
方案一:使用阿里云DashScope服务(推荐新手)
python
# 文本模型配置
llm_cfg = {
'model': 'qwen-plus-2025-01-25',
'model_type': 'qwen_dashscope',
'api_key': '你的API密钥', # 请在阿里云平台申请
'generate_cfg': {'top_p': 0.8}
}
方案二:本地部署开源模型(需要更多资源)
python
# 本地文本模型配置
llm_cfg = {
'model': 'Qwen/Qwen2.5-14B-Instruct',
'model_server': 'http://127.0.0.1:9995/v1',
'api_key': 'EMPTY',
'generate_cfg': {'top_p': 0.9}
}
# 多模态模型配置
llm_cfg_vl = {
'model': 'Qwen/Qwen2-VL-7B-Instruct',
'model_server': 'http://127.0.0.1:9993/v1',
'api_key': 'EMPTY',
'generate_cfg': {'top_p': 0.9}
}
三、第一个智能体应用:RAG示例
下面我们创建一个能够处理文档问答的智能体:
python
from qwen_agent.agents import Assistant
# 配置LLM模型
llm_cfg = {
'model': 'Qwen/Qwen2.5-14B-Instruct',
'model_server': 'http://127.0.0.1:9995/v1',
'api_key': 'EMPTY',
'generate_cfg': {'top_p': 0.9}
}
def test():
# 初始化助手
bot = Assistant(llm=llm_cfg)
# 构建消息:用户查询+文档文件
messages = [
{'role': 'user', 'content': [
{'text': '介绍图一'},
{'file': '/path/to/your/document.pdf'} # 替换为你的文档路径
]}
]
# 运行智能体并获取响应
for rsp in bot.run(messages):
print(rsp)
if __name__ == '__main__':
test()
这个示例展示了Qwen-Agent的文档理解能力------它能读取PDF文件内容并回答相关问题。
四、工具调用:扩展智能体能力
Qwen-Agent的强大之处在于能调用各种工具。以下是天气预报助手的示例:
python
import os
from qwen_agent.agents import Assistant
# 设置高德地图API密钥(需要自行申请)
os.environ['AMAP_TOKEN'] = '你的高德API密钥'
# 模型配置
llm_cfg = {
'model': 'Qwen/Qwen2.5-14B-Instruct',
'model_server': 'http://127.0.0.1:9995/v1',
'api_key': 'EMPTY',
'generate_cfg': {'top_p': 0.9}
}
# 定义系统指令
system_instruction = (
'你扮演一个天气预报助手,你具有查询天气和画图能力。'
'你需要查询相应地区的天气,然后调用画图工具绘制一张城市的图。'
)
# 创建智能体
bot = Assistant(
llm=llm_cfg,
system_message=system_instruction,
function_list=['weather_query', 'image_gen'] # 天气查询和图像生成工具
)
这样创建的智能体能够查询真实天气数据并生成相应的可视化结果。
五、多Agent路由:处理复杂任务
对于复杂任务,可以使用多Agent协作系统:
python
from qwen_agent.agents import Assistant, ReActChat, Router
# 文本模型配置
llm_cfg = {...}
# 多模态模型配置
llm_cfg_vl = {...}
def init_agent_service():
tools = ['image_gen', 'code_interpreter']
# 创建多模态助手
bot_vl = Assistant(
llm=llm_cfg_vl,
name='多模态助手',
description='可以理解图像内容。',
function_list=tools
)
# 创建工具助手
bot_tool = ReActChat(
llm=llm_cfg,
name='工具助手',
description='可以使用画图工具和运行代码来解决问题',
function_list=tools,
)
# 创建路由器,管理多个智能体
bot = Router(
llm=llm_cfg,
agents=[bot_vl, bot_tool],
)
return bot
这种架构允许系统自动选择最合适的智能体处理不同任务,比如图像理解类任务路由到多模态助手,工具使用类任务路由到工具助手。
六、自定义工具开发
你还可以创建自己的工具:
python
from qwen_agent.tools.base import BaseTool, register_tool
import json5
import urllib.parse
@register_tool('my_image_gen')
class MyImageGen(BaseTool):
description = 'AI绘画服务,输入文本描述,返回基于文本信息绘制的图像URL。'
parameters = [{
'name': 'prompt',
'type': 'string',
'description': '期望的图像内容的详细描述',
'required': True
}]
def call(self, params: str, **kwargs) -> str:
prompt = json5.loads(params)['prompt']
prompt = urllib.parse.quote(prompt)
return json5.dumps({
'image_url': f'https://image.pollinations.ai/prompt/{prompt}'
}, ensure_ascii=False)
自定义工具通过继承BaseTool类并实现call方法,可以集成任何API或功能到你的智能体中。
七、常见问题与解决
- 环境配置问题:确保使用Python 3.12版本,避免版本兼容性问题
- API密钥错误:如果使用DashScope服务,确保API密钥正确配置
- 模型加载失败:检查模型路径和网络连接,确保能正常访问模型服务
- 工具调用失败:确认工具已正确注册,参数格式符合要求
八、进一步学习方向
成功搭建基础智能体后,你可以进一步探索:
- 性能优化:学习模型量化和推理优化技术
- 多模态应用:开发支持图像、音频和视频处理的智能体
- 分布式部署:将智能体部署为Web服务,供多用户使用
- 行业应用:将智能体适配到特定行业场景,如客服、内容创作等
测试开发全景图:人工智能测试、智能驱动、自动化、测试开发、左移右移与DevOps的持续交付
结语
通过本文的指导,你应该已经成功搭建了第一个Qwen-Agent智能体。从环境配置到智能体开发,整个流程其实并不复杂,关键是一步步跟着操作。
Qwen-Agent作为一个功能强大且灵活的框架,为开发者提供了构建AI智能体的全套工具。无论你是想开发简单的问答机器人,还是构建复杂的多模态应用系统,Qwen-Agent都能提供良好的支持。
现在就开始你的AI智能体开发之旅吧!如果有任何问题,欢迎在评论区留言讨论。