该文章,将使用阿里云百炼平台的Qwen-plus模型作为llm模型。
所以在进行后面代码编写之前要申请百炼大模型平台的api-key。
获取参考:如何获取API Key_大模型服务平台百炼(Model Studio)-阿里云帮助中心
获取key后,我们可以编写一个.env文件来储存
bash
#阿里云百炼平台
DASHSCOPE_API_KEY="sk-xxxxxxxxxxxxxxxxxxxxx"
DASHSCOPE_BASE_URL="https://dashscope.aliyuncs.com/compatible-mode/v1"
然后我们就可以开始编写我们的代码了。
首先需要对第三方库的引入:
python
import dotenv
import os
from langchain_core.tools import tool
from langchain_core.prompts import ChatPromptTemplate
from langchain_openai import ChatOpenAI
然后我们需要通过dotenv和os库来获取我们配置在env的密钥和url:
python
dotenv.load_dotenv()
DASHSCOPE_API_KEY = os.getenv("DASHSCOPE_API_KEY")
DASHSCOPE_BASE_URL = os.getenv("DASHSCOPE_BASE_URL")
# 禁用 LangSmith
os.environ["LANGCHAIN_TRACING_V2"] = "false"
os.environ["LANGCHAIN_API_KEY"] = ""
-
加载 .env 文件中的环境变量
-
获取阿里百炼的 API 配置
-
禁用 LangSmith 追踪 (避免因为没有配置LangSmith密钥的 403 错误,防止影响观感)
然后进行工具函数定义:
python
@tool
def search_Desktop_app() -> str:
"""获取桌面文件和文件夹名称信息"""
try:
# 使用用户指定的桌面路径
desktop_path = r"D:\System\Desktop"
# 检查桌面路径是否存在
if not os.path.exists(desktop_path):
return f"桌面路径不存在:{desktop_path}"
# 获取桌面上的文件和文件夹
items = []
for item in os.listdir(desktop_path):
item_path = os.path.join(desktop_path, item)
if os.path.isfile(item_path):
items.append(f"📄 {item}")
elif os.path.isdir(item_path):
items.append(f"📁 {item}")
else:
items.append(f"❓ {item}")
# 返回格式化的结果
if not items:
return f"桌面 {desktop_path} 是空的"
result = f"桌面路径:{desktop_path}\n文件列表:\n" + "\n".join(items)
result += f"\n总计:{len(items)} 个项目"
return result
except Exception as e:
return f"获取桌面文件时出错:{str(e)}"
tools = [search_Desktop_app]
由于我的桌面在D盘,你们使用的时候要切换为自己的桌面路径。
tools = [search_Desktop_app]
将我们编写的方法储存在tools数组中,一会儿用于配置到agent中。
AI-agent配置:
python
# 构建LLM
llm = ChatOpenAI(
openai_api_key=DASHSCOPE_API_KEY,
openai_api_base=DASHSCOPE_BASE_URL,
model="qwen-plus",
temperature=0.1,
max_tokens=4096,
)
prompt = ChatPromptTemplate.from_messages([
(
"system",
"你是一个AI助手。如果用户提到桌面文件或文件夹,你可以使用工具获取相关信息。请直接给出简洁的回答,不要显示思考过程。",
),
("human", "{input}"),
])
现在我们就可以编写主要逻辑-main函数:
python
def main():
print("应用开始执行。\n")
while True:
user_question = input("请输入您的问题:")
if user_question.lower() in ['quit', 'exit']:
print("👋 再见!")
break
try:
# 绑定工具并调用
chain = prompt | llm.bind_tools(tools)
response = chain.invoke({"input": user_question})
# 处理工具调用
if hasattr(response, 'tool_calls') and response.tool_calls:
# 执行工具调用
tool_call = response.tool_calls[0]
if tool_call["name"] == "search_Desktop_app":
tool_result = search_Desktop_app(tool_call["args"])
# 再次调用获取最终回答
final_response = chain.invoke({
"input": f"{user_question}。根据工具返回:{tool_result},请直接回答。"
})
print(final_response.content)
else:
print(f"未知工具调用:{tool_call['name']}")
else:
# 直接打印普通回答
print(response.content)
except Exception as e:
print(f"处理问题时出错:{str(e)}")
if __name__ == "__main__":
main()
debug = True
-
智能工具调用 :
-
如果用户询问桌面相关问题,AI 会自动调用 search_Desktop_app 工具
-
获取桌面信息后, 再次调用 AI 生成基于实际数据的回答
-
异常处理 :捕获并显示运行时的错误信息
最后我们就可以启动我们的文件:
bash
python 文件名.py
我们的终端这时会出现:

输入问题来观察是否可以正确回复:

可以看见可以正确的回复!希望可以帮到你们。希望可以得到你们的收藏。谢谢!