python
# 测试用例智能体
from dotenv import load_dotenv
from langchain.agents import create_agent
from langchain_deepseek import ChatDeepSeek
# 自动加载 .env 文件(环境变量),不用每次写 api_key=(必须在创建ChatDeepSeek之前!)
load_dotenv()
# 再创建大模型实例(此时能读到.env里的API Key)
# llm = ChatDeepSeek(
# model="deepseek-chat",
# temperature=0, # 温度:数字越低越不发散。对话可以设高一点如0.7。0意思严格根据用户上下文生成。
# # max_tokens=None,
# # timeout=None,
# # max_retries=2,
# # other params...
# )
# 创建智能体
agent = create_agent(
model="deepseek-chat", # 智能体对接哪个模型。现在写法是默认参数,如果model=llm,传上面创建的llm实例,可以控制更多参数
# 不写工具只能与大模型对话
tools=[],
system_prompt="You are a helpful assistant",
)
# The system prompt will be set dynamically based on context
result = agent.invoke(
{"messages": [{"role": "user", "content": "Explain machine learning"}]}
)
print(result)
到此是与大模型对话智能体。
前后端分离:
- 后端:启动langgraph api服务
python
# uv是Python包管理器
uv sync # 装项目依赖
# graph.json配置智能体路径
# 运行start_server.py
docling-mcp文档解析工具,借助langchain调用mcp
(https://github.com/docling-project/docling-mcp)
python
# 在终端启动
uvx --from docling-mcp docling-mcp-server --transport sse
# 不要关闭
- 前端:
python
brew install node
node -v
npm install -g yarn # 前端项目包管理器yarn
yarn -v
yarn install # 装项目依赖
npm run dev #运行