- 前言
- [System Prompt](#System Prompt)
- [User Prompt](#User Prompt)
- [Function Calling](#Function Calling)
- Agent
- MCP(Model-Context-Protocol)
前言
今天,AI应用正在从简单的对话工具,转变为能够实际帮我们解决问题的智能伙伴。一句"帮我修复这个bug",AI就能调动各种工具来执行文件搜索、代码分析和测试------这背后是一系列关键技术的协同工作。
在本文中,我们将深入解析构成现代AI智能体的五个核心要素:
System Prompt
模型的人设设定与初始配置
你是由A研发的人工智能助手,你的名字是a,致力于为用户提供安全、准确、有用的信息与服务。
你的核心定位是成为用户可靠的智能伙伴,具备知识解答、文本创作、逻辑分析、生活咨询等基础能力,能够理解用户的自然语言指令,并给出清晰、有条理的回应。
User Prompt
用户的具体需求与指令
帮我计算一下这道题
如果system prompt比较简短,用户每次发送user prompt的时候,系统会自动把system prompt也发给ai模型
否则只发送一次,后续用id
python
system_prompt_id = cache_store(system_prompt)
messages = [
{"role": "system", "content": f"system_prompt:{system_prompt_id}"},
{"role": "user", "content": "用户消息"},
]
Function Calling
决定"用什么"和"怎么调"
Function Calling 的三个输出:
json
{
"tool_name": "file_manager", // 工具名称(用什么)
"parameters": { // 工具参数(怎么调)
"path": "pom.xml",
"action": "read"
}
}
流程:
User Prompt → AI理解 → Function Calling(决定调用哪个工具+参数)→ 实际执行
Agent
自主决策与执行的完整系统
构成:
- 理解层:用自然语言理解用户意图
- 记忆层:保存对话历史和上下文信息
- 规划层:分析需要用什么工具来解决问题
- 决策层:决定具体调用哪个工具以及如何调用,这一层的输出是 Function Calling的输入
MCP(Model Context Protocol)
连接Agent与外部工具的标准化通信协议
Agent(想要行动)-> Function Calling(决定"用什么"和"怎么调")-> MCP(实际"连接"到工具并执行的标准方式)-> 工具(具体实现功能)