在 MCP 中实现 “askhuman” 式交互:原理、实践与开源方案

关键词:MCP、Model Context Protocol、交互式参数收集、askhuman、Dify、Lobe Chat、AnythingLLM


1. 背景:MCP 的"无状态"限制

MCP(Model Context Protocol)将 大模型 ↔ 工具 的通信标准化为一次性的 Request--Response 调用:

  • Server 只暴露工具清单与 JSONSchema;
  • Client 把 LLM 生成的参数一次性发出去;
  • Server 执行后返回结果,整个回合结束。

这意味着 原生协议没有中断点 让 Server 反问"还缺什么?"。要实现类 askhuman 的体验,必须把交互逻辑上移到 Client 层


2. 设计模式:多轮对话 + 客户端补参

2.1 数据流

复制代码
┌──────────┐        ┌──────────┐        ┌──────────┐
│   用户    │ <───> │ MCP Client │ <───> │ MCP Server│
└──────────┘        └──────────┘        └──────────┘
  1. LLM 生成 tool_calls,发现缺参 →
  2. Client 拦截
  3. Client 弹窗/CLI 提问 →
  4. 用户回答 →
  5. Client 回填参数
  6. 再次调用 tool →
  7. 结果返回给用户。

2.2 关键实现点

层级 要点
Server 把可能缺失的字段设为 optional,并在 description 注明"如未提供将询问用户"。
LLM Prompt 加系统指令:

"若参数缺失,不要猜测,直接告知用户并等待补充。" |

| Client | 维护对话状态;检测缺失字段;提供 UI/CLI 输入;重试调用。 |


3. 最小可行示例(Node.js CLI)

3.1 伪码:交互式搜索工具

ts 复制代码
// mcp-client.ts
import { Client } from '@modelcontextprotocol/sdk/client/index.js';
import * as readline from 'node:readline/promises';

const rl = readline.createInterface({ input: process.stdin, output: process.stdout });

const client = new Client(/* transport */);

const toolCall = /* 来自 LLM */;
const args = toolCall.arguments;

if (!args.query) {
  args.query = await rl.question('请输入搜索关键词:');
}

const res = await client.callTool({
  name: 'search',
  arguments: args,
});
console.log(res.content);

3.2 效果

复制代码
> 我想搜索一些内容
🤖 需要关键词才能搜索,请输入:
> TypeScript MCP
✅ 调用 search({ query: "TypeScript MCP" }) ...

4. 开源方案盘点

项目 交互方式 部署形态 亮点
Dify 工作流节点「Ask Human」 Docker / SaaS 零代码拖拽、支持审批流
Lobe Chat 前端弹窗注入变量 Vercel / Docker 插件市场、可嵌入网页
AnythingLLM Agent「Require User Input」 桌面 / Docker 私有化、知识库联动
Open MCP Client CopilotKit 表单 纯前端 轻量、可二次开发
Dolphin-MCP CLI 交互钩子 Python 库 适合脚本自动化

5. 典型集成:Dify 实战

5.1 步骤

  1. 在 Dify 新建 Chatflow
  2. 拖入 MCP Tool 节点,选择 search
  3. query 留空 → 拖入 Ask User 节点绑定到 query
  4. 发布应用,用户即可在对话中被询问关键词。

6. 最佳实践小结

  1. 永远让 Server 无状态,交互逻辑只在 Client。
  2. 参数 schema 描述清晰 → LLM 更容易判断何时缺参。
  3. 对话状态持久化(Session ID)→ 支持多用户并发。
  4. 超时与取消机制 → 避免用户长时间无响应卡死流程。
  5. 安全提示 → 敏感操作(删除、转账)务必二次确认。

7. 延伸阅读


🚀 欢迎在评论区分享你的 MCP 交互玩法!

相关推荐
计算机科研圈6 小时前
字节Seed发布扩散语言模型,推理速度达2146 tokens/s,比同规模自回归快5.4倍
人工智能·语言模型·自然语言处理·数据挖掘·开源·字节
陈哥聊测试6 小时前
Coze开源了!意味着什么?
人工智能·ai·开源·项目管理·项目管理软件
小和尚同志7 小时前
全网影视一网打尽!LibreTV App 来了
docker·容器·开源
YBCarry_段松啓11 小时前
DeerFlow:深度研究的多智能体框架
人工智能·开源·llm
ApacheSeaTunnel12 小时前
从《中国开源年度报告》看中国开源力量的十年变迁中,Apache SeaTunnel 的跃迁
开源·seatunnel
风车带走过往13 小时前
centos通过DockerCompose搭建开源MediaCMS
linux·开源·centos
算家计算14 小时前
深夜重磅!OpenAI 回归开源:连发两款推理模型,笔记本可运行
人工智能·开源·openai
萑澈15 小时前
国产开源大模型崛起:使用Kimi K2/Qwen2/GLM-4.5搭建编程助手
c++·开源·mfc
SelectDB技术团队17 小时前
ApacheCon Asia 2025 中国开源年度报告:Apache Doris 国内第一
开源·apache·数据库开发·doris·实时分析