百度AI搜索 MCP

1. 使用方式

1.1. 一键添加到应用中使用

1.2 通过 AppBuilder - SDK

ini 复制代码
python
import asyncio
from appbuilder.mcp_server.client import MCPClient


async def main():
    client = MCPClient()
    await client.connect_to_server(service_url=service_url)
    print(client.tools)
    result = await client.call_tool("AIsearch", {"query": "上海美食有哪些"})
    print(result)

if __name__ == "__main__":
    service_url = (
        "http://appbuilder.baidu.com/v2/ai_search/mcp/sse?api_key=Bearer+<AppBuilder API Key>"
    )
    loop = asyncio.get_event_loop()
    loop.run_until_complete(main())

1.3 通过 cursor

json 复制代码
json
{
    "mcpServers": {
        "AISearch": {
            "url": "http://appbuilder.baidu.com/v2/ai_search/mcp/sse?api_key=Bearer+<AppBuilder API Key>"
        }
    }
}

注意,api_key 需保留 Bearer 和 AppBuilder API Key 中间的 "+",点击获取 AppBuilder API Key。

2. 工具

搜索实时信息,并使用大模型进行总结回复。

参数:

字段 类型 是否必须 说明
query string 搜索查询关键词或短语,用于指定需要搜索的内容。 支持自然语言查询,可以包含多个关键词。Agent应该根据用户意图构建合适的查询语句,确保搜索结果的准确性和相关性。 最佳实践: 1) 使用简洁明确的关键词组合; 2) 对于复杂查询,可以拆分为多个简单查询; 3) 避免使用过于宽泛或模糊的词语。
model string 指定是否使用大语言模型对搜索结果进行总结,以及使用哪个模型进行总结。 默认值为空字符串,表示直接返回原始搜索结果。 当指定模型名称时(如"ERNIE-3.5-8K"),系统将使用对应的大模型对搜索结果进行智能总结。 此参数会显著影响其>他参数的行为: 1) 当未指定时,temperature、top_p等LLM相关参数将失效; 2) 当指定时,搜索结果会经过LLM处理,可能改变原始结果的呈现方式。 最佳实践: 1) 对于需要深入分析或总结的查询,建议使用ERNIE-3.5-8K或更高级的模型; 2) 对于只需要原始搜索结果的查询,保持默认值即可; 3) 根据实际需求选择合适的模型版本。
instruction string 用于控制搜索结果输出风格和格式的指令参数。 如:结果排序方式、内容过滤条件、输出格式等。 当未指定时,将使用默认的搜索结果展示方式。 最佳实践: 1) 明确指定需要的输出格式(如列表、摘要等); 2) 指定结果排序>方式(如按时间、相关性等); 3) 设置内容过滤条件(如排除特定类型的内容)。
temperature float 控制模型输出随机性的采样参数,取值范围为(0, 1]。默认值为1e-10。 该参数仅在model参数指定了LLM模型时生效。 参数影响模型输出的多样性和稳定性: 值越大,输出结果越多样化但可能不够稳定; 值越小,输出结果越确定和集中。 最佳实践: 1) 对于事实性查询,建议使用较低>的值(如0.1); 2) 对于创意性内容,可以使用较高的值(如0.7); 3) 避免使用极端值(接近0或1)。
top_p float 控制模型输出多样性的核采样参数,默认值为1e-10。 该参数仅在model>参数指定了LLM模型时生效。 参数通过设置累积概率阈值来筛选候选词: 值越小,模型会从更少的候选词中选择,输出更加确定和保守; 值越大,模型会考虑更多的候选词,输出更加多样和创造性。 最佳实践: 1) 通常建议设置为0.7-0.9之间; 2) 与temperature参数配合使用,共同控制输出质量; 3) 对于需要高准确性的场景,建议使用较低的值。
search_recency_filter string 控制>搜索结果的时效性范围,用于筛选指定时间范围内的网页内容。 可选枚举值包括:week(7天)、month(30天)、semiyear(180天)和year(365天)。 最佳实践: 1) 新闻类查询建议使用week或month>; 2) 技术文档查询建议使用month或semiyear; 3) 历史资料查询建议使用year; 4) 根据查询内容的时效性要求选择合适的范围。
search_domain_filter list[string ] 用于限制搜索结果来>源的域名过滤列表。 Agent可以指定一个或多个域名(如["baidu.com"]),系统将只返回这些指定域名的网页内容。 最佳实践: 1) 对于需要权威信息的查询,建议限制在官方或知名网站; 2) 可>以组合多个相关领域的权威网站; 3) 避免过度限制导致结果不足; 4) 根据查询主题选择合适的域名范围。
search_resource_type list 指定搜索资源的类型和每种类型返回的结果数量。 默认配置为[{"type": "web","top_k": 10}],表示只返回网页类型的搜索结果,且最多返回10条。 每种资源类型(web、image、video等)的top_k取值范围为1~10。 当与search_top_k参数同时存在时,本参数具有更高的优先级,即会覆盖search_top_k的设置。 例如: 当search_top_k=10且search_resource_type=[{"type": "web","top_k": 4}]时,实际返回的网页数量为4。 最佳实践: 1) 根>据查询需求选择适当的资源类型组合; 2) 合理分配各类型资源的返回数量; 3) 对于多类型查询,建议每种类型设置3-5条结果; 4) 避免请求过多不必要的结果类型。

服务配置

MCP Server URL

appbuilder.baidu.com/v2/ai_searc...

配置参数

{

"mcpServers": {

"AISearch": {

"url": "appbuilder.baidu.com/v2/ai_searc..."

}

}

}

鉴权参数

获取APIKEY cloud.baidu.com/doc/AppBuil...

相关推荐
大模型真好玩1 天前
LangChain1.0速通指南(一)——LangChain1.0核心升级
人工智能·agent·mcp
“负拾捌”2 天前
基于NodeJs实现一个MCP客户端(会话模式和无会话模式)
javascript·ai·node.js·大模型·mcp
华为云开发者联盟3 天前
【新特性】 版本速递 | 华为云Versatile智能体平台 新增特性介绍(2025年10月发布)
人工智能·华为云开发者联盟·ai agent·mcp·华为云versatile
字节跳动安全中心3 天前
开源!可信MCP,AICC机密计算新升级!
安全·llm·mcp
大模型真好玩3 天前
低代码Agent开发框架使用指南(六)—Coze 变量与长期记忆
人工智能·coze·mcp
字节跳动开源3 天前
开源可信MCP,AICC机密计算新升级!
mcp
数据智能老司机3 天前
使用 Python 入门 Model Context Protocol(MCP)——深入解析模型上下文协议(MCP)
llm·agent·mcp
YUELEI1184 天前
Mcp 基础
mcp
大模型真好玩5 天前
LangGraph实战项目:从零手搓DeepResearch(四)——OpenDeepResearch源码解析与本地部署
人工智能·agent·mcp