🚀实战详解MCP,从入门到开发!小白也能看懂!MCP推动AI智能体大爆发!Cline+Claude3.7打造论文搜索MCP Server!集成到AutoGen

🚀🚀🚀本篇笔记所对应所视频:www.bilibili.com/video/BV1RM... MCP(Model Context Protocol)是一个开源协议,旨在简化AI模型与外部数据源、工具和系统的连接,从而对AI智能体开发产生了深远的影响。它提供了一个标准化的方法,使得AI智能体能够更轻松地访问和利用各种资源,从而提升其功能性和开发效率。以下是从MCP对AI智能体开发影响力的角度进行的详细介绍:

1. 简化集成

MCP通过提供一个统一的接口,使得AI智能体能够动态地与外部数据源和工具进行交互。开发者无需为每个服务或数据源编写定制化的集成代码,这显著降低了开发成本和时间。例如,一个AI智能体可以通过MCP快速连接到数据库、API或第三方工具,而无需复杂的适配工作。

2. 增强互操作性

作为一个开放标准,MCP促进了不同AI系统、模型和工具之间的互操作性。这种标准化设计允许开发者灵活地选择和组合不同的技术组件,从而构建功能更强大的AI应用。例如,一个基于MCP的AI智能体可以无缝整合来自多个供应商的模型或服务,提升其适用范围和性能。

3. 提高可扩展性

MCP采用模块化设计,使得AI应用的扩展变得更加简单。当需求发生变化时,开发者可以轻松添加或替换MCP服务器,而无需对整个系统进行大规模重构。这种灵活性确保了AI智能体能够快速适应新的用例或技术进步,从而延长系统的生命周期。

4. 促进社区协作

由于MCP是开源的,它鼓励全球开发者社区的参与和贡献。这种开放性加速了新工具、服务和功能的开发,为AI智能体开发者提供了丰富的资源和选择。例如,社区可能开发出新的MCP兼容插件,进一步扩展AI智能体的能力。

5. 提升AI智能体的自主性

通过MCP,AI智能体能够更自主地执行复杂任务,例如数据分析、决策制定以及与外部系统的交互。这种能力减少了对人工干预的依赖,使得AI智能体在实际应用中更加高效和独立。例如,一个配备MCP的智能体可以根据实时数据自主调整策略,而无需人工重新配置。

MCP对AI智能体开发的影响是多方面的:它简化了集成过程、增强了互操作性、提高了可扩展性、促进了社区协作,并显著提升了AI智能体的自主性。通过提供一个标准化的连接框架,MCP不仅降低了开发门槛,还为AI技术的创新和广泛应用开辟了新的可能性。对于AI智能体开发者而言,MCP是一个强大的工具,能够助力构建更智能、更灵活的系统。

MCP Server

github.com/modelcontex...

python和node.js安装

www.python.org/downloads/r...

nodejs.org/zh-cn/downl...

复制代码
pip install uv

pip install uvx

arxiv论文检索代码

ini 复制代码
#------------------------------🔥js版本------------------------------

# npm install axios xml2js

const axios = require('axios');
const xml2js = require('xml2js');

async function searchArxiv() {
    const query = 'robotics+technology+in+electronic+information+engineering';
    const url = `http://export.arxiv.org/api/query?search_query=${query}&start=0&max_results=5&sortBy=submittedDate`;

    try {
        const response = await axios.get(url);
        const parser = new xml2js.Parser();
        parser.parseString(response.data, (err, result) => {
            if (err) {
                console.error("解析错误:", err);
                return;
            }
            const entries = result.feed.entry || [];
            entries.forEach((entry, index) => {
                console.log(`论文 ${index + 1}:`);
                console.log(`标题: ${entry.title[0]}`);
                console.log(`作者: ${entry.author.map(a => a.name[0]).join(', ')}`);
                console.log(`摘要: ${entry.summary[0]}`);
                console.log(`发布时间: ${entry.published[0]}`);
                console.log(`PDF 链接: ${entry.link.find(link => link.$.title === 'pdf').$.href}\n`);
            });
        });
    } catch (error) {
        console.error("请求失败:", error);
    }
}

searchArxiv();

#------------------------------🔥python版本------------------------------

# pip install arxiv

import arxiv

# 定义查询关键词
query = "robotics technology in electronic information engineering"

# 执行搜索
search = arxiv.Search(
    query=query,
    max_results=5,  # 限制返回论文数量
    sort_by=arxiv.SortCriterion.SubmittedDate  # 按提交时间排序
)

# 打印论文信息
for result in search.results():
    print(f"标题: {result.title}")
    print(f"作者: {', '.join([author.name for author in result.authors])}")
    print(f"摘要: {result.summary}")
    print(f"发布时间: {result.published}")
    print(f"PDF链接: {result.pdf_url}\n")

AutoGen和smolagents代码

ini 复制代码
export OPENAI_API_KEY=sk-proj-xxxxxxxxxx
set OPENAI_API_KEY=sk-proj-xxxxxxxxxx

# pip install -U "autogen-agentchat" "autogen-ext[openai]" "autogen-ext[mcp]" "mcp-server-fetch" "autogen-ext[http-tool]"

### 示例1 - 
import asyncio  # 导入异步IO库,用于支持异步编程
from autogen_agentchat.agents import AssistantAgent  # 导入助手代理,用于创建AI助手
from autogen_ext.models.openai import OpenAIChatCompletionClient  # 导入OpenAI聊天完成客户端
from autogen_ext.tools.mcp import StdioServerParams, mcp_server_tools  # 导入MCP工具相关的功能

async def main() -> None:
    # 从mcp-server-fetch获取fetch工具
    # 创建一个标准输入输出服务器参数对象,指定要运行的Node.js程序及其参数
    arxiv_mcp_server = StdioServerParams(
        command="node",  # 使用node命令
        args=["/Users/charlesqin/Documents/Cline/MCP/arxiv-search/build/index.js"]  # 指定要运行的JavaScript文件路径
    )
    # 异步获取MCP服务器工具,这些工具将允许代理与外部服务器通信
    tools = await mcp_server_tools(arxiv_mcp_server)

    # 创建一个可以使用fetch工具的代理
    # 初始化OpenAI聊天完成客户端,使用gpt-4o-mini模型
    model_client = OpenAIChatCompletionClient(model="gpt-4o-mini")

    # 将连字符改为下划线在代理名称中
    # 创建一个助手代理实例
    agent = AssistantAgent(
        name="arxiv_searcher",  # "arxiv_searcher"
        model_client=model_client,  # 设置模型客户端
        tools=tools,  # 配置可用工具
        reflect_on_tool_use=True  # 启用工具使用反思功能,代理将分析其工具使用的有效性
    )

    # 让代理获取URL的内容并进行摘要
    # 运行代理来执行指定的任务,这里是搜索微调Llama3的论文
    result = await agent.run(task="搜索微调Llama3的论文")
    # 打印代理返回的最后一条消息内容,即任务执行结果
    print(result.messages[-1].content)

if __name__ == "__main__":
    # 如果这个脚本是直接运行的(不是被导入的),则执行main函数
    asyncio.run(main())  # 使用asyncio运行异步main函数

--------------------------------------------------------------------

# pip install smolagents

from smolagents import ToolCollection, CodeAgent
from mcp import StdioServerParameters
import os
from smolagents import OpenAIServerModel

model = OpenAIServerModel(
    model_id="gpt-4o-mini",
    api_base="<https://api.openai.com/v1>",
    api_key=os.environ["OPENAI_API_KEY"],
)

server_parameters = StdioServerParameters(
    command="uvx",
    args=["--quiet", "mcp-server-fetch"],
    env={"UV_PYTHON": "3.11", **os.environ},
)

with ToolCollection.from_mcp(server_parameters) as tool_collection:
    agent = CodeAgent(tools=[*tool_collection.tools], model=model, add_base_tools=True)
    agent.run("总结这篇博客的内容:<https://www.aivi.fyi/llms/introduce-Gemma3>")
相关推荐
yaocheng的ai分身1 小时前
用MCP提速办公效率:分析manus官网案例
claude·mcp
玄明Hanko5 小时前
庆余年邂逅AI,速来围观
人工智能·机器人·aigc
三道杠卷胡5 小时前
【AI News | 20250316】每日AI进展
人工智能·python·语言模型·github·aigc
Jokeny5 小时前
自己动手,丰衣足食!用 Ollama + DeepSeek + FastGPT 搭建本地知识库,开启智能办公新体验
aigc
福宝plus5 小时前
ChatGPTplus/pro o1/o3模型无法识别图片和文件,如何ChatGPT无使用限制次数,如何解决ChatGPT降智且无限制使用附国内如何订阅Chat
chatgpt·openai·claude
_zwy8 小时前
QWQ-32B 于蓝耘 MaaS 平台:基于 Transformer 架构的 AIGC 推理优化策略
人工智能·深度学习·机器学习·自然语言处理·aigc
荣达8 小时前
MCP溯源与认知
前端·后端·openai
that's boy9 小时前
谷歌Gemini 2.0 Flash重磅更新:图文融合,初现AGI曙光
人工智能·chatgpt·openai·midjourney·agi·gemini·deepseek
niaonao21 小时前
字节跳动Trae国内版上线!AI IDE神器,免费体验Builder模式+Chat模式,开发效率提升300%!
aigc