AI时代的高效信息管家:基于MCP-Agent
与通义千问
的网页总结智能体实战
在信息爆炸的时代,如何快速获取网页核心内容?当大语言模型遇上智能体框架,会擦出怎样的火花?今天我们将揭秘如何用
MCP-Agent
+通义千问
打造新一代智能摘要助手,让信息处理效率提升200%!
一、为什么需要网页总结智能体?
- 痛点直击:面对动辄上万字的行业报告、冗长的产品文档,人工提炼耗时耗力
- 技术机遇:大语言模型(
LLM
)的文本理解能力+智能体(Agent
)的自动化流程=完美解决方案 - 行业趋势:
Gartner
预测到2026年,80%的企业将部署AI代理处理日常文档工作
二、技术底座解析:MCP-Agent
× 通义千问
1. MCP-Agent框架
多智能体协作:通过Agent
协同实现复杂任务拆解(如网页抓取、语义分析、总结生成)
核心优势:
- ✅ 模块化架构支持灵活扩展
- ✅ 支持多模型调度与决策路由
- ✅ 内置记忆库实现持续学习
2. 通义千问大模型
阿里云最新千亿参数级中文LLM
核心能力:
- 🔥 长文本深度理解(支持10万字级上下文)
- 🔥 多维度摘要生成(要点式/故事化/问答式)
- 🔥 领域自适应(金融/医疗/科技等垂直领域优化)
三、实战案例:从0到1构建网页智能摘要流水线
1. 我们使用uv管理项目代码
我们使用uv
去管理这个项目相关的依赖和代码, 让我们先创建项目:
bash
mkdir web_page_summary
cd web_page_summary
uv init
# 安装依赖
uv add mcp_agent
2. 网页总结智能代理实现代码写入一个main.py文件中
ini
# Usage: uv run main.py
# -*- coding: utf-8 -*-
import asyncio
import argparse
from mcp_agent.app import MCPApp
from mcp_agent.agents.agent import Agent
from mcp_agent.workflows.llm.augmented_llm_openai import OpenAIAugmentedLLM
app = MCPApp(name="web_page_summary")
async def main(url):
async with app.run() as mcp_agent_app:
logger = mcp_agent_app.logger
# 创建一个 finder_agent 可以用于网络内容的 agent
finder_agent = Agent(
name="finder",
instruction="""You can fetch URLs.
Return the requested information when asked.""",
server_names=["fetch"], # 声明 agent 可以使用的 mcp server
)
async with finder_agent:
# 确保 MCP Server 初始化完成, 可以被 LLM 使用
tools = await finder_agent.list_tools()
logger.info("Tools available:", data=tools)
# Attach an OpenAI LLM to the agent
llm = await finder_agent.attach_llm(OpenAIAugmentedLLM)
# 使用 MCP Server -> fetch 获取指定 URL 网页内容
result = await llm.generate_str(
message=f"get content from {url}"
)
logger.info(f"content intro: {result}")
# 获取网页内容结果总结
result = await llm.generate_str("Please summary this webpage with lang_code")
logger.info(f"Summary: {result}")
if __name__ == "__main__":
parser = argparse.ArgumentParser(description='Process some integers.')
parser.add_argument('--url', type=str, required=True, help='The URL to fetch')
args = parser.parse_args()
asyncio.run(main(args.url))
3. 将MCP Server配置写入mcp_agent.config.yaml文件中
bash
$schema: "https://github.com/lastmile-ai/mcp-agent/blob/main/schema/mcp-agent.config.schema.json"
execution_engine: asyncio
logger:
type: file
level: info
transports: ["console", "file"]
path: "mcp-agent.log"
progress_display: true
mcp:
servers:
# fetch 用于获取网页内容
fetch:
command: "uvx"
args: ["mcp-server-fetch"]
openai:
# 将 API 调整为阿里云百炼大模型平台的 OpenAI 兼容 API
base_url: "https://dashscope.aliyuncs.com/compatible-mode/v1"
# 模型选用 qwen-turbo
default_model: "qwen-turbo"
4. 配置一下大模型的API密钥
makefile
# mcp_agent.secrets.yaml
openai:
api_key: "sk-xxxxxx"
5. 执行下这个网页总结智能代理
arduino
uv run main.py --url "https://docs.cline.bot/improving-your-prompting-skills/prompting#advanced-prompting-techniques"


6. 小结
成功实现了网页内容总结,以后可以开发一个工具或者页面专门将自己收藏夹中的网页内容汇总成知识摘要存储到个人知识库,变为自己的真正知识库。
额外tips : 如果抓取网页有问题,mcp agent
会提示你将文章内容粘帖到控制台,它帮你总结摘要,比如我将知乎一片关于王阳明先生100句名言给了它,总结摘要是:

最后项目目录如下:

四、小结
当智能体框架遇上顶尖大模型,我们正在见证一场信息处理革命的开端。如果现在不上车,请问更待何时?