Cherry Studio+Ollama+大模型+向量模型,实现RAG私有知识库。智能体实现EXCEL转化为一个报表图表


一、安装Ollama


二、配置大模型

三、配置嵌入模型

四、安装Cherry Studio

五、搭建本地知识库



Cherry Studio+大模型+MCP,实现表格自动生成分析报告

①、下载安装CherryStudio

②、访问阿里云百炼平台,点击模型选项,申请API Key

③、在Cherry Studio中配置模型

  • 点击设置
  • 选择"模型服务-阿里云百炼"
  • 如为自动显示模型,前往阿里云百炼平台
  • 点击"模型广场",选择Qwen3模型,复制名称
  • 在Cherry Studio中添加模型

由于使用的新模型,所以需要手动添加

④、配置MCP服务

  • 在Cherry Studio点击左下角设置图标---MCP服务器配置
  • 首次安装需要以下四个文件,直接将文件复制到指定目录,安装完成后需要重启Cherry Studio


json 复制代码
{
	//用于任务分解,类似于DeepSeek中提供的思维链,将复杂任务拆解为小任务
	"mcpServers":{
		"sequential-thinking":{
			"command":"npx",
			"args":[
				"-y",
				"@modelcontextprotocol/server-sequential-thinking"
			]
		},
		//自动读取和写入文件
		"files":{
			"command":"npx",
			"args":[
				"-y",
				"@modelcontextprotocol/server-filesystem",
				"D:/abc" //操作指定文件夹下的文件
			]
		},
		//读取Excel数据
		"excel":{
			"command":"npx",
			"args":[
				"--yes",
				"@negokaz/excel-mcp-server"
			],
			"env":{
				"EXCEL_MCP_PAGING_CELLS_LIMIT":4000
			}
		},
		//绘图功能,实现图表生成
		"quickchart-server":{
			"command":"npx",
			"args":[
				"-y",
				"@gongrzhe/quickchart-mcp-server"
			]
		}
	}
}

分别点入每个服务,打开每个服务的开关

⑤、创建智能体


⑥、把Excel放到MCP服务中指定的文件夹下


相关推荐
学习是生活的调味剂5 小时前
大模型应用之使用LangChain实现RAG(一)
langchain·rag
laplace01237 小时前
mcp和skills区别
agent·rag·mcp·skills
gustt10 小时前
构建全栈AI应用:集成Ollama开源大模型
前端·后端·ollama
uncle_ll1 天前
RAG 系统性能跃迁:LlamaIndex 索引优化实战指南
llm·rag·检索·llamaindex
uncle_ll1 天前
Milvus介绍及多模态检索实践:从部署到实战全解析
milvus·多模态·向量数据库·ann·rag·搜索·检索
哈里谢顿1 天前
Ollama 部署 Qwen 详细指南(2026 最新版)
ollama
猿小羽1 天前
AIGC 应用工程师(3-5 年)面试题精讲:从基础到实战的系统备战清单
面试·大模型·aigc·agent·rag
大傻^1 天前
RAG检索增强生成深度解析:从召回率瓶颈到企业级落地实践
rag·检索增强生成
OPEN-Source1 天前
大模型实战:搭建一张“看得懂”的大模型应用可观测看板
人工智能·python·langchain·rag·deepseek
爱喝白开水a2 天前
前端AI自动化测试:brower-use调研让大模型帮你做网页交互与测试
前端·人工智能·大模型·prompt·交互·agent·rag