cherryStudio连接MCP服务器

cherryStudio安装

cherryStudio的安装可直接去官网进行安装即可

硅基流动 | CherryStudio

安装完成后打开的界面是这样的

cherrystudio 模型支持

cherrystudio作为一个客户端,可支持多种模型,并可支持线上模型和本地部署模型

线上模型支持

线上模型需要用户申请对应模型的api_key,以deepseek为例

首先去deepseek官网DeepSeek申请api_key,然后按照下述步骤填写

接下来即可正常使用deepseek模型了

线下模型支持

线下模型不需要api_key,但cherryStudio仅支持使用ollama部署的本地模型,具体部署方式可参考零基础本地部署Qwen3模型(ollama+Open-WebUI)-CSDN博客

本地部署的模型需要首先开启模型服务后才能使用cherryStudio进行连接,在powsheelsheel或cmd运行以下命令以开启本地模型服务

bash 复制代码
ollama start

然后打开 cherryStudio按照以下步骤连接本地部署的模型服务即可

cherrystudio MCP支持

依赖安装

第一次使用cherryStudio需要安装一些依赖包,按照下述步骤进行找到对应位置

如果依赖包没有安装,这里应该是红色的,它提示你需要安装哪些依赖,以及安装的位置,如下以我的为例,我需要安装uv.exe以及bun.exe两个依赖包(大部分情况都是安装这两个依赖的),安装的路径也在下边有提示

接下来我们需要手动下载这两个依赖,然后把他们拷贝到上述提示的路径下

cherryStudio所有连接的模型均可在以下位置找到

un.exe安装

参考官网安装方式

Installation | uv

打开powershell(注意是powershell不是cmd,powershell打开方式和cmd一样,快捷键win+r输入powershell),然后输入以下命令

bash 复制代码
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

安装完成后会有提示安装的位置(如C:\Users\Administrator\.local\bin),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)

bun.exe安装

bun的安装仍旧参考官网

安装 | Bun中文文档 | Bun中文网

打开powershell,然后输入以下命令

bash 复制代码
powershell -c "irm bun.sh/install.ps1|iex"

安装完成后也会有提示安装的位置(如C:\Users\xxx\.bun\bin\bun.exe),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)

连接MCP服务器

除了我们自己编写mcp以外,官方目前也已经提供了数千种mcp-server

modelcontextprotocol/servers: Model Context Protocol Servers

你也可以在cherryStudio中找到该仓库,点击"设置"、点击"更多mcp",点击第一项的红色方框

除此以外,国内阿里的ModelScope平台目前也支持了许多mcp-server,点击红色方框即可查看

这些都是已经写好的mcp-server,就像是一个工具,我们只需将其下载导入即可使用

接下来我们将介绍如何使用mcp-server

操作本地文件夹的mcp server

该mcp-server的仓库地址如下:servers/src/filesystem at main · modelcontextprotocol/servers

我们在仓库即可找到对应的使用方式,我们以npx调用方式为例,将以下json内容修改填写进cherryStudio即可

以下是具体步骤

以下是需要粘贴的json,大家自取,内容很简单,command表示使用什么工具调用的该mcp-server,args表示调用该mcp-server需要的参数,由于是操作本地文件夹的mcp-server,当然需要有一个操作的目的文件夹,本人的路径为"E:\AI\test"

bash 复制代码
{
    "mcpServers": {
        "filesystem": {
            "isActive": true,
            "command": "npx",
            "args": [
                "-y",
                "@modelcontextprotocol/server-filesystem",
                "E:\AI\test"
            ],
            "name": "filesystem"
        }
    }
}

保存后开启

接下来即可使用该mcp-server了

以下是我自己的尝试demo,我让它帮我在定义的文件夹里写一个快排,它成功创建并写入了,但是很遗憾不能运行

相关推荐
insight^tkk3 分钟前
【Docker】记录一次使用docker部署dify网段冲突的问题
运维·人工智能·docker·ai·容器
攻城狮7号5 分钟前
AI+大数据时代:如何从架构到生态重构时序数据库的价值?
大数据·人工智能·时序数据库·apache iotdb·sql大模型
智能化咨询12 分钟前
AI+大数据时代:时序数据库的生态重构与价值跃迁——从技术整合到行业落地
人工智能
paopaokaka_luck18 分钟前
基于SpringBoot+Vue的社区诊所管理系统(AI问答、webSocket实时聊天、Echarts图形化分析)
vue.js·人工智能·spring boot·后端·websocket
工藤学编程18 分钟前
零基础学AI大模型之RAG系统链路解析与Document Loaders多案例实战
人工智能
大千AI助手26 分钟前
加权分位数直方图:提升机器学习效能的关键技术
人工智能·机器学习·xgboost·直方图·加权直方图·特征分裂
星期天要睡觉1 小时前
深度学习——基于ResNet18迁移学习的图像分类模型
人工智能·python·分类·迁移学习
sunkl_1 小时前
JoyAgent问数多表关联Bug修复
人工智能·自然语言处理
AI数据皮皮侠1 小时前
中国博物馆数据
大数据·人工智能·python·深度学习·机器学习
强哥之神1 小时前
从零理解 KV Cache:大语言模型推理加速的核心机制
人工智能·深度学习·机器学习·语言模型·llm·kvcache