cherryStudio连接MCP服务器

cherryStudio安装

cherryStudio的安装可直接去官网进行安装即可

硅基流动 | CherryStudio

安装完成后打开的界面是这样的

cherrystudio 模型支持

cherrystudio作为一个客户端,可支持多种模型,并可支持线上模型和本地部署模型

线上模型支持

线上模型需要用户申请对应模型的api_key,以deepseek为例

首先去deepseek官网DeepSeek申请api_key,然后按照下述步骤填写

接下来即可正常使用deepseek模型了

线下模型支持

线下模型不需要api_key,但cherryStudio仅支持使用ollama部署的本地模型,具体部署方式可参考零基础本地部署Qwen3模型(ollama+Open-WebUI)-CSDN博客

本地部署的模型需要首先开启模型服务后才能使用cherryStudio进行连接,在powsheelsheel或cmd运行以下命令以开启本地模型服务

bash 复制代码
ollama start

然后打开 cherryStudio按照以下步骤连接本地部署的模型服务即可

cherrystudio MCP支持

依赖安装

第一次使用cherryStudio需要安装一些依赖包,按照下述步骤进行找到对应位置

如果依赖包没有安装,这里应该是红色的,它提示你需要安装哪些依赖,以及安装的位置,如下以我的为例,我需要安装uv.exe以及bun.exe两个依赖包(大部分情况都是安装这两个依赖的),安装的路径也在下边有提示

接下来我们需要手动下载这两个依赖,然后把他们拷贝到上述提示的路径下

cherryStudio所有连接的模型均可在以下位置找到

un.exe安装

参考官网安装方式

Installation | uv

打开powershell(注意是powershell不是cmd,powershell打开方式和cmd一样,快捷键win+r输入powershell),然后输入以下命令

bash 复制代码
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

安装完成后会有提示安装的位置(如C:\Users\Administrator\.local\bin),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)

bun.exe安装

bun的安装仍旧参考官网

安装 | Bun中文文档 | Bun中文网

打开powershell,然后输入以下命令

bash 复制代码
powershell -c "irm bun.sh/install.ps1|iex"

安装完成后也会有提示安装的位置(如C:\Users\xxx\.bun\bin\bun.exe),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)

连接MCP服务器

除了我们自己编写mcp以外,官方目前也已经提供了数千种mcp-server

modelcontextprotocol/servers: Model Context Protocol Servers

你也可以在cherryStudio中找到该仓库,点击"设置"、点击"更多mcp",点击第一项的红色方框

除此以外,国内阿里的ModelScope平台目前也支持了许多mcp-server,点击红色方框即可查看

这些都是已经写好的mcp-server,就像是一个工具,我们只需将其下载导入即可使用

接下来我们将介绍如何使用mcp-server

操作本地文件夹的mcp server

该mcp-server的仓库地址如下:servers/src/filesystem at main · modelcontextprotocol/servers

我们在仓库即可找到对应的使用方式,我们以npx调用方式为例,将以下json内容修改填写进cherryStudio即可

以下是具体步骤

以下是需要粘贴的json,大家自取,内容很简单,command表示使用什么工具调用的该mcp-server,args表示调用该mcp-server需要的参数,由于是操作本地文件夹的mcp-server,当然需要有一个操作的目的文件夹,本人的路径为"E:\AI\test"

bash 复制代码
{
    "mcpServers": {
        "filesystem": {
            "isActive": true,
            "command": "npx",
            "args": [
                "-y",
                "@modelcontextprotocol/server-filesystem",
                "E:\AI\test"
            ],
            "name": "filesystem"
        }
    }
}

保存后开启

接下来即可使用该mcp-server了

以下是我自己的尝试demo,我让它帮我在定义的文件夹里写一个快排,它成功创建并写入了,但是很遗憾不能运行

相关推荐
Monkey PilotX8 分钟前
机器人“ChatGPT 时刻”倒计时
人工智能·机器学习·计算机视觉·自动驾驶
luoganttcc10 分钟前
L4 级别自动驾驶 硬件架构设计
人工智能·自动驾驶·硬件架构
ejinxian14 分钟前
AI Agents 2025年十大战略科技趋势
人工智能·ai·ai agents
耳东哇1 小时前
spring ai-openai-vl模型应用qwen-vl\gpt-文字识别-java
java·人工智能·spring
说私域5 小时前
基于开源AI智能客服、AI智能名片与S2B2C商城小程序的微商服务优化及复购转介绍提升策略研究
人工智能·小程序
之歆7 小时前
Al大模型-本地私有化部署大模型-大模型微调
人工智能·pytorch·ai作画
paid槮9 小时前
机器学习总结
人工智能·深度学习·机器学习
Hello123网站9 小时前
职得AI简历-免费AI简历生成工具
人工智能·ai工具
亚里随笔10 小时前
稳定且高效:GSPO如何革新大型语言模型的强化学习训练?
人工智能·机器学习·语言模型·自然语言处理·llm·rlhf
荼蘼10 小时前
机器学习之PCA降维
人工智能·机器学习