cherryStudio连接MCP服务器

cherryStudio安装

cherryStudio的安装可直接去官网进行安装即可

硅基流动 | CherryStudio

安装完成后打开的界面是这样的

cherrystudio 模型支持

cherrystudio作为一个客户端,可支持多种模型,并可支持线上模型和本地部署模型

线上模型支持

线上模型需要用户申请对应模型的api_key,以deepseek为例

首先去deepseek官网DeepSeek申请api_key,然后按照下述步骤填写

接下来即可正常使用deepseek模型了

线下模型支持

线下模型不需要api_key,但cherryStudio仅支持使用ollama部署的本地模型,具体部署方式可参考零基础本地部署Qwen3模型(ollama+Open-WebUI)-CSDN博客

本地部署的模型需要首先开启模型服务后才能使用cherryStudio进行连接,在powsheelsheel或cmd运行以下命令以开启本地模型服务

bash 复制代码
ollama start

然后打开 cherryStudio按照以下步骤连接本地部署的模型服务即可

cherrystudio MCP支持

依赖安装

第一次使用cherryStudio需要安装一些依赖包,按照下述步骤进行找到对应位置

如果依赖包没有安装,这里应该是红色的,它提示你需要安装哪些依赖,以及安装的位置,如下以我的为例,我需要安装uv.exe以及bun.exe两个依赖包(大部分情况都是安装这两个依赖的),安装的路径也在下边有提示

接下来我们需要手动下载这两个依赖,然后把他们拷贝到上述提示的路径下

cherryStudio所有连接的模型均可在以下位置找到

un.exe安装

参考官网安装方式

Installation | uv

打开powershell(注意是powershell不是cmd,powershell打开方式和cmd一样,快捷键win+r输入powershell),然后输入以下命令

bash 复制代码
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

安装完成后会有提示安装的位置(如C:\Users\Administrator\.local\bin),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)

bun.exe安装

bun的安装仍旧参考官网

安装 | Bun中文文档 | Bun中文网

打开powershell,然后输入以下命令

bash 复制代码
powershell -c "irm bun.sh/install.ps1|iex"

安装完成后也会有提示安装的位置(如C:\Users\xxx\.bun\bin\bun.exe),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)

连接MCP服务器

除了我们自己编写mcp以外,官方目前也已经提供了数千种mcp-server

modelcontextprotocol/servers: Model Context Protocol Servers

你也可以在cherryStudio中找到该仓库,点击"设置"、点击"更多mcp",点击第一项的红色方框

除此以外,国内阿里的ModelScope平台目前也支持了许多mcp-server,点击红色方框即可查看

这些都是已经写好的mcp-server,就像是一个工具,我们只需将其下载导入即可使用

接下来我们将介绍如何使用mcp-server

操作本地文件夹的mcp server

该mcp-server的仓库地址如下:servers/src/filesystem at main · modelcontextprotocol/servers

我们在仓库即可找到对应的使用方式,我们以npx调用方式为例,将以下json内容修改填写进cherryStudio即可

以下是具体步骤

以下是需要粘贴的json,大家自取,内容很简单,command表示使用什么工具调用的该mcp-server,args表示调用该mcp-server需要的参数,由于是操作本地文件夹的mcp-server,当然需要有一个操作的目的文件夹,本人的路径为"E:\AI\test"

bash 复制代码
{
    "mcpServers": {
        "filesystem": {
            "isActive": true,
            "command": "npx",
            "args": [
                "-y",
                "@modelcontextprotocol/server-filesystem",
                "E:\AI\test"
            ],
            "name": "filesystem"
        }
    }
}

保存后开启

接下来即可使用该mcp-server了

以下是我自己的尝试demo,我让它帮我在定义的文件夹里写一个快排,它成功创建并写入了,但是很遗憾不能运行

相关推荐
风象南8 小时前
我把大脑开源给了AI
人工智能·后端
Johny_Zhao10 小时前
OpenClaw安装部署教程
linux·人工智能·ai·云计算·系统运维·openclaw
飞哥数智坊10 小时前
我帮你读《一人公司(OPC)发展研究》
人工智能
冬奇Lab13 小时前
OpenClaw 源码精读(3):Agent 执行引擎——AI 如何「思考」并与真实世界交互?
人工智能·aigc
没事勤琢磨15 小时前
如何让 OpenClaw 控制使用浏览器:让 AI 像真人一样操控你的浏览器
人工智能
用户51914958484515 小时前
CrushFTP 认证绕过漏洞利用工具 (CVE-2024-4040)
人工智能·aigc
牛马摆渡人52816 小时前
OpenClaw实战--Day1: 本地化
人工智能
前端小豆16 小时前
玩转 OpenClaw:打造你的私有 AI 助手网关
人工智能
BugShare16 小时前
写一个你自己的Agent Skills
人工智能·程序员
机器之心16 小时前
英伟达护城河被AI攻破,字节清华CUDA Agent,让人人能搓CUDA内核
人工智能·openai