cherryStudio连接MCP服务器

cherryStudio安装

cherryStudio的安装可直接去官网进行安装即可

硅基流动 | CherryStudio

安装完成后打开的界面是这样的

cherrystudio 模型支持

cherrystudio作为一个客户端,可支持多种模型,并可支持线上模型和本地部署模型

线上模型支持

线上模型需要用户申请对应模型的api_key,以deepseek为例

首先去deepseek官网DeepSeek申请api_key,然后按照下述步骤填写

接下来即可正常使用deepseek模型了

线下模型支持

线下模型不需要api_key,但cherryStudio仅支持使用ollama部署的本地模型,具体部署方式可参考零基础本地部署Qwen3模型(ollama+Open-WebUI)-CSDN博客

本地部署的模型需要首先开启模型服务后才能使用cherryStudio进行连接,在powsheelsheel或cmd运行以下命令以开启本地模型服务

bash 复制代码
ollama start

然后打开 cherryStudio按照以下步骤连接本地部署的模型服务即可

cherrystudio MCP支持

依赖安装

第一次使用cherryStudio需要安装一些依赖包,按照下述步骤进行找到对应位置

如果依赖包没有安装,这里应该是红色的,它提示你需要安装哪些依赖,以及安装的位置,如下以我的为例,我需要安装uv.exe以及bun.exe两个依赖包(大部分情况都是安装这两个依赖的),安装的路径也在下边有提示

接下来我们需要手动下载这两个依赖,然后把他们拷贝到上述提示的路径下

cherryStudio所有连接的模型均可在以下位置找到

un.exe安装

参考官网安装方式

Installation | uv

打开powershell(注意是powershell不是cmd,powershell打开方式和cmd一样,快捷键win+r输入powershell),然后输入以下命令

bash 复制代码
powershell -ExecutionPolicy ByPass -c "irm https://astral.sh/uv/install.ps1 | iex"

安装完成后会有提示安装的位置(如C:\Users\Administrator\.local\bin),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)

bun.exe安装

bun的安装仍旧参考官网

安装 | Bun中文文档 | Bun中文网

打开powershell,然后输入以下命令

bash 复制代码
powershell -c "irm bun.sh/install.ps1|iex"

安装完成后也会有提示安装的位置(如C:\Users\xxx\.bun\bin\bun.exe),剪切它然后拷贝到cherryStudio提示的路径下(如果没有就创建对应文件夹)

连接MCP服务器

除了我们自己编写mcp以外,官方目前也已经提供了数千种mcp-server

modelcontextprotocol/servers: Model Context Protocol Servers

你也可以在cherryStudio中找到该仓库,点击"设置"、点击"更多mcp",点击第一项的红色方框

除此以外,国内阿里的ModelScope平台目前也支持了许多mcp-server,点击红色方框即可查看

这些都是已经写好的mcp-server,就像是一个工具,我们只需将其下载导入即可使用

接下来我们将介绍如何使用mcp-server

操作本地文件夹的mcp server

该mcp-server的仓库地址如下:servers/src/filesystem at main · modelcontextprotocol/servers

我们在仓库即可找到对应的使用方式,我们以npx调用方式为例,将以下json内容修改填写进cherryStudio即可

以下是具体步骤

以下是需要粘贴的json,大家自取,内容很简单,command表示使用什么工具调用的该mcp-server,args表示调用该mcp-server需要的参数,由于是操作本地文件夹的mcp-server,当然需要有一个操作的目的文件夹,本人的路径为"E:\AI\test"

bash 复制代码
{
    "mcpServers": {
        "filesystem": {
            "isActive": true,
            "command": "npx",
            "args": [
                "-y",
                "@modelcontextprotocol/server-filesystem",
                "E:\AI\test"
            ],
            "name": "filesystem"
        }
    }
}

保存后开启

接下来即可使用该mcp-server了

以下是我自己的尝试demo,我让它帮我在定义的文件夹里写一个快排,它成功创建并写入了,但是很遗憾不能运行

相关推荐
二向箔reverse14 分钟前
机器学习入门:线性回归详解与实战
人工智能·机器学习
真就死难22 分钟前
Rerank 模型的其中两种路径:BERT 相似度与 CoT 推理
人工智能·机器学习·rag
无规则ai30 分钟前
AI三巨头:机器学习、深度学习与人工智能解析
人工智能·深度学习·机器学习
不剪发的Tony老师40 分钟前
字节跳动正式开源AI智能体开发平台Coze
人工智能·coze
love530love44 分钟前
Windows 如何更改 ModelScope 的模型下载缓存位置?
运维·人工智能·windows·python·缓存·modelscope
一百天成为python专家3 小时前
数据可视化
开发语言·人工智能·python·机器学习·信息可视化·numpy
金井PRATHAMA3 小时前
主要分布在背侧海马体(dHPC)CA1区域(dCA1)的时空联合细胞对NLP中的深层语义分析的积极影响和启示
人工智能·神经网络·自然语言处理
说私域3 小时前
技术赋能与营销创新:开源链动2+1模式AI智能名片S2B2C商城小程序的流量转化路径研究
人工智能·小程序·开源
倒悬于世6 小时前
开源的语音合成大模型-Cosyvoice使用介绍
人工智能·python·语音识别
pk_xz1234567 小时前
光电二极管探测器电流信号处理与指令输出系统
人工智能·深度学习·数学建模·数据挖掘·信号处理·超分辨率重建