扣子开源本地部署教程 丨Coze智能体小白喂饭级指南

哈喽,大家好,

我是阿星👋

扣子开源了,怎么快速部署到本地呢,一起来跟着操作

1、下载项目文件

首先,本地新建文件夹,从github克隆代码。

GitHub地址:

github.com/coze-dev/co...

shell 复制代码
# 首先cd到你的目录
bash 复制代码
# 克隆代码 
bash 复制代码
git clone https://github.com/coze-dev/coze-studio.git

2、换个路径

但是正式启动之前,要先把大模型配置好。否则你启动了模型没法工作呀。

a、从模板目录复制1.6 模型的模版文件,并粘贴到配置文件目录

bash 复制代码
# 复制1.6 模型配置模版
复制代码
bash 复制代码
cd coze-studio
bash 复制代码
# 然后
bash 复制代码
cp backend/conf/model/template/model_template_ark_doubao-seed-1.6.yaml backend/conf/model/ark_doubao-seed-1.6.yaml

b、注意,打开你复制后的ark_doubao-seed-1.6.yaml,注意!接下来用的是这个复制后的文件,不是模板里的文件。

3、更改文件配置

打开ark_doubao-seed-1.6.yaml后,你会看到密密麻麻的代码

小白不要头晕

只 3个参数需要改:

🔴 id:比如123,必须是非 0 的整数,且全局唯一即可

🔴 meta.conn_config.api_key:

就是火山方舟的key,去这个地方获取一个:

API Key (www.volcengine.com/docs/82379/...)

点击创建即可

🔴 meta.conn_config.model :

火山方舟 doubao-seed-1.6 模型接入点的 Endpoint ID

这里获取推理接入点:console.volcengine.com/ark/region:...

然后点击红框里的这个字符,才是你的Endpoint ID

修改完成后大致如下

4、docker部署

shell 复制代码
# 启动服务,换成你自己的路径,比如我的是👉cd /Users/xingyang/Downloads/code/coze/coze-studio/docker#然后分别键入👉 cd docker👉cp .env.example .env👉docker compose --profile '*' up -d

然后你就会看到他正在下载

打开 http://localhost:8888/

输入邮箱和密码,就可以开始使用啦。

如果还有其他报错比如localhost拒绝了您的请求,直接吧coze-studio文件夹拖到codebuddy里面就可以了。让它给你启动。

相关推荐
DevYK13 小时前
企业级 Agent 开发实战(二) MCP 原理深度解析及项目实战
agent·mcp
文心快码BaiduComate14 小时前
文心快码已支持Kimi-K2-0905模型
llm·ai编程
算家计算15 小时前
DeepSeek被曝年底推出AI智能体,下一代人机交互时代要来了?
人工智能·agent·deepseek
大熊猫侯佩19 小时前
矩阵异变:代号 “AFM” 的 “温柔反叛者”—— 一场穿梭于骇客矩阵的苹果 AI 探秘
llm·ai编程·apple
数据智能老司机19 小时前
AI Agents 实战——多智能体应用
llm·aigc·agent
聚客AI21 小时前
👀10分钟搞懂RAG架构:离线索引+在线检索的闭环秘密
人工智能·llm·agent
CodeDevMaster21 小时前
使用Transformers、ChatGLM3项目、创建FastAPI应用等方式部署调用ChatGLM3-6B模型
llm·fastapi·chatglm (智谱)
Baihai_IDP1 天前
系统梳理 Test-Time Compute 的主要实现路径
人工智能·llm
AI大模型1 天前
大模型开发实战:使用 LLaMA Factory 微调与量化模型并部署至 Ollama
程序员·llm·llama
深度学习机器1 天前
UltraRAG:一个基于MCP协议,完全模块化的RAG框架
llm·github·agent