运行fastGPT 第四步 配置ONE API 添加模型

上次已经装好了所有的依赖和程序。

下面在网页中配置One API ,这个是大模型的接口。配置好了之后,就可以配置fastGPT了。

打开 OneAPI 页面 添加模型

这里要添加具体的付费模型的API接口填进来。

可以通过ip:3001访问OneAPI后台,**默认账号为root密码为123456。**在OneApi中添加合适的AI大模型渠道。 比如我用质谱AI的API。

第一次进入,先改密码。

创建渠道 也就是质谱AI的渠道 API KEY 添加进去

添加渠道,也就是添加模型 和接口。

这里,比如我想添加GLM质谱AI的大模型,那么就去官网找到这个。找到具体的模型名字。因为我是用作 AI聊天客服,应对日常咨询。因此不需要强大的推理,而是需要急速回答,和便宜。

https://www.bigmodel.cn/pricing

找到以上的就可以了,向量模型用来处理文本,和知识库的信息。所以要一同加入。

注意,这里要手动填入模型的完整名字哦。否则列表中可能没有。 有些新的模型版本,需要自己填写。
然后在你的大模型网站上,找到API KEY 粘贴进去,就可以了。 每次就会扣费了。

测试一下,这里通过了,表示模型已经就位。 可以调用了。

创建ONE API的令牌

创建令牌 其实也就是ONE API 的KEY 用于给fastGPT调用。

创建了新的令牌TOKEN之后,你就能复制它了,就是一串密钥sk开头的

然后fastGPT通过这个,来调用你的ONE API上的接口。 从而扣费。 这样就能实现对个人的管理了。 你可以通过ONE API来多给别人建立几个TOKEN ,每个人单独扣费。你能在后台看到他们的费用情况。

当然,您只是自己用,就随便。 给自己随便填写一个额度。使劲用就行。 保证您的大模型接口上有钱就行。

修改ONE API配置文件 添加参数

找到上一篇文章中的/fastgpt/docker-compose.yml 这个文件,修改下面的参数。 把你的ONE API得到的token粘贴进去。

好了,sk-xxxxxxXU73hQgQ6DaB01601610e41B992995cD929C6C4Ec,我的是这样的。

把oneapi,改成你的 ip。 把 ip填进去替换oneapi就行,其它的不用改

修改FastGPT配置文件 向其中添加模型信息

然后在去修改另一文件。/fastgpt/config.json

为fastGPT添加新模型GLM-4-AirX ,这个是和我们前面ONE API里加入的名字要一致。

bash 复制代码
 {
      "provider": "ZhiPu",
      "model": "GLM-4-AirX",  // 新添加的模型
      "name": "GLM-4-AirX",
      "maxContext": 8000,  // 你可以根据需要设置最大上下文
      "maxResponse": 4000,  // 最大回复
      "quoteMaxToken": 8000,// 最大引用内容
      "maxTemperature": 1,// 最大温度
      "charsPointsPrice": 0.01,  // n积分/1k token(商业版)
      "censor": false,// 是否开启敏感校验(商业版)
      "vision": false,// 是否支持图片输入
      "datasetProcess": true,
      "usedInClassify": true,
      "usedInExtractFields": true,
      "usedInToolCall": true,
      "usedInQueryExtension": true,
      "toolChoice": true,
      "functionCall": false,
      "customCQPrompt": "",
      "customExtractPrompt": "",
      "defaultSystemChatPrompt": "",
      "defaultConfig": {"top_p": 0.7 },// 请求API时,挟带一些默认配置(比如 GLM4 的 top_p)
      "fieldMap": {}
    }

添加向量模型

bash 复制代码
   {
      "provider": "ZhiPu",
      "model": "embedding-2",    // 模型名(与OneAPI对应)
      "name": "embedding-2",     // 模型展示名
      "charsPointsPrice":0.0005, // n积分/1k token
      "defaultToken": 700,       // 默认文本分割时候的 token
      "maxToken": 3000,          // 最大 token
      "weight": 100,             // 优先训练权重
      "defaultConfig": {

      } // 自定义额外参数。例如,如果希望使用 embedding3-large 的话,可以传入 dimensions:1024,来返回1024维度的向量。(目前必须小于1536维度)
    }


特别要注意的是,这个名子的大小写,千万不要写错了。 它一会儿大写一会儿小写。 错了的话,就找不到接口。报错了。

好了。然后在宝塔面板中,重启这两个docker

ok,搞定了,下面就是去配置FastGPT了。 下一篇文章见~。

相关推荐
JarryStudy5 分钟前
HCCL与PyTorch集成 hccl_comm.cpp DDP后端注册全流程
人工智能·pytorch·python·cann
大闲在人17 分钟前
10. 配送中心卡车卸货流程分析:产能利用率与利特尔法则的实践应用
人工智能·供应链管理·智能制造·工业工程
woshikejiaih18 分钟前
**播客听书与有声书区别解析2026指南,适配不同场景的音频
大数据·人工智能·python·音视频
qq74223498420 分钟前
APS系统与OR-Tools完全指南:智能排产与优化算法实战解析
人工智能·算法·工业·aps·排程
兜兜转转了多少年22 分钟前
从脚本到系统:2026 年 AI 代理驱动的 Shell 自动化
运维·人工智能·自动化
EHagSJVNpTY24 分钟前
MATLAB 中基于最大重叠离散小波变换的心电信号处理探索
ubuntu
LLWZAI25 分钟前
十分钟解决朱雀ai检测,AI率为0%
人工智能
无忧智库25 分钟前
某市“十五五“智慧气象防灾减灾精准预报系统建设方案深度解读 | 从“看天吃饭“到“知天而作“的数字化转型之路(WORD)
大数据·人工智能
方见华Richard25 分钟前
方见华个人履历|中英双语版
人工智能·经验分享·交互·原型模式·空间计算
凤希AI伴侣26 分钟前
凤希AI伴侣:一人成军的工具哲学与全模态内容实践-2026年2月7日
人工智能·凤希ai伴侣